WO2026008709A1 - Method for calibrating a camera system - Google Patents
Method for calibrating a camera systemInfo
- Publication number
- WO2026008709A1 WO2026008709A1 PCT/EP2025/068850 EP2025068850W WO2026008709A1 WO 2026008709 A1 WO2026008709 A1 WO 2026008709A1 EP 2025068850 W EP2025068850 W EP 2025068850W WO 2026008709 A1 WO2026008709 A1 WO 2026008709A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- cameras
- distance
- image
- flash
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Verfahren zum Kalibrieren eines Kamerasystems Method for calibrating a camera system
Die vorliegende Patentanmeldung nimmt die Priorität der deutschen Patentanmeldung DE 10 2024 206 379.7 in Anspruch, deren Inhalt durch Bezugnahme hierin aufgenommen wird. The present patent application claims priority from German patent application DE 10 2024 206 379.7, the contents of which are incorporated herein by reference.
Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras mit bekannten Brennweiten. Ferner betrifft die Erfindung ein Kamerasystem, kalibriert nach einem derartigen Verfahren, und Verfahren zum Betrieb eines derartigen Kamerasystems. The invention relates to a method for calibrating a camera system with at least three cameras with known focal lengths. The invention further relates to a camera system calibrated according to such a method, and to methods for operating such a camera system.
Kamerasysteme sind bekannt aus der WO 2022/069 424 Al, der WO 2022/069 425 A2, der WO 2022/179 998 Al und der DE 10 2011 080 702 B3. Die US 2019/0158813 Al offenbart ein Verfahren zum Rekalibrieren von Stereokameras in Echtzeit. Camera systems are known from WO 2022/069 424 Al, WO 2022/069 425 A2, WO 2022/179 998 Al and DE 10 2011 080 702 B3. US 2019/0158813 Al discloses a method for recalibrating stereo cameras in real time.
Es ist eine Aufgabe der vorliegenden Erfindung, einen präzisen und sicheren Betrieb eines Kamerasystems mit mehreren Kameras, die insbesondere Bestandteile von Stereokameras zur triangulatorischen Objekt- Abstandsbestimmung innerhalb einer bilderfassenden Umgebung darstellen können, zu gewährleisten. It is an object of the present invention to ensure precise and safe operation of a camera system with multiple cameras, which in particular can be components of stereo cameras for triangulatory object distance determination within an image-capturing environment.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Kalibrierverfahren mit den im Anspruch 1 angegebenen Merkmalen. This problem is solved according to the invention by a calibration method with the features specified in claim 1.
Erfindungsgemäß wurde erkannt, dass mit Hilfe eines derartigen Kalibrierverfahrens auch Kameras mit vergleichsweise kleinem objektseitigem Öff- nungswinkel sicher und präzise kalibriert werden können, so dass diese Ka- meras nach durchgeführter Kalibrierung dann im Kamerasystem beispielsweise als Bestandteile von Stereokameras zum Einsatz kommen können. Bei dem Kalibrierverfahren wird ausgenutzt, dass die nebeneinander längs der Kamera- Anordnungs-Koordinate angeordneten, zu kalibrierenden Kameras des Kamerasystems die ausgewählten Kalibrier-Markierungspunkte mit definiert unterschiedlichen Disparitäten sehen, so dass auch kleine Lage- bzw. Disparitätsfehler bestimmt werden können. According to the invention, it was recognized that with the aid of such a calibration method, even cameras with a comparatively small object-side opening angle can be calibrated safely and precisely, so that these cameras can be used to achieve optimal performance. After calibration, these components can then be used in the camera system, for example as components of stereo cameras. The calibration process utilizes the fact that the cameras to be calibrated, arranged side-by-side along the camera arrangement coordinate, see the selected calibration marker points with defined, different disparities, allowing even small positional or disparity errors to be determined.
Bei den mindestens drei Kalibrier-Markierungen, die beim Kalibrierverfahren ausgewählt werden, kann es sich um natürliche Markierungspunkte, also insbesondere um natürliche Merkmale einer Szenerie, handeln. Alternativ oder zusätzlich können Markierungen im Rahmen des Kalibrierverfahrens auch bereitgestellt werden. The at least three calibration markers selected during the calibration process can be natural marker points, i.e., natural features of a scene. Alternatively or additionally, markers can also be provided as part of the calibration process.
Die Kalibrier-Markierungspunkte liegen tiefengestaffelt vor. The calibration marker points are arranged at different depths.
Der objektseitige Öffnung s winkel der Kameras des Kamerasystems beträgt jeweils höchstens 45°. Je nach Ausführung des Kamerasystems kann der Öffnung s winkel der Kameras des Kamerasystems jeweils auch kleiner sein und kann beispielsweise höchstens 40°, höchstens 35° oder auch höchstens 30° betragen. Der maximale objektseitige Öffnungswinkel der Kameras des Kamerasystems kann auch noch kleiner sein. Regelmäßig ist dieser Öffnungswinkel größer als 5°. The object-side opening angle of the cameras in the camera system is a maximum of 45°. Depending on the camera system design, the opening angle of the cameras can also be smaller, for example, a maximum of 40°, 35°, or even 30°. The maximum object-side opening angle of the cameras in the camera system can also be smaller. This opening angle is typically greater than 5°.
Die beim Kalibrierverfahren abgebildeten Kalibrier-Markierungspunkte liegen alle in den Öffnung s winkeln aller zu kalibrierenden Kameras des Kamerasystems. Grundsätzlich kann das Kalibrierverfahren auch mit einem Kamerasystem mit mindestens einer Kamera zum Einsatz kommen, deren Öffnungswinkel größer ist als 45°. Insbesondere kann das Kalibrierverfahren auch bei einem Kamerasystem mit Fischaugenkameras bzw. Fischaugenobjektiven zum Einsatz kommen. The calibration marker points shown in the calibration procedure are all located in the opening angles of all cameras of the camera system to be calibrated. In principle, the calibration procedure can also be used with a camera system with at least one camera whose field of view is greater than 45°. In particular, the calibration procedure can also be used with a camera system with fisheye cameras or fisheye lenses.
Das zu kalibrierende Kamerasystem kann mehr als drei Kameras aufweisen, zum Beispiel vier Kameras, fünf Kameras oder auch noch mehr Kameras. Die Kameras des zu kalibrierenden Kamerasystems müssen nicht exakt in ein und derselben Ebene angeordnet sein. Ein Abstand einer jeweiligen Kamera von einer nächstliegenden gemeinsamen Kamera- Anordnungsebene ist im Regelfall deutlich kleiner als ein typischer Abstand zwischen zwei benachbarten Kameras des zu kalibrierenden Kamerasystems. The camera system to be calibrated can contain more than three cameras, for example, four, five, or even more. The cameras in the system to be calibrated do not need to be arranged exactly in the same plane. The distance of each camera from the nearest common camera arrangement plane is typically much smaller than the typical distance between two adjacent cameras in the system to be calibrated.
Abstands-Relativunterschiede nach Anspruch 2 verbessern ein Kalibrierergebnis. Abstände der Kalibrier-Markierungspunkte können sich voneinander um mehr als 20 % unterscheiden, beispielsweise um mindestens 25 %, um mindestens 50 % oder auch um mindestens 100 %. Distance-relative differences according to claim 2 improve a calibration result. The distances between the calibration marker points can differ from each other by more than 20%, for example by at least 25%, at least 50%, or even at least 100%.
Eine Vorgabe von mehr als drei Kalibrier-Messpunkten nach Anspruch 3 verbessert eine Präzision der Kalibrierung. Es ist alternativ oder zusätzlich möglich, pro ausgewählter bzw. bereitgestellter Kalibrier-Markierung mehr als einen Kalibrier-Markierungspunkt vorzugeben. Specifying more than three calibration measurement points according to claim 3 improves calibration precision. Alternatively or additionally, it is possible to specify more than one calibration marker point for each selected or provided calibration marker.
Die Vorteile eines Kamerasystems nach Anspruch 4 entsprechen denen, die vorstehend unter Bezugnahme auf das Kalibrierverfahren bereits erläutert wurden. Ein derartiges Kamerasystem, ausgeführt zur räumlichen Bilderfassung, kann an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst sein. Die jeweilige Teleobjektiv-Kamera kann eine Brennweite im Bereich zwischen 6 mm und 100 mm, beispielsweise im Bereich zwischen 8 mm und 50 mm, aufweisen. The advantages of a camera system according to claim 4 correspond to those already explained above with reference to the calibration method. Such a camera system, designed for spatial image acquisition, can be well adapted to practical applications, particularly image acquisition for ensuring assistive or autonomous driving. Each telephoto lens camera can have a focal length in the range between 6 mm and 100 mm, for example in the range between 8 mm and 50 mm.
Bei einem Pixelabstand der jeweiligen Kamera von 5 pm pro Pixel und einer Brennweite von 10 mm ergibt sich eine relative Brennweite (Brenn- weite/Pixelab stand) von 2000 Pixelab ständen (kurz: 2000 Pixel). Der Pixelabstand kann auch kleiner sein und beispielsweise 3,45 pm betragen. With a pixel pitch of 5 pm per pixel for the respective camera and a focal length of 10 mm, the relative focal length (focal length/pixel pitch) is 2000 pixel pitches (in short: 2000 pixels). The pixel pitch can also be smaller and, for example, 3.45 pm.
Bei einem Weitwinkel-Objektiv mit 2,1mm Brennweite und 3,45pm pro Pixel ergibt sich eine relative Brennweite von 609 Pixel (2,1/3,45*1000). Je nach Ausführung des Kamerasystems können auch alle Kameras des Kamerasystems als entsprechende Teleobjektiv-Kameras ausgeführt sein. With a wide-angle lens with a 2.1mm focal length and 3.45pm per pixel, the relative focal length is 609 pixels (2.1/3.45*1000). Depending on the camera system design, all cameras in the system can also be configured as corresponding telephoto lenses.
Bei Ausgestaltung der Kamerapaare als Stereokameras nach Anspruch 5 kommen die Vorteile der Kalibrierung besonders gut zum Tragen. When the camera pairs are designed as stereo cameras according to claim 5, the advantages of calibration are particularly evident.
Beim Kamerasystem nach Anspruch 6 ergänzen sich die Funktionen einerseits mindestens einer Stereokamera und andererseits einer Bilderfassung mittels eines Beleuchtungs-Laufzeitverfahrens vorteilhaft ergänzen. Sowohl die Stereokamera als auch die ein Laufzeitverfahren ermöglichenden Komponenten Blitzlichtquelle und Sensor- Array, über die Laufzeitverfahrens-Bilderfassungsparameter vorgegeben werden können, erlauben die Ermittlung eines Abstandes von Objekten innerhalb der Umgebung. In the camera system according to claim 6, the functions of at least one stereo camera and, on the other hand, an image acquisition system using a time-of-flight method are advantageously complementary. Both the stereo camera and the components enabling a time-of-flight method—the flash light source and the sensor array, via which time-of-flight method image acquisition parameters can be specified—allow the determination of the distance to objects within the environment.
Das Kamerasystem kann zur räumlichen Bilderfassung einer relativ zum Kamerasystem bewegten Umgebung dienen. Die mindestens eine Stereokamera kann zur triangulatorischen Objekt- Abstandsbestimmung innerhalb der erfassten Umgebung in Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung dienen. Dies kann zur Verbesserung einer Sicherheit der Umgebungserfassung insbesondere im Zusammenhang mit einem fahrerunterstützenden oder auch einem autonomen Fahren genutzt werden. Das Kamerasystem kann Bestandteil eines Fahrzeugs, beispielsweise eines PKW oder LKW, sein. The camera system can be used for spatial image capture of an environment moving relative to the camera system. The at least one stereo camera can be used for triangulation of object distances within the captured environment in the forward direction of a relative movement. Camera systems are used to monitor the surroundings. This can improve the safety of environmental perception, particularly in connection with driver assistance or autonomous driving. The camera system can be integrated into a vehicle, such as a car or truck.
Die Steuereinrichtung kann insbesondere einen Delay-Zeitraum zwischen dem Blitzbeleuchtungsbeginn der mindestens einen Blitzlichtquelle und dem Detektionsbeginn des jeweiligen Sensor- Arrays der Kameras der mindestens einen Stereokamera vorgeben. Der Abstand der Kameras der Stereokamera zueinander ergibt eine Länge einer Baseline, also eines Abstandes von Zentren von Eintrittspupillen der Kameras der mindestens einen Stereokamera. Mit dem Kamerasystem können Prinzipien einer TOF (Time of Flightj-Kamera mit einer triangulatorisch abstandsvermessenden Stereokamera verknüpft werden. Eine entsprechende TOF-Bilderfassung ist beschrieben beispielsweise in der US 2019/056 498 AL Die Blitzlichtquelle kann so ausgeführt sein, wie dies prinzipiell von TOF-Kameras oder von LIDAR- Systemen bekannt ist. Entsprechendes gilt für die Sensor- Arrays der Kameras. Ein Sensor-Array, das bei der TOF-Bilderfassung genutzt wird, kann als Single Photon Avalanche Diode (SPAD)-Array aufgebaut sein. Ein derartiges SPAD-Array und seine Anwendung im Zusammenhang mit einer TOF-Messung ist bekannt aus einem Fachartikel von T. Swedish et al.: „Beyond the Line of Sight? What’s New in Optical Perception“, AUVSI XPONENTIAL 2022-SWEDISH (Konferenz-Handout), S. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_l.pdf und aus der US 2022/0174255 AL Zur triangulatorischen Objekt- Abstandsbestimmung sind die beiden Kameras der Stereokamera über eine Synchronisierungseinheit miteinander synchronisiert. Durch diese Synchronisation kann insbesondere eine exakt zeitgleiche Erfassung des jeweiligen Objekts über die Kameras der Stereokamera erreicht werden. Dies unterscheidet eine Stereokamera zur triangulatorischen Objekt-Abstandsbestimmung von einer stereoskopischen Kamera, über die ausschließlich ein Raumeindruck einer Bilderfassung erzeugt wird und die beispielsweise beschrieben ist in der US 2015/296 200 Al. Der Einsatz eines SPAD-Arrays kann zu einer Verringerung einer Bewegungsunschärfe führen und kann zur Kontrastverbesserung einer Bilderfassung genutzt werden. The control unit can, in particular, specify a delay period between the start of the flash illumination from the at least one flash light source and the start of the detection period for the respective sensor array of the cameras of the at least one stereo camera. The distance between the cameras of the stereo camera defines the length of a baseline, i.e., the distance between the centers of the entrance pupils of the cameras of the at least one stereo camera. The camera system combines the principles of a Time-of-Flight (TOF) camera with a triangulatory distance-measuring stereo camera. A corresponding TOF image acquisition is described, for example, in US 2019/056 498 AL. The flash light source can be designed in the same way as is generally known from TOF cameras or LiDAR systems. The same applies to the camera sensor arrays. A sensor array used in TOF image acquisition can be configured as a Single Photon Avalanche Diode (SPAD) array. Such a SPAD array and its application in connection with a TOF measurement are described in a technical article by T. Swedish et al.: “Beyond the Line of Sight? What's New in Optical Perception”, AUVSI XPONENTIAL 2022-SWEDISH (conference handout), pp. 1-8. https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_l.pdf and from US 2022/0174255 AL For triangulatory object distance determination, the two cameras of the stereo camera are synchronized with each other via a synchronization unit. This synchronization enables, in particular, precisely simultaneous acquisition of the respective object by the cameras of the stereo camera. This distinguishes a stereo camera for triangulatory object distance determination from a stereoscopic camera, which only creates a spatial impression of an image and is described, for example, in US 2015/296 200 1A. The use of a SPAD array can reduce motion blur and can be used to improve image contrast.
Die Synchronisation und insbesondere die zeitgleiche Objekterfassung bei der triangulatorischen Objekt- Abstandsbestimmung ermöglicht es, auch fremdbewegte Objekte in ihrer Entfernung präzise zu erfassen, da dann der Einfluss einer zusätzlichen Relativgeschwindigkeit aufgrund der Fremdbewegung des Objekts die Entfernungsbestimmung nicht beeinflusst. Synchronization, and in particular simultaneous object detection in triangulatory object distance determination, makes it possible to precisely determine the distance to objects that are moving independently, since the influence of an additional relative velocity due to the object's movement does not affect the distance determination.
Eine Brennweite f der jeweiligen Kamera einer Stereokamera, die Baseline b der Stereokamera sowie eine Disparität D, also ein Unterschied zwischen Bildkoordinaten von Abbildungspositionen des gleichen Punktes auf den Sensor- Arrays der Kameras der Stereokamera, werden so aufeinander abgestimmt, dass unter Einbeziehung der Beziehung d = fb/D für den zu erfassenden Objekt- Ab stands wert d gilt: A focal length f of the respective camera of a stereo camera, the baseline b of the stereo camera, and a disparity D, i.e., a difference between image coordinates of imaging positions of the same point on the sensor arrays of the cameras of the stereo camera, are coordinated such that, taking into account the relationship d = fb/D for the object distance value d to be captured, the following applies:
3 m < d < 300 m Zusätzlich kann das Kamerasystem so ausgelegt sein, dass ein entsprechender Objekt-Entfemungsbereich über die TOF-Bilderfassungsfunktionalität des Kamerasystems erfasst wird. 3 m < d < 300 m Additionally, the camera system can be designed so that a corresponding object distance range is captured via the TOF image capture functionality of the camera system.
Bei der Blitzlichtquelle kann es sich um eine gesteuerte Blitzlampe handeln oder auch um eine entsprechend zeitgesteuerte LED- oder Laser-Lichtquelle. Es können Blitzlichtquellen zum Einsatz kommen, die zum Einsatz beispielsweise bei LID AR- Vorrichtung en bekannt sind. The flash source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash sources known to be used, for example, in LID AR devices, can be employed.
Eine Blitzbeleuchtungsdauer der Blitzlichtquelle kann im Bereich zwischen 10 ns und 200 ns, beispielsweise im Bereich von 100 ns, liegen. The flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns.
Eine Detektionsdauer der Sensor- Arrays der mindestens einen Stereokamera ist regelmäßig so vorgegeben, dass sie doppelt so groß ist wie die Blitzbeleuchtungsdauer der Blitzlichtquelle. Die Detektionsdauer kann im Bereich zwischen 20 ns und 400 ns, beispielsweise im Bereich von 200 ns, liegen. The detection duration of the sensor arrays of at least one stereo camera is typically set to be twice the flash duration of the flash source. The detection duration can range from 20 ns to 400 ns, for example, around 200 ns.
Sowohl die Blitzbeleuchtungsdauer als auch die Detektionsdauer können über die Steuereinrichtung einstellbar vorgebbar sein. Both the flash illumination duration and the detection duration can be set and preset via the control unit.
Die Synchronisierungseinheit kann Teil der Steuereinrichtung sein. Teil der Steuereinrichtung kann eine Speichereinheit insbesondere in Form eines Flash- Speichers sein. Die Synchronisationseinheit kann Bestandteil einer Synchronisationseinrichtung zur Synchronisation der Blitzlichtquelle und der Sensor- Arrays der Kameras der mindestens einen Stereokamera sein. Die Synchronisationseinrichtung kann wiederum Bestandteil der Steuereinrichtung des Kamerasystems sein. Eine Synchronisation, die über die Synchronisationseinrichtung bereitgestellt werden kann, kann besser sein als 5 ns, kann besser sein als 2 ns, kann besser sein als 1 ns und kann auch noch besser sein. The synchronization unit can be part of the control unit. A storage unit, particularly in the form of flash memory, can be part of the control unit. The synchronization unit can be part of a synchronization device for synchronizing the flash source and the sensor arrays of the cameras of at least one stereo camera. The synchronization device, in turn, can be part of the control unit of the camera system. Synchronization that can be provided via the synchronization device can be better than 5 ns, can be better than 2 ns, can be better than 1 ns, and can be even better.
Die Kameras der Stereokamera können lateral zur Vorwärtsrichtung voneinander beabstandet sein. Je nach Erfas sung s winkel der Kameras und je nach Anwendungszweck und Haupt-Erfassungsrichtung der Stereokamera sind auch andere Kamera- Anordnungen der Stereokamera möglich. The cameras of the stereo camera can be spaced apart laterally to the forward direction. Depending on the camera's detection angle, the intended use, and the main detection direction, other camera arrangements are also possible.
Die Kameras der mindestens einen Stereokamera können eine Tele-Optik zur Erfassung von Objekten im Entfemungsbereich zwischen 30m und 300 m aufweisen. Je nach Anwendungszweck können die Kameras der Stereokamera auch mit Optiken anderer Brennweiten ausgerüstet sein. Diese Kameraoptiken sind so ausgeführt, dass ein gesamter vorgegebener Entfernungsbereich insbesondere zwischen 3 m und 300 m abgedeckt wird. Grundsätzlich können auch noch kleinere Entfernungen abgedeckt werden. The cameras of at least one stereo camera can have a telephoto lens for capturing objects at distances between 30 m and 300 m. Depending on the application, the cameras of the stereo camera can also be equipped with lenses of other focal lengths. These camera lenses are designed to cover an entire predefined distance range, particularly between 3 m and 300 m. In principle, even shorter distances can be covered.
Die Entfemungsbereiche der triangulatorischen Objekterfassung einerseits und der TOF-Entfemungserfassung andererseits sind aufeinander abgestimmt und können beispielsweise gleich sein. Auch eine Teilüberdeckung dieser Entfemungsbereiche ist möglich, sodass in einem Entfemungsbereich beide Entfemungsbestimmungsprinzipien „triangulatorisch“ und „TOF“ zur Verfügung stehen und in anderen Entfemungsbereichen eines dieser Prinzipien. The distance ranges of triangulatory object detection on the one hand and TOF distance detection on the other are coordinated and can, for example, be the same. Partial overlap of these distance ranges is also possible, so that both distance determination principles, "triangulatory" and "TOF," are available in one distance range, and one of these principles is available in other distance ranges.
Mittels der Kameras der mindestens einen Stereokamera kann eine Korrespondenzanalyse zur Identifizierung von sich von einem Hintergmnd unterscheidenden, in einem interessierenden Sichtbereich vorliegenden Objekten stattfinden. Methoden einer entsprechenden Korrespondenzanalyse sind bekannt aus der WO 2022/069 424 Al und der WO 2022/069 425 A2. Zur Vorbereitung eines Betriebs des Kamerasystems kann eine Stereo-Kalibrierung der Kameras der mindestens einen Stereokamera erfolgen, die grundsätzlich bekannt ist aus der WO 2022/069 424 Al und der DE 10 2011 080 702 B3. Using the cameras of at least one stereo camera, a correspondence analysis can be performed to identify objects that differ from a background and are present in a field of interest. Methods for a corresponding correspondence analysis are known from WO 2022/069 424 A1 and WO 2022/069 425 A2. To prepare for operation of the camera system, a stereo calibration of the cameras of the at least one stereo camera can be carried out, which is generally known from WO 2022/069 424 A1 and DE 10 2011 080 702 B3.
Die mindestens eine Stereokamera kann mehr als zwei zueinander beab- standete Kameras aufweisen, was insbesondere einen Wechsel zwischen verschiedenen Baselines ermöglicht, was ebenfalls beispielsweise in der WO 2022/069 424 Al beschrieben ist. The at least one stereo camera can have more than two cameras spaced apart from each other, which in particular allows switching between different baselines, as is also described, for example, in WO 2022/069 424 Al.
Das Kamerasystem kann mindestens zwei Stereokameras mit relativ großer Baseline und mindestens eine weitere Stereokamera mit im Vergleich hierzu deutlich kleinerer Baseline aufweisen, wobei die kleinere Baseline höchstens 50 %, höchstens 25 % oder auch höchstens 10 % der größeren Baseline sein kann. Das Kamerasystem kann auch mehrere Stereokameras mit der kleinen Baseline aufweisen. The camera system can include at least two stereo cameras with a relatively large baseline and at least one additional stereo camera with a significantly smaller baseline, where the smaller baseline can be at most 50%, 25%, or 10% of the larger baseline. The camera system can also include multiple stereo cameras with the smaller baseline.
Weitere Objektinformationen, insbesondere Objekt-Abstandsinformatio- nen, können durch Auswertung eines Objekt- Schattenwurfs erfolgen, der von einem Objekt innerhalb der erfassten Umgebung als Schatten der Blitzbeleuchtung geworfen wird und von den beiden zueinander beabstan- deten Kameras der mindestens einen Stereokamera unterschiedlich abgebildet wird. Insbesondere eine Höhe des Objektes kann ermittelt werden, weil ein Bild eines Objektschattens von der Höhenlage und der seitlichen Ablage des Objekts abhängig ist. Mit dem Kamerasystem kann eine räumliche Bilderfassung der relativ zur zum Kamerasystem bewegten oder auch unbewegten Umgebung erreicht werden, die, beispielsweise beim Einsatz des Kamerasystems als Bestandteil eines Fahrzeugs, eine fahrerunterstützende Funktion oder auch die Funktion eines autonomen Fahrens ermöglicht. Further object information, in particular object distance information, can be obtained by analyzing an object shadow cast by an object within the recorded environment as a shadow of the flash illumination, and rendered differently by the two cameras of the at least one stereo camera, which are spaced apart from each other. In particular, the object's height can be determined because the image of an object shadow depends on the object's height and lateral position. The camera system enables spatial image capture of the environment, whether moving or stationary relative to the camera system, which, for example when the camera system is used as part of a vehicle, allows for driver assistance functions or even autonomous driving.
Die Blitzlichtquelle des Kamerasystems oder eine weitere Lichtquelle des Kamerasystems zur Umgebungsbeleuchtung kann einen Messlichtstrahl aufweisen, der über seinen Strahlquerschnitt texturiert beziehungsweise strukturiert ist. Eine derartige Texturierung/Strukturierung des Messlichtstrahls kann dadurch erfolgen, dass dieser als Vielzahl von einzelnen, die Umgebung in Form eines Rasters erfassenden Einzelstrahlen aufgebaut ist. Eine derartige Lichtquelle zur Erzeugung eines texturierten/strukturierten Messlichtstrahls kann als Laser ausgeführt sein. Beispiele für eine Detektionseinrichtung, die mittels eines solchen texturierten/strukturierten Messlichtstrahls arbeitet, finden sich in der DE 10 2018 213 976 A1 und den dort angegebenen Referenzen, insbesondere in der WO 2012/095 258 Al, der US 9,451,237 B2 und der WO 2013/020 872 AL Mithilfe einer derartigen texturierten/strukturierten Beleuchtung können optisch unstrukturierte, insbesondere diffuse Streumedien innerhalb der umfassten Umgebung hinsichtlich ihres Abstandes vermessen werden. Bei derartigen diffusen Streumedien kann es sich beispielsweise um Nebel, Rauch oder Staub handeln. The flash light source of the camera system, or another light source of the camera system for ambient illumination, can have a measuring light beam that is textured or structured across its beam cross-section. Such texturing/structuring of the measuring light beam can be achieved by constructing it as a multitude of individual beams that capture the environment in the form of a grid. Such a light source for generating a textured/structured measuring light beam can be a laser. Examples of a detection device that operates using such a textured/structured measuring light beam can be found in DE 10 2018 213 976 A1 and the references cited therein, in particular in WO 2012/095 258 A1, US 9,451,237 B2, and WO 2013/020 872 A1. Using such textured/structured illumination, optically unstructured, especially diffuse, scattering media within the encompassed environment can be measured with respect to their distance. Such diffuse scattering media can include, for example, fog, smoke, or dust.
Mit dem Kamerasystem kann insbesondere bei der Nutzung zur räumlichen Bilderfassung eine Formredundanz und/oder eine Funktionsredundanz erreicht werden. Eine Formredundanz ist dann erreicht, wenn unterschiedliche Technologien zur Ermittlung ein und derselben Messgröße genutzt werden. Eine Funktionsredundanz liegt dann vor, wenn mehrere Vorrichtungen derselben Technologie zur Messung ein und derselben Messgröße verwendet werden. Diese Begriffe „Formredundanz“ und „Funktionsredundanz“ sind hauptsächlich im Bereich der Luftfahrt gebräuchlich. Dort wird eine Kombination aus Form- und Funktionsredundanz gefordert, damit Mehrfachauswirkungen eines Fehlers vermieden werden. Derartige Redundanzen können, je nach Applikation der Vorrichtung, gesetzlich vorgeschrieben sein. The camera system can achieve form redundancy and/or functional redundancy, particularly when used for spatial image acquisition. Form redundancy is achieved when different technologies are used to determine one and the same measurement. Functional redundancy exists when multiple devices of the same technology are used to measure one and the same quantity. The terms "form redundancy" and "functional redundancy" are primarily used in the aerospace industry. There, a combination of form and functional redundancy is required to prevent the multiple effects of a failure. Depending on the application of the device, such redundancies may be legally mandated.
Mindestens eine weitere Blitzlichtquelle und/oder mindestens eine weitere Stereokamera nach Anspruch 7 ermöglichen eine zusätzliche Funktionsredundanz des Kamerasystems. Bei Vorsehen mindestens einer weiteren Blitzlichtquelle kann beispielsweise nach Ausfall der zunächst eingesetzten Blitzlichtquelle auf die weitere Blitzlichtquelle umgeschaltet werden, sodass eine längere Betriebspause des Kamerasystems vermieden ist. Bei Einsatz mindestens einer weiteren Stereokamera kann, beispielsweise bei parallelem triangulatorischen Vermessen über zwei Stereokameras, eine weitere Redundanz bei der Objekt- Abstandsbestimmung erreicht werden. At least one additional flash source and/or at least one additional stereo camera according to claim 7 enable additional functional redundancy of the camera system. For example, if at least one additional flash source is provided, the system can switch to the additional flash source after the failure of the initially used flash source, thus avoiding a prolonged downtime of the camera system. If at least one additional stereo camera is used, for example, during parallel triangulation measurements using two stereo cameras, further redundancy in object distance determination can be achieved.
Die Kameras der weiteren Stereokamera können wiederum jeweils ein Sensor-Array mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass die weitere Stereokamera in ihrer Funktion grundsätzlich die ursprünglich eingesetzte Stereokamera ersetzen kann. Auch eine redundante TOF-Be Stimmung von Objekt- Ab ständen ist über zwei entsprechende Stereokameras mit gesteuerter Vorgabe des Detektionsbeginns und der Detektionsdauer möglich, was eine zusätzliche Sicherheit bei der Objekt- Abstandsbestimmung liefert und beispielsweise Synchronisationsprobleme erkennen hilft. Bei Verwendung mehrerer Stereokameras ist zudem eine Zuordnung von Kameras verschiedener Stereokameras zu einer neuen „virtuellen“ Stereokamera mit entsprechend veränderter Baseline möglich, was eine weitere Redundanz beziehungsweise Sicherheit bei der Objekt- Abstandsbestimmung ermöglicht. Es kann beispielsweise dasjenige Kamerapaar zur Base- line-Vorgabe ausgewählt werden, welches sich in Bezug auf ein bestimmtes Umgebungs-Objekt für eine Triangulationsbestimmung als besonders günstig herausstellt. The cameras of the additional stereo camera can each feature a sensor array with controlled specification of a detection start and duration, so that the additional stereo camera can essentially replace the originally used stereo camera in its function. Redundant time-of-flight (TOF) determination of object distances is also possible using two corresponding stereo cameras with controlled specification of the detection start and duration, which provides additional reliability in object distance determination and helps, for example, to detect synchronization problems. When using multiple stereo cameras, it is also possible to assign cameras from different stereo cameras to a new "virtual" stereo camera with a correspondingly modified baseline, thus enabling further redundancy and reliability in determining object distances. For example, the camera pair that proves particularly advantageous for triangulation of a specific environmental object can be selected as the baseline setting.
Das Kamerasystem kann grundsätzlich auch mindestens eine Fischaugen- Stereokamera aufweisen. Eine derartige Fischaugen- Stereokamera kann mindestens zwei Fischaugen-Kameras aufweisen, wobei jede der Fischaugen-Kameras zur Erfassung der Umgebung sowohl in einer Haupterfassungsrichtung als auch längs hierzu in lateraler Richtung ausgerichtet ist, wobei Erfassungsbereiche der Fischaugen-Kameras in der Haupterfassungsrichtung in einem Überlapp-Bereich überlappen. Mindestens eine derartige Fischaugen- Stereokamera ermöglicht den Einsatz zusätzlicher Triangulations-Baselines, was zur Erfassung weiterer Umgebungs-Objekte und/oder zur Kontrolle von Objekt- Abstandsergebnissen der anderen Stereokameras und/oder zur Kalibrierung der anderen Stereokameras, insbesondere von mit Tele-Optik-Kameras ausgeführten Stereokameras, genutzt werden kann. Bei der Haupterfassungsrichtung kann es sich um die Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung handeln. Die Nutzung von Fischaugen-Kameras ist aus den oben genannten Referenzen sowie aus der WO 2022/179 998 Al bekannt. Eine Fischaugen- Kamera, die möglichst steif an eine Tele-Optik-Kamera befestigt ist, erlaubt eine genauere Kalibrierung der Stereokameras zueinander, wegen des größeren Öffnungswinkels der Fischaugen-Kamera. Eine inertiale Messein- heit (Inertial Measurement Unit, IMU) in den Kameras der jeweiligen Stereokamera erlaubt eine weitere Optimierung der relativen Kalibrierung. Mittels der IMU kann insbesondere eine Drehrate, also eine Relatiwerkip- pung der jeweiligen Kamera um eine definierte Kippachse, bestimmt werden. The camera system can, in principle, also include at least one fisheye stereo camera. Such a fisheye stereo camera can include at least two fisheye cameras, each of which is oriented to capture the environment both in a main detection direction and parallel to it in a lateral direction, with the detection areas of the fisheye cameras overlapping in the main detection direction. At least one such fisheye stereo camera enables the use of additional triangulation baselines, which can be used to capture further environmental objects and/or to check object distance results from the other stereo cameras and/or to calibrate the other stereo cameras, in particular those equipped with telephoto lenses. The main detection direction can be the forward direction of a relative movement of the camera system to the environment. The use of fisheye cameras is known from the references mentioned above and from WO 2022/179 998 A1. A fisheye camera, mounted as rigidly as possible to a telephoto camera, allows for more precise calibration of the stereo cameras relative to each other due to the wider field of view of the fisheye camera. An inertial measuring instrument The inertial measurement unit (IMU) in the cameras of each stereo camera allows for further optimization of the relative calibration. In particular, the IMU can be used to determine the rotation rate, i.e., the relative tilt of the respective camera around a defined tilt axis.
Das Kamerasystem kann mehrere Fischaugen- Stereokameras beinhalten, was eine zusätzliche Redundanz ermöglicht. Auch die Kameras der mindestens einen Fischaugen- Stereokamera können jeweils Sensor- Arrays mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass hierüber auch eine TOF-Be Stimmung von Objekt-Abständen möglich ist. Grundsätzlich kann die mindestens eine Fischaugen- Stereokamera auch ohne TOF-Funktion ausgeführt sein. Soweit die Vorrichtung mehrere Fischaugen- Stereokameras aufweist, ist auch möglich, dass mindestens eine der Fischaugen- Stereokameras mit TOF-Funktion und mindestens eine weitere der Fischaugen- Stereokameras ohne TOF- Funktion ausgeführt ist. The camera system can include multiple fisheye stereo cameras, providing additional redundancy. The cameras of the at least one fisheye stereo camera can each have sensor arrays with controlled predefined detection start and duration, enabling time-of-flight (TOF) determination of object distances. The at least one fisheye stereo camera can also be configured without TOF functionality. If the device includes multiple fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to have TOF functionality and at least one other fisheye stereo camera to lack it.
Grundsätzlich kann die Vorrichtung gemäß den obigen Ansprüchen so genutzt werden, dass hierüber mittels der TOF-Komponenten genau ein Ent- femungsbereich erfasst wird, beispielsweise im Abstandsbereich zwischen 30 m und 300 m, insbesondere zwischen 100 m und 200 m, zur Vorrichtung. In principle, the device according to the above claims can be used in such a way that exactly a distance range is detected by means of the TOF components, for example in the distance range between 30 m and 300 m, in particular between 100 m and 200 m, to the device.
Die Vorteile eines Betriebs verfahrens nach Anspruch 9 entsprechen denen, die vorstehend unter Bezugnahme auf das Kamerasystem bereits erläutert wurden. Ein derartiges Betriebs verfahren ermöglicht einen Echtzeitbetrieb der Vorrichtung, sodass beispielsweise autonomes Fahren beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs möglich ist. Bei dem Betriebs verfahren kann ein abgedeckter Gesamt-Entfemungsbe- reich in eine Mehrzahl von aneinander angrenzenden oder miteinander teilweise überlappenden Entfemungsbereichen unterteilt sein. Es können dabei beispielsweise drei bis 100 derartige Entfemungsbereiche über entsprechende Bilderfassungsparameter vorgegeben werden, beispielsweise 50 Entfemungsbereiche, die innerhalb des Gesamt-Entfemungsbereichs liegen. Beim Betrieb des Kamerasystems kann der Gesamt-Entfemungsbe- reich über die vorgegebenen einzelnen Entfemungsbereiche mehrmals in der Sekunde, beispielsweise mit einer Rate von 10 Hertz, erfasst werden. Beim Betrieb kann mit dem innerhalb des Gesamt-Entfemungsbereichs entferntesten Entfemungsbereich begonnen werden. Dies stellt sicher, dass beim Überschreiben von in einem vorhergehenden Erfassungsschritt erfassten Bildern mit einem jeweils zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes nahe Objekte entferntere Objekte überschreiben, sodass das Ergebnis des Betriebsverfahrens, nämlich das zuletzt aktualisierte, ausgegebene Bild, in jedem Fall die dem Kamerasystem nächst benachbarten Objekte darstellt, worauf dann beispielsweise durch Eingriff in eine Bewegung des Kamerasystems reagiert werden kann. Ein Zwischenspeichern von in jeweils vorhergehenden Erfassungsschritten erfassten Bildern kann dann entfallen, was die Geschwindigkeit des Verfahrensablaufs erhöht. The advantages of an operating method according to claim 9 correspond to those already explained above with reference to the camera system. Such an operating method enables real-time operation of the device, so that, for example, autonomous driving is possible when the device is used as part of a vehicle. In this operating procedure, a total covered distance area can be subdivided into a plurality of adjacent or partially overlapping distance areas. For example, three to 100 such distance areas can be defined via corresponding image acquisition parameters, such as 50 distance areas located within the total distance area. During operation of the camera system, the total distance area can be scanned across the defined individual distance areas several times per second, for example, at a rate of 10 Hz. The scan can begin with the furthest distance area within the total distance area. This ensures that when images captured in a previous acquisition step are overwritten with the most recently captured image, nearby objects overwrite more distant objects in unfiltered areas of the most recently captured image. This means that the result of the operating procedure—namely, the most recently updated, output image—always represents the objects closest to the camera system. This allows for adjustments, such as intervening in the movement of the camera system. Intermediate storage of images captured in previous acquisition steps is then unnecessary, thus increasing the speed of the process.
Das zuletzt aktualisierte, ausgegebene Bild ist ein 2D-Bild mit nicht herausgefilterten Objekten in allen innerhalb des Gesamt-Entfemungsbereichs erfassten Entfemungsbereichen. Auch im Laufe des Betriebs verfahrens überschriebene Informationen der innerhalb des Gesamt-Entfemungsbereichs früher erfassten Entfemungsbereiche können für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben. Zu den jeweils nicht herausgefilterten Objekten, die dem jeweiligen Erfassungsschritt zugeordnet sind, ergibt das Verfahren als Ergebnis einen Ent- femungsbereich, in dem das Objekt relativ zum Kamerasystem vorliegt. Diese resultierenden Objekt-Entfernung sinformationen, die mittels der TOF-Bilderfassung ermittelt werden, ermöglichen im Zusammenspiel mit einer über die mindestens eine Stereokamera ermöglichten triangulatori- schen Entfemungserfassung eine Formredundanz des Betriebs verfahrens. The most recently updated, output image is a 2D image with unfiltered objects in all distance areas captured within the overall range. Information from previously captured distance areas within the overall range, even if overwritten during operation, can be retained for independent spatial (3D) analysis. For each object not filtered out and assigned to the respective acquisition step, the process yields a distance range within which the object is located relative to the camera system. This resulting object distance information, determined using time-of-flight (TOF) image acquisition, in conjunction with triangulatory distance acquisition enabled by at least one stereo camera, allows for form redundancy in the operating procedure.
Als Entfernung sinformation kann eine jeweils geringste Entfernung des erfassten Objekts ausgegeben werden oder auch eine Entfernung pro Objekt- Bildpunkt des jeweiligen Sensor- Arrays. Distance information can be output as either the smallest distance of the detected object or a distance per object pixel of the respective sensor array.
Insgesamt resultiert eine einerseits sichere und andererseits vorausschauende Bilderfassung, die an die Erfordernisse insbesondere einer Fahrerunterstützung oder auch eines autonomen Fahrens gut angepasst ist. Overall, the result is a safe and forward-looking image acquisition system that is well adapted to the requirements of driver assistance or autonomous driving in particular.
Beim digitalen Filtern zum Herausfiitem strukturloser Bildbereiche kann eine Stereo-Korrespondenzbestimmung zum Einsatz kommen, die beispielsweise beschrieben ist in der WO 2022/069 424 AE When digitally filtering to extract featureless image areas, a stereo correspondence determination can be used, which is described, for example, in WO 2022/069 424 AE.
Mindestens zwei der aufeinanderfolgenden Erfassungsschritte können zeitlich miteinander überlappen. Ein derartiger zeitlicher Überlapp ermöglicht einen schnellen Ablauf des Betriebs verfahrens. Der zeitliche Überlapp kann derart sein, dass mindestens zwei Entfemungsbereiche mit gleichzeitigem Detektionsbeginn und gleicher Detektionsdauer mit den Sensor- Arrays gleichzeitig erfasst werden, wobei diese Erfassungsbereiche durch unterschiedliche Vorgabe des jeweiligen Blitzlichtbeleuchtungsbeginns und/oder der jeweiligen Blitzbeleuchtungsdauer hinsichtlich ihrer Bilderfassungsparameter vorgegeben werden. Es ist auch möglich, die Wiederholungssequenz des Betriebs verfahrens so zu gestalten, dass tatsächlich eine Detektion genau zu einem Zeitraum, also bei einem vorgegebenen Detektionsbeginn und mit einer vorgegebenen Detektionsdauer, für alle vorgegebenen Entfernung sbereiche erfolgt. Durch diese gleichzeitige Detektionserfassung von mindestens zwei Erfassungsbereichen kann ein Bildverarbeitungsaufwand reduziert und eine Beschleunigung des gesamten Verfahrens erreicht werden. At least two of the successive detection steps can overlap in time. Such a temporal overlap enables a rapid operational procedure. The temporal overlap can be such that at least two detection ranges with simultaneous detection start and duration are detected simultaneously by the sensor arrays, whereby these detection ranges are distinguished by different specifications for the respective flash illumination start times. and/or the respective flash duration with regard to their image acquisition parameters. It is also possible to design the repetition sequence of the operating procedure in such a way that detection actually occurs at precisely one time period, i.e., at a predetermined detection start and with a predetermined detection duration, for all predetermined distance ranges. This simultaneous detection of at least two detection areas can reduce image processing effort and accelerate the overall process.
Entfernungs-Ausdehnungen der Entfemungsbereiche können sich voneinander unterscheiden. Derart sich voneinander unterscheidende Entfernungs-Ausdehnungen der Entfemungsbereiche ermöglichen insbesondere, eine Entfernungs-Empfindlichkeit abhängig von der Entfernung vorzugeben, was ebenfalls hilft, eine Ablaufdauer des Betriebs verfahrens zu verkürzen. Mit zunehmender Entfernung kann beispielsweise die Entfernungs- Ausdehnung des jeweiligen Entfemungsbereiches vergrößert werden, insbesondere progressiv vergrößert werden. The distance extents of the detection zones can differ from one another. Such differing distance extents of the detection zones make it possible, in particular, to define a distance sensitivity depending on the distance, which also helps to shorten the operating time of the process. For example, with increasing distance, the distance extent of the respective detection zone can be increased, especially progressively.
Nach dem Erfassen des jeweiligen Entfemungsbereiches kann eine Triangulationsbestimmung einer Entfernung von Objekten in nicht herausgefilterten Bildbereichen mittels der mindestens einen Stereokamera erfolgen. Eine derartige zusätzliche Triangulationsbestimmung ermöglicht einen Abgleich von Objekt- Ab stands werten, die einerseits über das Entfemungsbe- reich-aufgelöste Erfassen mithilfe der TOF-Bilderfassungsparameter und andererseits mittels der Triangulation bestimmt wurden. Vor dem Erfassen kann eine Region of Interest (ROI) als Teil eines von den Stereokameras erfassbaren Bildfeldes vorgegeben werden. Eine derartige ROI- Vorgabe ermöglicht eine Reduktion der zu verarbeitenden Bilddaten, was das Verfahren zudem verkürzen kann. Bei der vorgegebenen ROI kann es sich um einen Straßenbereich in der Vorwärtsrichtung handeln. After capturing the respective distance range, a triangulation can be performed to determine the distance to objects in unfiltered image areas using at least one stereo camera. This additional triangulation allows for a comparison of object distance values determined on the one hand by distance-range-resolved acquisition using the TOF image acquisition parameters and on the other hand by triangulation. Before acquisition, a Region of Interest (ROI) can be defined as part of the image field captured by the stereo cameras. Such an ROI definition reduces the amount of image data to be processed, which can also shorten the procedure. The defined ROI could be a section of road in the direction of travel.
Ein Betriebs verfahren nach Anspruch 10 kann alternativ oder zusätzlich zum vorstehend erläuterten Betriebs verfahren zum Einsatz kommen. Ein derartiges Betriebs verfahren ermöglicht eine redundante Entfernungsbestimmung eines jeweiligen Objektab Standes. Hierüber kann insbesondere eine Formredundanz bereitgestellt werden, also eine Redundanz, gegeben durch Verwendung unterschiedlicher Technologien zur Entfemungserfas- sung. An operating method according to claim 10 can be used as an alternative or in addition to the operating method described above. Such an operating method enables redundant distance determination of a given object's position. In particular, this can provide form redundancy, i.e., redundancy achieved by using different technologies for distance detection.
Die TOF-Entfemung kann als Eingangsgröße für die triangulatorische Erfassung benutzt werden. Eine derartige Nutzung der erfassten TOF- Entfemung als Eingangsgröße für die triangulatorische Erfassung kann eine Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann bei der Korrespondenzanalyse ein abzudeckender Disparitätsbereich eingegrenzt werden. Umgekehrt kann auch die triangu- latorisch erfasste Entfernung als Eingangsgröße für eine TOF-Erfassung genutzt werden. Die Verwendung einer erfassten Objekt entfemung kann im Betrieb des Kamerasystems zum Nachverfolgen beziehungsweise Tra- cken von erfassten Objekten genutzt werden. Es kann genau ein derartiges Objekt nachverfolgt werden oder auch eine Mehrzahl derartiger Objekte kann gleichzeitig nachverfolgt werden. Objekt-Nachverfolgungsschritte können sich mit Erfassungsschritten eines gesamten vorgegebenen Entfer- nungsbereichs abwechseln. Zum Objekt-Tracken können Bilderfassungsparameter der TOF-Entfemungserfassung und/oder der triangulatorischen Entfemungserfassung an eine bei der Nach Verfolgung zu erwartende Ob- jektentfemung angepasst werden. The time-of-flight (TOF) distance can be used as an input for triangulation. Using the measured TOF distance as an input for triangulation can facilitate correspondence analysis during triangulation. In particular, it can help define the disparity range to be covered during correspondence analysis. Conversely, the triangulated distance can also be used as an input for TOF measurement. The use of a measured object distance can be employed in the operation of the camera system to track or monitor detected objects. It is possible to track exactly one such object or to track multiple objects simultaneously. Object tracking steps can be combined with measurement steps of an entire predefined distance range. The field of view alternates. For object tracking, image acquisition parameters of TOF distance detection and/or triangulatory distance detection can be adjusted to the object distance expected during tracking.
Eine Beleuchtungsintensität der Blitzlichtquelle kann auf einen zu erfassenden Entfemungsbereich abgestimmt werden. Eine derartige Blitzintensi- täts-/Entfemungsbereichs-Abstimmung ermöglicht es insbesondere, einen Rückschluss auf im Blitzlicht- und/oder im Kamera-Erfassungsweg vorliegende diffuse Streumedien zu ziehen. Ein sicherer Vorrichtungsbetrieb auch in nebliger, staubiger oder verrauchter Umgebung ist dann möglich. The flash intensity can be adjusted to the distance being captured. Such a flash intensity/distance range adjustment makes it possible, in particular, to infer the presence of diffuse scattering media in the flash and/or camera's field of view. This enables reliable operation of the device even in foggy, dusty, or smoky environments.
Die Blitzintensität kann quadratisch von einer Entfernung innerhalb des zu erfassenden Entfemungsbereichs abhängen. Eine derartige quadratische Abhängigkeit der Blitzintensität von der zu erfassenden Entfernung ermöglicht insbesondere dann, wenn sich die Beleuchtungsintensität quadratisch mit wachsendem Entfemungsbereich erhöht, eine Abstimmung derart, dass bei identischer Umgebungs-Rückstreuung und zu vernachlässigender Streuung längs eines Blitz- und längs eines Erfassungsweges zwischen Quelle und Objekt eine Aussteuerung einer konstanten Intensitätsausleuchtung des mindestens einen Sensor- Arrays. Dies kann zur Bestimmung diffuser Streumedien im erfassten Entfemungsbereich genutzt werden. The flash intensity can depend quadratically on the distance within the detection range. Such a quadratic dependence of the flash intensity on the detection range allows, particularly when the illumination intensity increases quadratically with increasing distance, for adjustment such that, with identical ambient backscatter and negligible scattering along a flash path and along a detection path between source and object, a constant intensity illumination of the at least one sensor array can be achieved. This can be used to determine diffuse scattering media within the detected detection range.
Eine Pixelempfindlichkeit eines Sensorpixels des Sensor-Arrays kann als Funktion einer einfallenden Lichtintensität der Blitzlichtquelle geregelt werden. Eine derartige Regelung einer Pixelempfindlichkeit kann insbesondere nicht linear zur einfallenden Lichtintensität erfolgen. Es kann insbesondere eine Gamma-Korrektur (y) erfolgen. Die Empfindlichkeit des mindestens einen Sensor- Arrays kann dann spezifisch an bei der Anwendung vorliegende Beleuchtungs- und/oder Detektionsverhältnisse angepasst werden. The pixel sensitivity of a sensor pixel in the sensor array can be controlled as a function of the incident light intensity from the flash source. Such control of pixel sensitivity cannot, in particular, be linear to the incident light intensity. Specifically, gamma correction (γ) can be applied. The sensitivity of the At least one sensor array can then be specifically adapted to the lighting and/or detection conditions present in the application.
Eine Auswahl von zu erfassenden Objekt-Entfemungsbereichen kann an einen Bewegungsmodus des Kamerasystems relativ zur Umgebung angepasst werden. Eine derartig angepasste Entfemungsbereichs-ZBewegungs- modus-Auswahl ermöglicht eine effiziente Ausnutzung insbesondere einer Rechnerleistung des Kamerasystems und kann auch eine Betriebssicherheit erhöhen. A selection of object distance ranges to be captured can be adapted to a movement mode of the camera system relative to the environment. Such an adapted distance range-movement mode selection enables efficient utilization of the camera system's computing power and can also increase operational reliability.
Bei der Auswertung mit triangulatorischer Stereoskopie bei binokularem Sehen werden zwei Bilder verglichen, so dass eventuelle Helligkeitsänderungen durch veränderte Dichteverläufe in erster Näherung vernachlässigt werden können. Bei Vergleich der Bilder mit trainierten Daten (Neuronale Netze, KI) bei monokularem Sehen erhöht eine homogene Helligkeitsver- teilung über die Entfernung die Entdeckungsleistung, sich verändernde Dichteverteilungen erschweren dagegen eine sichere Objekterkennung. When evaluating images using triangulatory stereoscopy with binocular vision, two images are compared, so that any changes in brightness due to altered density distributions can be neglected to a first approximation. When comparing the images with trained data (neural networks, AI) with monocular vision, a homogeneous brightness distribution over distance increases detection performance, while changing density distributions make reliable object recognition more difficult.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen: Exemplary embodiments of the invention are explained in more detail below with reference to the drawing. This drawing shows:
Fig. 1 schematisch eine Aufsicht auf eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei ein Umgebungs-Objekt in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht ist; Fig. 2 ein Zeitdiagramm zur Verdeutlichung von Bilderfassungspa- rametem beim Betrieb der Vorrichtung nach Fig. 1; Fig. 1 schematically shows a top view of a device for spatial image acquisition of an environment moving relative to the device, wherein an environment object is illustrated by way of example and perspective in the forward direction of a relative movement of the device to the environment; Fig. 2 is a time diagram to illustrate image acquisition parameters during operation of the device according to Fig. 1;
Fig. 3 in einer zur Fig. 1 ähnlichen Darstellung eine weitere Ausführung einer Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei Umgebungs-Objekte in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht sind; Fig. 3, in a representation similar to Fig. 1, shows a further embodiment of a device for spatial image acquisition of an environment moving relative to the device, wherein environment objects are illustrated by way of example and perspective in the forward direction of a relative movement of the device to the environment;
Fig. 4 in einer zur Fig. 2 ähnlichen Darstellung einen zeitlichen Ablauf eines Betriebs verfahrens der Vorrichtung nach Fig. 3; Fig. 4 shows a temporal sequence of an operating procedure of the device according to Fig. 3 in a representation similar to Fig. 2;
Fig. 5 in einer Seitenansicht Hauptkomponenten einer Ausführung der Vorrichtung bei der räumlichen Bilderfassung einer Umgebung innerhalb von drei beispielhaften Entfemungsparame- tem, wobei innerhalb der erfassten Umgebung ein wolkenförmiges diffuses Streumedium vorliegt; und Fig. 5 shows a side view of the main components of an embodiment of the device for spatial image acquisition of an environment within three exemplary distance parameters, wherein a cloud-like diffuse scattering medium is present within the acquired environment; and
Fig. 6 schematisch Parameterverhältnisse bei einer Kalibriersituation eines Kalibrierverfahrens eines Kamerasystems mit drei Kameras. Fig. 6 schematically shows parameter relationships in a calibration situation of a calibration procedure for a camera system with three cameras.
Fig. 1 zeigt eine Aufsicht auf eine Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zu der Vorrichtung 1 bewegten Umgebung, die anhand eines Umgebungs-Objekts 2 in Form eines zylindrischen Körpers veranschaulicht ist. Die Vorrichtung 1 stellt ein Kamerasystem dar. Die Vorrichtung 1 kann Bestandteil eines Fahrzeugs 3, beispielsweise eines PKW oder eines LKW, sein. Eine Vorwärtsrichtung der Relativbewegung der Vorrichtung 1 zur Umgebung ist in der Fig. 1 durch einen Pfeil 4 veranschaulicht. Fig. 1 shows a top view of a device 1 for spatial image acquisition of an environment moving relative to the device 1, illustrated by an environmental object 2 in the form of a cylindrical body. The device 1 represents a camera system. The device 1 can be part of a vehicle 3, for example a car or a truck. A forward direction of the relative movement of the device 1 to its surroundings is illustrated in Fig. 1 by an arrow 4.
Die Vorrichtung 1 hat mehrere Stereokameras zur triangulatorischen Ob- jekt-Abstandsmessung von Objekten innerhalb der erfassten Umgebung in der Vorwärtsrichtung 4, also insbesondere zur Abstandsbestimmung des Objekts 2. The device 1 has several stereo cameras for triangulatory object distance measurement of objects within the detected environment in the forward direction 4, i.e. in particular for determining the distance of the object 2.
Eine erste Stereokamera 5 dieser Stereokameras hat zwei zueinander beab- standete Kameras 51, 52. Ein Abstand A dieser Kameras 51, 52 der Stereokamera 5 ergibt eine Länge einer Baseline der Stereokamera 5, also eine Länge eines Abstandes von Zentren von Eintrittspupillen der Kameras 51, 52 der Stereokamera. Die Kameras 5i, 52 der Stereokamera 5 haben jeweils ein Sensor-Array 61, 62 mit gesteuerter Vorgabe eines Detektionsbeginns der jeweiligen Kamera 5i und 52 und einer Detektionsdauer der jeweiligen Kamera 5i, 52. Die Sensor- Arrays 61, 62 sind nach Art entsprechender Sensoren von Time of Flight (TOF)-Kameras ausgeführt und können eine Detektionsdauer im Bereich zwischen 1 ns und 500 ns realisieren. Eine typische Detektionsdauer liegt im Bereich zwischen 50 ns und 400 ns, beispielsweise zwischen 150 ns und 250 ns. A first stereo camera 5 of these stereo cameras has two cameras 51, 52 spaced apart from each other. A distance A between these cameras 51, 52 of the stereo camera 5 results in a baseline length of the stereo camera 5, i.e., a distance between the centers of the entrance pupils of cameras 51, 52 of the stereo camera. The cameras 5i, 52 of the stereo camera 5 each have a sensor array 61, 62 with controlled specification of a detection start time and a detection duration for the respective camera 5i and 52. The sensor arrays 61, 62 are designed like corresponding sensors of Time-of-Flight (TOF) cameras and can achieve a detection duration in the range between 1 ns and 500 ns. A typical detection time is in the range between 50 ns and 400 ns, for example between 150 ns and 250 ns.
Die Sensor- Arrays 61, 62 können jeweils 100 x 100 Pixel oder auch 200 x 200 Pixel aufweisen. Grundsätzlich ist auch eine höhere Pixelanzahl möglich, insbesondere eine Anzahl von 640 x 480 oder auch von 1440 x 1080 Pixeln. The sensor arrays 61 and 62 can each have 100 x 100 pixels or 200 x 200 pixels. In principle, a higher pixel count is also possible, in particular 640 x 480 or 1440 x 1080 pixels.
Die Sensor-Arrays 61, 62 können als CMOS-Array ausgeführt sein. Die Kameras 5i, 52 haben eine Tele-Optik zur Erfassung von Objekten im Entfernung sbereich zwischen 50 m und 300 m. The sensor arrays 61, 62 can be implemented as a CMOS array. The 5i and 52 cameras have a telephoto lens for capturing objects at distances between 50 m and 300 m.
Zur Vorrichtung 1 gehört weiterhin eine Blitzlichtquelle 7, die ebenfalls nach Art der Lichtquelle einer TOF-Kamera ausgeführt sein kann und eine gesteuerte Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze ermöglicht. Eine Blitzbeleuchtungsdauer kann im Bereich zwischen 5 ns und 150 ns, beispielsweise im Bereich von 100 ns liegen. Device 1 also includes a flash light source 7, which can also be designed like the light source of a TOF camera and allows controlled specification of the start time and duration of successive flashes. The flash duration can be in the range between 5 ns and 150 ns, for example, in the range of 100 ns.
Fig. 2 verdeutlicht einen zeitlichen Ablauf beim Betrieb der Vorrichtung 1 mit der Stereokamera 5 und der Blitzlichtquelle 7. Zu einem Zeitpunkt t = 0 beginnt ein Beleuchtungsblitz der Blitzlichtquelle 7. t = 0 stellt somit den Beleuchtungsblitzbeginn eines in der Fig. 2 schematisch als Signalkasten dargestellten Beleuchtungsblitzes 8 dar. Eine Blitzbeleuchtungsdauer des Beleuchtungsblitzes 8 ist in der Fig. 2 mit Atfiash angegeben. Fig. 2 illustrates the time sequence during the operation of the device 1 with the stereo camera 5 and the flash source 7. At time t = 0, an illumination flash from the flash source 7 begins. t = 0 thus represents the start of an illumination flash 8, schematically depicted as a signal box in Fig. 2. The duration of the illumination flash 8 is indicated in Fig. 2 by the letter Atfiash.
Ebenfalls zum Zeitpunkt t = 0 startet eine Verzögerungszeit Atiag, die auch als Delay-Zeit bezeichnet ist. Diese Verzögerungszeit Atiag liegt im Bereich zwischen 300 ns und 2 ms und kann beispielsweise im Bereich zwischen 500 ns und 1 ms, zum Beispiel im Bereich zwischen 700 ns und 900 ns, zum Beispiel bei 800 ns, liegen. Also at time t = 0, a delay time Atiag starts, which is also called the delay time. This delay time Atiag is in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example at 800 ns.
Nach Ablauf des Delay-Zeitraums Atiag beginnt zum Zeitpunkt t = tE eine Detektion 9 durch das jeweilige Sensor- Array 6i beziehungsweise 62 der Stereokamera 5. tE stellt somit den Detektionsbeginn dar. Das jeweilige Sensor-Array 61, 62 detektiert einfallendes Licht der Blitzlichtquelle 7 dann während einer Detektionsdauer Atexp. Die Detektion 9 durch das jeweilige Sensor- Array 6i, 62 der StereokameraAfter the delay period Atiag has elapsed, a detection 9 begins at time t = tE by the respective sensor array 6i or 62 of the stereo camera 5. tE thus represents the start of the detection. The respective sensor array 61, 62 then detects incident light from the flash source 7 for a detection duration At exp . Detection 9 by the respective sensor array 6i, 62 of the stereo camera
5 ist in der Fig. 2 wiederum durch einen zeitlichen Kasten veranschaulicht. Figure 5 is again illustrated by a time box in Fig. 2.
Die vorstehend erläuterten Bilderfassungsparameter, nämlich der Blitzbeleuchtungsbeginn (t = 0), die Blitzbeleuchtungsdauer Atfiash, der Detektionsbeginn (t = 1E) und die Detektionsdauer Atexp werden zeitlich synchronisiert von einer Steuereinrichtung 10 der Vorrichtung 1 vorgegeben. Hierzu kann eine Synchronisationseinheit einer Synchronisationseinrichtung der Steuereinrichtung 10 genutzt werden. The image acquisition parameters described above, namely the flash illumination start (t = 0), the flash illumination duration Atfiash, the detection start (t = 1E) and the detection duration At exp , are specified in a time-synchronized manner by a control unit 10 of the device 1. A synchronization unit of a synchronization device of the control unit 10 can be used for this purpose.
Die Steuereinrichtung 10 hat einen Bildprozessor zur Echtzeit-Datenverarbeitung. Hierbei kann es sich um einen Prozessor mit einem Field Programmable Gate Array (FPGA, im Feld programmierbare Logik-Gatter- Anordnung) handeln. Der Bildprozessor kann auf ein ultraschnelles, mittels der Steuereinrichtung 10 getriggertes Image Grabbing der von den Sensor- Arrays 6i erfassten Einzelbilder getrimmt sein. The control unit 10 has an image processor for real-time data processing. This can be a processor with a field-programmable gate array (FPGA). The image processor can be configured for ultra-fast image grabbing of the individual images captured by the sensor arrays 6i, triggered by the control unit 10.
Aufgrund der synchronisierten Vorgabe des Blitzlichtbeleuchtungsbegiims und des Detektionsbeginns gibt die Steuereinrichtung 10 zwangsläufig auch den Delay-Zeitraum Atiag zwischen dem Beleuchtungsblitzbeginn (t = 0) und dem Detektionsbeginn (t = 1E) der Vorrichtung 1 vor. Due to the synchronized specification of the flash illumination start and the detection start, the control unit 10 inevitably also specifies the delay period Ati ag between the illumination flash start (t = 0) and the detection start (t = 1E) of the device 1.
Korreliert mit der Lichtgeschwindigkeit ergibt sich ein mittels der Stereokamera 5 erfasster Entfemungsbereich 11 in der Vorwärtsrichtung 4 der Vorrichtung 1. Das Objekt 2 hat zur Vorrichtung 1 einen Abstand längs der Vorwärtsrichtung 4, der innerhalb dieses Entfemungsbereichs 11 liegt, sodass das Objekt 2 von der Stereokamera 5 erfasst wird. Der erfasste Entfer- nungsbereich 11 ist von der Vorrichtung 1 etwa um 100 m bis 150 m beab- standet und hat längs der Vorwärtsrichtung 4 eine Ausdehnung von beispielsweise 30 m. Correlated with the speed of light, a distance range 11 is detected by the stereo camera 5 in the forward direction 4 of the device 1. The object 2 is at a distance from the device 1 along the forward direction 4 that lies within this distance range 11, so that the object 2 is detected by the stereo camera 5. The detected distance- The area 11 is located approximately 100 m to 150 m away from the device 1 and has an extent of, for example, 30 m along the forward direction 4.
Dieser Abstand ist in der Fig. 1 bei 12 angegeben und ist im Vergleich zum Entfemungsbereich 11 nicht maßstäblich. This distance is shown at 12 in Fig. 1 and is not to scale compared to the distance range 11.
Aufgrund der Erfassung über die beiden Kameras 5i, 52 der Stereokamera 5 ergibt sich eine räumliche Bilderfassung des Objekts 2. Triangulatorisch kann dann redundant zur TOF- Ab Standsmessung über den Delay-Zeitraum Atiag auch eine Referenz- Abstandsbestimmung des Objekts 2 zur Vorrichtung 1 vorgenommen werden. Bei der Vorrichtung 1 handelt es sich also prinzipiell um eine TOF-Kamera mit zusätzlicher Triangulation. Based on the acquisition by the two cameras 5i and 52 of the stereo camera 5, a spatial image of object 2 is obtained. Triangulation can then be used redundantly to determine the reference distance of object 2 to device 1 over the delay period Atiag, in addition to the TOF (time-of-flight) position measurement. Device 1 is therefore essentially a TOF camera with added triangulation capabilities.
Die Stereokamera 5 kann zudem eine Korrespondenzanalyse von mit den beiden Kameras 5i, 52 aufgenommenen Kamera-Einzelbildern durchführen, um stereoskopisch erfasste Objekte von Hintergrundrauschen, das nur bei einer der beiden Kameras 51, 52 vorliegt, zu trennen. Eine derartige Korrespondenzanalyse ist beispielsweise beschrieben in der WO 2022/069424 Al und in der WO 2022/069425 A2. The stereo camera 5 can also perform a correspondence analysis of individual camera images captured by the two cameras 5i and 52 in order to separate stereoscopically captured objects from background noise that is present only in one of the two cameras 51 and 52. Such a correspondence analysis is described, for example, in WO 2022/069424 A1 and WO 2022/069425 A2.
Initial kann bei der Stereokamera 5 eine Stereo-Kalibrierung insbesondere von Ausrichtungen und Lagen der Kameras 5i, 52 der Stereokamera 5 mithilfe eines Verfahrens durchgeführt werden, das ebenfalls beschrieben ist in der WO 2022/069424 AL Hinsichtlich der Kalibrierung wird auch auf die DE 10 2011 080 702 B3 verwiesen. Initially, a stereo calibration of the stereo camera 5, in particular of the orientations and positions of the cameras 5i, 52 of the stereo camera 5, can be carried out using a method that is also described in WO 2022/069424 AL. With regard to the calibration, reference is also made to DE 10 2011 080 702 B3.
Bei der räumlichen Bilderfassung mittels der Vorrichtung 1 kann eine mittels des TOF-Prinzips erfasste TOF-Entfemung mindestens eines erfassten Objekts mit einer triangulatorischen Entfernung des Objekts, die mittels der mindestens einen Stereokamera mittels der triangulatorischen Prinzips erfasst wurde, abgeglichen werden. Die TOF-Entfemung kann dabei beispielsweise als Eingangsgröße für die triangulatorische Erfassung genutzt werden. Hierüber kann die Korrespondenzanalyse bei der triangulatorischen Erfassung, beispielsweise durch Eingrenzung eines bei der Korrespondenzanalyse abzudeckenden Disparitätsbereichs, erleichtert werden. In spatial image acquisition using the device 1, a TOF distance of at least one captured object can be detected using the TOF principle. The object is compared to a triangulatory distance, which was acquired using at least one stereo camera based on the triangulatory principle. The time-of-flight (TOF) distance can, for example, be used as an input for the triangulatory acquisition. This can facilitate correspondence analysis during triangulatory acquisition, for example, by defining the disparity range to be covered in the correspondence analysis.
Mithilfe der über die Kameras 5i, 52 der Stereokamera 5 erfassten Bilder des mittels der Blitzlichtquelle 7 beleuchteten Objekts 2 kann auch eine Schattenerfassung eines vom Objekt 2 geworfenen Schattens für das Beleuchtungslicht der Blitzlichtquelle 7 erfolgen. Mittels einer derartigen Schattenwurf- Aus Wertung des unterschiedlichen Schattenwurfes des Objekts 2, aufgenommen durch die beiden Kameras 5i, 52 der Stereokamera 5, ist eine zusätzlich redundante Ermittlung des Abstandes des Objekts 2 zur Vorrichtung 1 möglich. Using the images of object 2, illuminated by flash source 7 and captured by cameras 5i and 52 of the stereo camera 5, it is also possible to detect the shadows cast by object 2 for the illumination light of the flash source 7. By evaluating the different shadows cast by object 2, as recorded by the two cameras 5i and 52 of the stereo camera 5, an additional redundant determination of the distance between object 2 and device 1 is possible.
Die Vorrichtung 1 hat eine weitere Blitzlichtquelle 13, deren Funktion derjenigen der Blitzlichtquelle 7 entspricht, die also ebenfalls zur gesteuerten Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze dient. Die weitere Blitzlichtquelle 13 kann redundant zur zunächst beschriebenen Blitzlichtquelle 7 zum Einsatz kommen, beispielsweise bei einem Ausfall der zunächst beschriebenen Blitzlichtquelle 7. Während des Betriebs der weiteren Blitzlichtquelle 13 kann die zunächst beschriebene Blitzlichtquelle 7 dann beispielsweise ausgetauscht werden, sodass ein lückenloser Betrieb der Vorrichtung 1 beispielsweise während einer zu überwachenden Fahrt des PKW oder LKW, auf dem die Vorrichtung 1 montiert ist, möglich ist. Die Vorrichtung 1 hat eine weitere Stereokamera 14 mit Kameras 14i, 142, deren Aufbau und Funktion dem entspricht, was vorstehend unter Bezugnahme auf die Stereokamera 5 bereits erläutert wurde. Die Stereokamera 14i ist der Stereokamera 5i direkt benachbart angeordnet und deckt praktisch das gleiche Sichtfeld in der Vorwärtsrichtung 4 ab, wie die Kamera 5i. Die Kamera 142 ist wiederum der Kamera 52 direkt benachbart angeordnet und deckt in der Vorwärtsrichtung 4 das gleiche Sichtfeld ab, wie die Kamera 52. The device 1 has an additional flash light source 13, whose function corresponds to that of the flash light source 7, i.e., it also serves to control the start and duration of successive flashes. The additional flash light source 13 can be used redundantly to the flash light source 7 described above, for example, in the event of a failure of the flash light source 7 described above. While the additional flash light source 13 is operating, the flash light source 7 described above can then be replaced, for example, so that uninterrupted operation of the device 1 is possible, for example, during a monitored journey of the car or truck on which the device 1 is mounted. The device 1 has a further stereo camera 14 with cameras 14i and 142, whose construction and function correspond to what has already been explained above with reference to the stereo camera 5. The stereo camera 14i is arranged directly adjacent to the stereo camera 5i and covers practically the same field of view in the forward direction 4 as the camera 5i. The camera 142 is in turn arranged directly adjacent to the camera 52 and covers the same field of view in the forward direction 4 as the camera 52.
Die Stereokamera 14 ist wiederum redundant zur Stereokamera 5. Hier gilt, was zu den Blitzlichtquellen 7 und 13 ausgeführt wurde. Stereo camera 14 is redundant to stereo camera 5. The same applies here as was stated for flash sources 7 and 13.
Die Vorrichtung 1 hat weiterhin eine Fischaugen-Stereokamera 15 mit zwei Paaren 15i, 152 einerseits und 15s, 154 andererseits. Jede dieser Fisch- augen-Kameras 15i (i = 1 bis 4) dient zur Erfassung der Umgebung um die Vorrichtung 1 sowohl in der Vorwärtsrichtung 4 als auch in hierzu lateraler Richtung (vgl. Pfeil 16 in Fig. 1). Die beiden in der Fig. 1 links am Fahrzeug 3 angeordneten Fischaugen-Kameras 151 und 152 haben eine Haupt- Erfassungsrichtung 17, die wie die Haupterfassungsrichtungen der Kameras 5i und 6i horizontal verläuft, aber im Falle der Fischaugen- Kameras 151 und 152 einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnimmt. Diese Fischaugen-Kameras 151, 152 decken also sowohl die Vorwärtsrichtung 4 als auch die zur lateralen Richtung 16 entgegengesetzte seitliche Richtung (links in der Fig. 1) des Fahrzeugs 3 ab, an dem die Vorrichtung 1 montiert ist. Entsprechend decken die beiden weiteren Fischaugen-Kameras 153, 154, deren Haupterfassungsrichtungen 18 ebenfalls einen Winkel von 45 ° zur Vorwärtsrichtung 4 einnehmen, neben der Vorwärtsrichtung 4 auch einen rechtsseitigen Bereich in der lateralen Richtung 16 ab. Die Fischaugen- Kameras 15i haben einen Erfas sung s winkel um die Haupt- Erfassungsrichtungen 17, 18 von 180 °. Grenzwinkel der Erfassungsbereiche dieser Fischaugen-Kameras 15i sind in der Fig. 1 gestrichelt angedeutet. Diese Öffnungsbereiche überlappen in einem Überlapp-Bereich 19, der in der Fig. 1 durch eine Schraffur angedeutet ist. In diesem Überlapp-Bereich 19 liegt insbesondere das Objekt 2. The device 1 further comprises a fisheye stereo camera 15 with two pairs 15i, 152 on the one hand and 15s, 154 on the other. Each of these fisheye cameras 15i (i = 1 to 4) serves to capture the environment around the device 1 both in the forward direction 4 and in a lateral direction (see arrow 16 in Fig. 1). The two fisheye cameras 151 and 152 arranged on the left side of the vehicle 3 in Fig. 1 have a main detection direction 17, which, like the main detection directions of cameras 5i and 6i, is horizontal, but in the case of fisheye cameras 151 and 152 forms an angle of 45° to the forward direction 4. These fisheye cameras 151, 152 thus cover both the forward direction 4 and the lateral direction opposite to the lateral direction 16 (left in Fig. 1) of the vehicle 3 on which the device 1 is mounted. Correspondingly, the two further fisheye cameras 153, 154, whose main detection directions 18 also form an angle of 45° to the forward direction 4, cover not only the forward direction 4 but also a right-hand area in the lateral direction 16. The fisheye cameras 15i have a detection angle of 180° around the main detection directions 17, 18. The limiting angles of the detection ranges of these fisheye cameras 15i are indicated by dashed lines in Fig. 1. These aperture ranges overlap in an overlap area 19, which is indicated by hatching in Fig. 1. Object 2 is located in this overlap area 19.
Die Beleuchtungslichtquelle 7 strahlt Blitzlicht der Beleuchtungsblitze längs der Vorwärtsrichtung in einem Beleuchtungskegel ab, dessen Randstrahlen in der Fig. 1 bei 8a veranschaulicht sind. Das Objekt 2 und auch der Überlappbereich 19 liegen innerhalb des Beleuchtungskegels 8a der Blitzlichtquelle 7. The illumination light source 7 emits flashes of light along the forward direction in an illumination cone, the marginal rays of which are illustrated at 8a in Fig. 1. The object 2 and also the overlap area 19 lie within the illumination cone 8a of the flash light source 7.
Die Fischaugen- Stereokamera 15 kann wahlweise eine triangulatorische Objekt- Abstandsbestimmung mittels mindestens zweier der insgesamt vier Fischaugen-Kameras 15i durchführen, wobei mit kurzen Baselines, Abstände der Fischaugen-Kameras 15i, 152 einerseits beziehungsweise 15s, 154 andererseits oder auch mit langen Baselines (Abstände der Fischaugen- Kameras 15i und 153 oder 151 und 154 oder 152 und 15s oder 152 und 154) gearbeitet werden kann. Hierüber lässt sich wiederum eine redundante triangulatorische Objekt-Abstandsbestimmung vornehmen. The fisheye stereo camera 15 can optionally perform triangulatory object distance determination using at least two of the four fisheye cameras 15i, employing either short baselines (distances between fisheye cameras 15i and 152 on the one hand, and 15s and 154 on the other) or long baselines (distances between fisheye cameras 15i and 153, 151 and 154, 152 and 15s, or 152 and 154). This allows for redundant triangulatory object distance determination.
Die Nutzung derartiger zusätzlicher Triangulations-Baselines sind beispielsweise beschrieben in der WO 2022/069424 Al und in der WO 2022/179998 AE The use of such additional triangulation baselines is described, for example, in WO 2022/069424 Al and in WO 2022/179998 AE.
Die Vorrichtung 1 hat zudem eine weitere Fischaugen- Stereokamera 20 mitThe device 1 also has another fisheye stereo camera 20 with
Fischaugen-Kameras 201 bis 204, die in ihrem Aufbau, ihrer Ausrichtung und paarweisen Anordnung den Fischaugen-Kameras 15i bis 154 entsprechen. Die Fischaugen- Stereokamera 20 kann redundant zur Fischaugen- Stereokamera 15 zum Einsatz kommen. Hier gilt entsprechend, was vorstehend zu den Blitzlichtquellen 7 und 13 beziehungsweise zu den Stereokameras 5 und 14 ausgeführt wurde. Fisheye cameras 201 to 204, which in their construction, their orientation and the paired arrangement corresponds to the fisheye cameras 15i to 154. The fisheye stereo camera 20 can be used redundantly with the fisheye stereo camera 15. The same applies here as described above for the flash sources 7 and 13 and the stereo cameras 5 and 14, respectively.
Die Kameras 15i der Fischaugen- Stereokamera 15 haben wiederum Sensor- Arrays nach Art der vorstehend beschriebenen Sensor- Arrays 6i, können also wiederum als Bestandteil einer TOF-Erfassung genutzt werden, wie vorstehend bereits erläutert. The cameras 15i of the fisheye stereo camera 15 in turn have sensor arrays of the type of the sensor arrays 6i described above, and can therefore again be used as part of a TOF recording, as already explained above.
Die Steuereinrichtung 10 steht mit den Stereokameras 5, 14, 15 und 20 und mit den Blitzlichtquellen 7 und 13 in Signal Verbindung. Weiterhin kann die Steuereinrichtung 10 mit Komponenten des Fahrzeugs 3 in Signalverbindung stehen, beispielsweise mit einem Antrieb und/oder mit einer Bremsanlage und/oder mit Fahrzeug- Anzeigevorrichtung en, beispielsweise in einem Armaturenbrett des Fahrzeugs 3. The control unit 10 is in signal communication with the stereo cameras 5, 14, 15 and 20 and with the flash sources 7 and 13. Furthermore, the control unit 10 can be in signal communication with components of the vehicle 3, for example with a drive system and/or with a braking system and/or with vehicle display devices, for example in a dashboard of the vehicle 3.
Beim Echtzeitbetrieb kann die Vorrichtung 1 eine Bildaufnahme von beispielsweise zehn Bildern pro Sekunde vornehmen. In real-time operation, the device 1 can take an image at, for example, ten images per second.
Fig. 3 zeigt eine weitere Ausführung einer Vorrichtung 21, die anstelle der Vorrichtung 1 zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung eingesetzt werden kann. Komponenten und Funktionen der Vorrichtung 21, die denjenigen der Vorrichtung 1 entsprechen, tragen insbesondere die gleichen Bezugsziffem und werden nicht nochmals im Einzelnen diskutiert. Die Vorrichtung 21 ist mit zwei Stereokameras 5, 14 ausgerüstet, die die Umgebung der wiederum auf ein Fahrzeug 3 montierten Vorrichtung 21 in der Vorwärtsrichtung 4 erfassen. Veranschaulicht sind innerhalb dieser erfassten Umgebung drei Umgebungs-Objekte 22, 23 und 24. Fig. 3 shows a further embodiment of a device 21, which can be used instead of the device 1 for spatial image acquisition of an environment moving relative to the device. Components and functions of the device 21 that correspond to those of the device 1 bear, in particular, the same reference numerals and are not discussed again in detail. The device 21 is equipped with two stereo cameras 5, 14, which capture the surroundings of the device 21, which is mounted on a vehicle 3, in the forward direction 4. Three environmental objects 22, 23 and 24 are illustrated within this captured environment.
Mit der Vorrichtung 21 ist insbesondere ein in der Vorwärtsrichtung 4, die auch als z-Richtung bezeichnet ist, z-gepufferter (z-buffered) Betrieb möglich, bei dem ein Gesamt-Entfemungsbereich 25 längs der Vorwärtsrichtung 4, innerhalb dem die Objekte 22 bis 24 liegen, in eine Mehrzahl von Entfemungsbereiche 22i bis 22max, also in Entfernung sbereiche 22i (i = 1 bis max) unterteilt wird. Die maximale Anzahl max dieser Entfemungsbereiche 22i kann im Bereich zwischen 3 und 50 liegen, beispielsweise im Bereich von 10. Diese Entfemungsbereiche 22i werden auch als Entfernungszonen (gate zones) gz bezeichnet. The device 21 enables, in particular, z-buffered operation in the forward direction 4, also referred to as the z-direction, in which a total distance range 25 along the forward direction 4, within which the objects 22 to 24 lie, is subdivided into a plurality of distance ranges 22i to 22max , i.e., distance zones 22i (i = 1 to max). The maximum number max of these distance zones 22i can be in the range between 3 and 50, for example, in the range of 10. These distance zones 22i are also referred to as gate zones gz.
Beim entsprechenden Z-Buffering-Betrieb der Vorrichtung 21 werden zunächst die Bilderfassungsparameter Beleuchtungsblitzbeginn (t = 0), Beleuchtungsblitzdauer (Atflash, gz-i), ein Detektionsbeginn (t = 1E) und eine Detektionsdauer (Atexp, gz-i) vorgegeben. During the corresponding Z-buffering operation of the device 21, the image acquisition parameters illumination flash start (t = 0), illumination flash duration (Atflash, gz-i), a detection start (t = 1E) and a detection duration (Atexp, gz-i) are initially specified.
Diese Bilderfassungsparameter-Vorgabe erfolgt wiedemm mittels der Steuereinrichtung 10. This image acquisition parameter specification is again made using control unit 10.
Der Entfernung sbereich gz-1, also beispielsweise der Entfemungsbereich 22max, wird dann mit den so vorgegebenen Bilderfassungsparametem erfasst. The distance range gz-1, for example the distance range 22max, is then captured using the image acquisition parameters specified in this way.
Über die Steuereinrichtung 10 werden weitere Bilderfassungsparameter vorgegeben, nämlich ein weiterer Blitzlichtbeginn (t = tfiash), eine weitere Blitzlichtdauer (Afiash, gz), ein weiterer Detektionsbeginn (t = tEi) und eine Detektionsdauer (Atexp, gz). Diese Vorgabe ist so gewählt, dass ein Delay- Zeitraum (Atiag, gz) bei diesen weiteren vorgegebenen Bilderfassungspara- metem etwas kürzer ist als der zunächst vorgegebene Delay-Zeitraum Atiag, gz-i . Dies bedingt, dass bei der Erfassung mit den zuletzt vorgegebenen Bil- derfassungsparametem ein weiterer Erfassungsbereich gz erfasst wird, der den zunächst erfassten Entfemungsbereich gz-1, also den Entfemungsbe- reich 22max, zu kürzeren Abständen zur Vorrichtung 21 hin benachbart ist. Further image acquisition parameters are specified via the control unit 10, namely a further flash start (t = tfiash), a further Flash duration (Afiash, gz ), a further detection start (t = tEi), and a detection duration ( Atexp , gz ). This specification is chosen such that a delay period (Atiag, gz) for these further specified image acquisition parameters is slightly shorter than the initially specified delay period Atiag, gz-i. This means that when acquiring with the last specified image acquisition parameters, a further detection area gz is captured, which is adjacent to the initially captured distance area gz-1, i.e., the distance area 22 max , at shorter distances to the device 21.
Der weitere Entfemungsbereich gz grenzt an den vorhergehenden Entfernungsbereich gz-1 längs der Vorwärtsrichtung 4 in einer Erfassungsfortschrittsrichtung +z an oder überlappt mit diesem teilweise. The further distance range gz borders on or partially overlaps the preceding distance range gz-1 along the forward direction 4 in a detection progress direction +z.
In diesem nun erfassten Erfassungsbereich gz liegt das Objekt 24. Object 24 is located within this now recorded recording area gz.
Es erfolgt nun ein digitales Filtern des zuletzt erfassten Bildes im Entfernungsbereich gz zum Herausfiitem strukturloser Bildbereiche, sodass das Objekt 24 übrigbleibt. Anschließend wird das im der Erfassung des Entfernungsbereichs gz vorhergehenden Erfassungsbereich (Erfassung des Ent- femungsbereichs gz-1) erfasste Bild mit dem zuletzt erfassten Bild (Entfernungsbereich gz) in nicht herausgefilterten Bildbereichen, also im Bereich des Objekts 24, dieses zuletzt erfassten Bildes überschrieben, sodass in der Steuereinrichtung 10 ein aktualisiertes Bild abgelegt wird, welches die Informationen aus den beiden Entfemungsbereichen gz-1 und gz beinhaltet. The last captured image in the distance range gz is now digitally filtered to remove unstructured image areas, leaving object 24. Subsequently, the image captured in the preceding capture range (capture of distance range gz-1) is overwritten with the last captured image (distance range gz) in the unfiltered image areas, i.e., in the area of object 24, so that an updated image containing the information from both distance ranges gz-1 and gz is stored in the control unit 10.
Die Steuereinrichtung 10 gibt im Betrieb weitere Bilderfassungsparameter vor, sodass ein weiterer Entfemungsbereich gz+1 erfasst wird, der sich wiedemm entgegen der Vorwärtsrichtung 4 an dem Entfemungsbereich gz anschließt beziehungsweise mit diesem teilweise überlappt. Nun werden die zuletzt beschriebenen Schritte Erfassen, Filtern, Überschreiben und Bilderfassungsparameter-Vorgeben für diesen Entfernungsbereich gz+1 sowie weitere Entfemungsbereiche 224, 223, 222 und 221 wiederholt, bis der vorgegebene Gesamt-Entfemungsbereich 25 abgedeckt ist, der sich aus der Überlagerung der erfassten Entfemungsbereiche 22i bis 22max ergibt. Im Zuge dieser Sequenzen werden im jeweils für den Entfernungsbereich 22i aktualisierten Bild die Bildbereiche am Ort der weiteren Objekte 23 (Entfemungsbereich 222) und 22 (Entfemungsbereich 22i) überschrieben, sodass im zuletzt aktualisierten Bild alle drei Objekte 22 bis 24 mit ihren über die Zuordnung zum jeweiligen Entfemungsbereich 22i bestimmten Objekt- Ab ständen zur Vorrichtung 1 ausgegeben werden. During operation, the control unit 10 specifies further image acquisition parameters, so that a further distance range gz+1 is captured, which again connects to the distance range gz in the opposite direction to the forward direction 4 or partially overlaps with it. The previously described steps of capturing, filtering, overwriting, and specifying image capture parameters for this distance range gz+1, as well as further distance ranges 224, 223, 222, and 221, are now repeated until the specified total distance range 25 is covered, which results from the superposition of the captured distance ranges 22i to 22max. During these sequences, the image areas at the location of the further objects 23 (distance range 222) and 22 (distance range 22i) are overwritten in the image updated for distance range 22i, so that in the last updated image, all three objects 22 to 24 are displayed with their object distances to device 1, determined by their assignment to the respective distance range 22i.
Die Anzahl i (i = 1 bis max) der Entfemungsbereiche 22i, die während des Betriebs verfahrens erfasst werden, kann beispielsweise bei 50 liegen. Das Betriebs verfahren mit Abrastem aller Entfemungsbereiche 22max bis 22i kann im 10 Hertz-Betrieb in Echtzeit stattfinden. Das Ergebnis eines solchen kompletten Abrastemng-Vorgangs der Entfemungsbereiche 22max bis 22i ist ein 2D-Bild mit den nicht herausgefilterten Objekten 22, 23 und 24 in allen innerhalb des Gesamt-Entfernungsbereichs 25 erfassten Entfernungsbereichen 22i. Auch überschriebene Informationen der innerhalb des Gesamt-Entfemungsbereichs 25 zunächst erfassten Entfemungsbereiche 22max bis 222 können beim zuletzt aktualisierten, ausgegebenen Bild nach Erfassung des Entfemungsbereichs 22i für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben. The number i (i = 1 to max) of distance ranges 22i acquired during the operating procedure can, for example, be 50. The operating procedure with scanning of all distance ranges 22 max to 22i can take place in real time at 10 Hz. The result of such a complete scanning process of the distance ranges 22 max to 22i is a 2D image with the unfiltered objects 22, 23, and 24 in all distance ranges 22i acquired within the total distance range 25. Information overwritten by the distance ranges 22 max to 222 initially acquired within the total distance range 25 can also be retained in the last updated, output image after the acquisition of distance range 22i for independent spatial (3D) evaluation.
Wie die Fig. 4 veranschaulicht, können aufeinanderfolgende Erfassungsschritte für Entfemungsbereiche gz- 1 und gz zeitlich miteinander überlap- pen. Auch mehr als zwei derartiger Erfassungsschrite können zeitlich miteinander überlappen, sodass beispielsweise während eines Delay-Zeitraums bei der Erfassung eines ersten Entfemungsbereichs gz ein Blitzlichtbeginn mindestens einer weiteren Erfassung eines weiteren Entfemungsbereichs gz+1, gz+2 statfindet. Auch ein Detektionszeitraum einer vorhergehenden Erfassung kann beispielsweise mit einem Blitzzeitraum einer nachfolgenden Erfassung überlappen. As illustrated in Fig. 4, successive detection steps for distance ranges gz-1 and gz can overlap in time. Furthermore, more than two such detection steps can overlap in time, so that, for example, during a delay period when detecting a first distance range gz, a flash begins at least one further detection of a further distance range gz+1, gz+2. A detection period of a previous detection can also overlap with a flash period of a subsequent detection.
Entfernungs-Ausdehnungen Az der verschiedenen Entfernungsbereiche 22i, 22j können sich voneinander unterscheiden. Es können sich also die Detek- tionsdauem bei den verschiedenen Erfassungsschriten des Betriebs verfahrens unterscheiden. The distance extents Az of the different distance ranges 22i, 22j can differ from each other. Therefore, the detection durations for the various acquisition steps of the operating procedure can differ.
Nach dem Erfassen eines jeweiligen Entfemungsbereichs 22i kann zusätzlich eine Triangulations-Bestimmung einer Entfernung der Objekte 22 bis 24 in den nicht herausgefilterten Bildbereichen mithilfe der mindestens einen Stereokamera 5, 14 erfolgen. Hierbei kann wiedemm eine Stereo-Korrespondenzbestimmung statfinden, wie vorstehend bereits erläutert. After capturing a respective distance range 22i, a triangulation determination of the distance of objects 22 to 24 in the unfiltered image areas can additionally be carried out using the at least one stereo camera 5, 14. Here, a stereo correspondence determination can again take place, as already explained above.
Vor einem jeweiligen Erfassungsschrit des Betriebs verfahrens kann eine Region of Interest (ROI) als Teil eines über die jeweilige Kamera 5i, 14i erfassbaren Bildfeldes vorgegeben werden, beispielsweise ein durch entsprechende Objektfilterung identifizierter Straßenbereich in der Vorwärtsrichtung 4. Prior to each acquisition step of the operational procedure, a Region of Interest (ROI) can be specified as part of an image field that can be acquired via the respective camera 5i, 14i, for example a road area identified by appropriate object filtering in the forward direction 4.
Fig. 5 zeigt eine Seitenansicht einer weiteren Ausführung der Bilderfassungs-Vorrichtung 1. Komponenten und Funktionen, die denjenigen entsprechen, die vorstehend unter Bezugnahme auf die Figuren 1 bis 4 bereits erläutert wurden, tragen die gleichen Bezugsziffem und werden nicht nochmals im Einzelnen diskutiert. Fig. 5 shows a side view of another embodiment of the image acquisition device 1. Components and functions that correspond to those already described above with reference to Figures 1 to 4. The points that have already been explained bear the same reference numbers and will not be discussed again in detail.
Anhand der Fig. 5 wird der Einsatz der Vorrichtung 1 zur Bestimmung und Erkennung eines diffusen Streumediums längs eines Blitzlichtweges 28 zwischen der Blitzlichtquelle 7 und einem beispielhaften Umgebungs-Objekt 2 erläutert. Dargestellt ist in der Fig. 5 beispielhaft die Kamera 5i der Stereokamera 5, die neben der triangulatorischen Entfernungsbestimmung auch eine TOF-Entfemungsbestimmung ermöglicht. The use of the device 1 for determining and detecting a diffuse scattering medium along a flash path 28 between the flash source 7 and an exemplary surrounding object 2 is explained with reference to Fig. 5. The camera 5i of the stereo camera 5 is shown as an example in Fig. 5, which enables both triangulatory distance determination and time-of-flight (TOF) distance determination.
Beim Erfassungsbeispiel nach Fig. 5 erfasst die Vorrichtung 1 insgesamt drei Entfemungsbereiche 22i, 222, 223 durch Vorgabe entsprechender TOF- Bilderfassungsparameter. Der erste, nächste Entfernungsbereich 22i erstreckt sich um einen ersten Abstand di. Der nächstentfemte weitere Ent- femungsbereich 222 erstreckt sich um einen zweiten Abstand d2, für den gilt: d2 = 2 x di. Der nächstentfemte, dritte Entfemungsbereich 22s erstreckt sich um einen dritten Abstand di, für den gilt: di = 3 x di. In the acquisition example shown in Fig. 5, the device 1 acquires a total of three distance ranges 22i, 222, 223 by specifying corresponding TOF image acquisition parameters. The first, nearest distance range 22i extends by a first distance di. The next further distance range 222 extends by a second distance d2, for which d2 = 2 x di. The next furthest, third distance range 22s extends by a third distance di, for which di = 3 x di.
Zur Vorgabe der Bilderfassungsparameter für die drei Entfemungsbereiche 22i bis 22s gehört neben der Vorgabe der TOF-Bilderfassungsparameter „Beleuchtungsbeginn“, „Beleuchtungsdauer“, „Detektionsbeginn“ und „Detektionsdauer“ auch eine Vorgabe einer Blitzintensität li zur Ausleuchtung des jeweiligen Entfemungsbereichs 22i. Die Blitzintensität I2 zur Ausleuchtung des Entfemungsbereich 222 ist viermal so groß wie die Blitzintensität li zur Ausleuchtung des ersten, nächstgelegenen Entfemungsbereichs 22i. Die Blitzintensität I3 zur Ausleuchtung des im Beispiel nach Fig. 5 entferntesten, dritten Entfemungsbereichs 223 ist neunmal so groß wie die Blitzintensität li. Die Blitzintensität li hängt also quadratisch von einer Entfernung di innerhalb eines insgesamt zu erfassenden Gesamt-Ent- femungsbereichs 25 ab. Unter Voraussetzung einer konstanten Reflektivität beziehungsweise eines konstanten Streuvermögens einer Umgebungs-Oberfläche 29 ergibt sich aufgrund dieser quadratischen Abhängigkeit der Beleuchtungsintensität L von der Entfernung di, dass das Sensor- Array 6i der Kamera 5i eine konstante Intensitätsausleuchtung bei der Bilderfassung der drei Entfernungsbereiche 22i, 222 und 223 erfährt. Diese konstante Intensitätsausleuchtung des Sensor- Arrays 6i liegt nur dann vor, wenn längs Blitzlichtwegen 3 h, 3 h, 313 zwischen der Blitzlichtquelle 7 und der Umgebung in den Entfernungsbereichen 22i bis 22s keine wesentliche Streuung des Beleuchtungsblitzes 8 durch das diffuse Streumedium 27 vorliegt. Anders ausgedrückt: Ungleichheiten einer Intensitätsausleuchtung des Sensor-Arrays 61 längs der Erfassungswege 3 Oi bei der vorgegebenen quadratischen Abhängigkeit der Beleuchtungsintensität L von der Entfernung di innerhalb des zu erfassenden Entfemungsbereiches 22i sind ein Hinweis auf das Vorliegen des diffusen Streumediums 27. The specification of image acquisition parameters for the three distance ranges 22i to 22s includes, in addition to the specification of the TOF image acquisition parameters "illumination start", "illumination duration", "detection start" and "detection duration", a specification of a flash intensity li for illuminating the respective distance range 22i. The flash intensity I2 for illuminating distance range 222 is four times greater than the flash intensity li for illuminating the first, nearest distance range 22i. The flash intensity I3 for illuminating the third, most distant distance range 223 in the example according to Fig. 5 is nine times greater than the flash intensity li. The flash intensity li therefore depends quadratically on a distance di within a total distance range 25 to be acquired. Assuming a constant reflectivity or scattering power of an ambient surface 29, the quadratic dependence of the illumination intensity L on the distance di results in the sensor array 6i of the camera 5i experiencing constant intensity illumination during image acquisition in the three distance ranges 22i, 222, and 223. This constant intensity illumination of the sensor array 6i only occurs if, along flash paths 3h, 3h, 313 between the flash source 7 and the environment in the distance ranges 22i to 22s, there is no significant scattering of the illumination flash 8 by the diffuse scattering medium 27. In other words: Inequalities in the intensity illumination of the sensor array 61 along the detection paths 3 Oi with the given quadratic dependence of the illumination intensity L on the distance di within the detection range 22i are an indication of the presence of the diffuse scattering medium 27.
Hierbei können folgende Fälle unterschieden werden: a) Das diffuse Streumedium 27 liegt innerhalb des aktuell erfassten Ent- femungsbereichs, im in der Fig. 5 dargestellten Fall also innerhalb des Entfemungsbereichs 222, vor. In diesem Fall wird das diffuse Streumedium 27 längs des Beleuchtungsweges 3 h direkt beleuchtet und eine entsprechende Streuung des Beleuchtungslichts 8 durch das diffuse Streumedium 27 in das Sensor-Array 61 bei der TOF-Erfassung gemessen, was zu einer Erhöhung der Intensitätsausleuchtung längs des Erfassungsweges 302 führt. b) Das diffuse Streumedium 27 liegt zwischen der Blitzlichtquelle 7 und dem Sensor-Array 6i einerseits und dem aktuell erfassten Entfernungsbereich, beispielsweise dem Entfernungsbereich 223, andererseits. In diesem Fall erfolgt eine Schwächung des Beleuchtungslichts längs des Blitzlichtweges 3 h beim Durchtreten des diffusen Streumediums 27. Eine weitere Schwächung erfährt das vom Erfassungsbereich 22s in Richtung des Sensor-Arrays 61 längs des Erfassungsweges 30s rückgestreute Beleuchtungslicht aufgrund einer nochmaligen Streuung durch das diffuse Streumedium 27. Im Ergebnis ist die Intensitätsausleuchtung des Sensor-Arrays 61 bei der Erfassung des Entfemungsbereichs 223 aufgrund der im zwischenliegenden Entfemungsbereich 222 vorliegenden Wolke des diffusen Streumediums 27 geschwächt. The following cases can be distinguished: a) The diffuse scattering medium 27 is located within the currently detected distance range, i.e., within the distance range 222 in the case shown in Fig. 5. In this case, the diffuse scattering medium 27 is directly illuminated along the illumination path 3 h, and a corresponding scattering of the illumination light 8 by the diffuse scattering medium 27 into the sensor array 61 is measured during TOF detection, which leads to an increase in the intensity illumination along the detection path 302. b) The diffuse scattering medium 27 lies between the flash light source 7 and the sensor array 6i on the one hand, and the currently detected distance range, for example, the distance range 223, on the other. In this case, the illumination light is attenuated along the flash path 3h as it passes through the diffuse scattering medium 27. The illumination light backscattered from the detection range 22s towards the sensor array 61 along the detection path 30s is further attenuated due to additional scattering by the diffuse scattering medium 27. As a result, the intensity of the illumination of the sensor array 61 when detecting the distance range 223 is attenuated due to the cloud of diffuse scattering medium 27 present in the intermediate distance range 222.
Eine Kombination einer im Vergleich zur erwarteten konstanten Intensitätsausleuchtung erhöhten Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfemungsbereichs 222 und einer Verringerung der Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfemungsbereichs 223 ermöglicht also die Identifikation des diffusen Streumediums 27 innerhalb des Entfemungsbereichs 222. A combination of an increased intensity illumination of the sensor array 61 when detecting the distance range 222, compared to the expected constant intensity illumination, and a reduction in the intensity illumination of the sensor array 61 when detecting the distance range 223 thus enables the identification of the diffuse scattering medium 27 within the distance range 222.
Bei den vorstehend erläuterten Ausführungen der Bilderfassungs-Vorrichtung 1 beziehungsweise 21 kann eine Pixelempfindlichkeit von Sensorpixeln der verschiedenen Sensor-Arrays 61, ... als Funktion einer einfallenden Lichtintensität, also als Funktion einer Intensitätsausleuchtung, des Sensor-Arrays 61, ... geregelt werden. Es kann insbesondere eine y-Korrek- tur bei der Bildverarbeitung mittels des jeweiligen Sensor- Arrays 61, ... erfolgen. Hierbei kann der bei der y- Korrektur eingesetzte Exponent y im Bereich zwischen beispielsweise 0,2 und 5 variieren. Je nach Größe von y kann dann eine Pixelempfindlichkeit zur Anpassung einer hohen Dynamik entweder bei hoher oder bei niedriger Intensitätsausleuchtung des Sensor- Arrays erreicht werden. In the image acquisition devices 1 and 21 described above, the pixel sensitivity of sensor pixels of the various sensor arrays 61, ... can be controlled as a function of the incident light intensity, i.e., as a function of the intensity illumination, of the sensor array 61, ... . In particular, y-correction can be applied during image processing using the respective sensor array 61, ... . The exponent y used in the y-correction can vary in the range between, for example, 0.2 and 5. Depending on the value of y, a pixel sensitivity can then be adjusted to achieve a high dynamic range. This can be achieved either with high or low intensity illumination of the sensor array.
Eine Auswahl von zu erfassenden Objekt-Entfemungsbereichen 22i kann bei bestimmten Betriebsmodi der Erfassungs-Vorrichtung 1 beziehungsweise 21 an einen Bewegungsmodus der Vorrichtung 1 beziehungsweise 21 relativ zur Umgebung angepasst sein. Insbesondere kann der Gesamt- Entfernung sbereich 25 an eine Relativgeschwindigkeit der Vorrichtung 1, 21 zur Umgebung angepasst werden. Auch eine Anpassung an einen Rückwärts- oder Kurvenfahrt-Modus ist möglich. A selection of object distance ranges 22i to be detected can be adapted to a movement mode of the detection device 1 or 21 relative to the environment in certain operating modes of the detection device 1 or 21. In particular, the total distance range 25 can be adapted to a relative speed of the device 1, 21 to the environment. Adaptation to a reverse or cornering mode is also possible.
Alternativ oder zusätzlich zum vorstehend mithilfe der Figuren 3 und 4 erläuterten Betriebs verfahren kann die jeweilige Vorrichtung 1 beziehungsweise 21 auch wie folgt betrieben werden: Alternatively or in addition to the operating procedure described above with reference to Figures 3 and 4, the respective device 1 or 21 can also be operated as follows:
Über eine entsprechende Zuordnung insbesondere der Blitzbeleuchtungsdauer und der Detektionsdauer wird mithilfe der jeweiligen Vorrichtung 1, 21 mittels des TOF-Prinzips eine TOF-Entfemung des mindestens einen Objekts 2 beziehungsweise 22 bis 24 erfasst. Parallel oder sequenziell hierzu wird mittels der einen Stereokamera 5, . . . der Vorrichtung 1, 21 mittels des triangulatorischen Prinzips eine triangulatorische Entfernung des jeweiligen Objekts 2 beziehungsweise 22 bis 24 erfasst. Die Erfassungswerte „TOF-Entfemung“ und „triangulatorische Entfernung“ werden dann bei Betrieb der Vorrichtung 1, 21 abgeglichen. By appropriately assigning, in particular, the flash illumination duration and the detection duration, the respective device 1, 21 uses the time-of-flight (TOF) principle to detect the time-of-flight (TOF) distance of at least one object 2 or 22 to 24. Parallel or sequentially, the stereo camera 5, ... of the device 1, 21 uses the triangulatory principle to detect the triangulatory distance of the respective object 2 or 22 to 24. The detection values "TOF distance" and "triangulatory distance" are then compared during operation of the device 1, 21.
Es ist dabei insbesondere möglich, die ermittelte TOF-Entfemung als Eingangsgröße für die triangulatorische Erfassung zu nutzen. Dies kann insbesondere die Korrespondenzanalyse bei der triangulatorischen Erfassung er- leichtem. Insbesondere kann ein bei der Korrespondenzanalyse abzudeckender Disparitätsbereich eingegrenzt werden. Auch der umgekehrte Fall ist möglich, also, dass die triangulatorisch erfasste Entfernung als Eingangsgröße für die Entfernung serfas sung mittels des TOF-Prinzips genutzt wird. Dies kann zur Bestimmung beziehungsweise zur Einteilung eines vorgegebenen Gesamt-Entfemungsbereichs in abschnittsweise Entfernungsbereiche 22i genutzt werden sowie zur entfemungsangepassten Vorgabe der TOF-Bilderfassungsparameter. In particular, it is possible to use the determined TOF distance as an input parameter for triangulation. This can especially improve correspondence analysis during triangulation. easy. In particular, a disparity range to be covered in the correspondence analysis can be narrowed down. The reverse case is also possible, i.e., that the triangulated distance is used as input for distance acquisition using the TOF principle. This can be used to determine or divide a given total distance range into segmented distance ranges 22i and to specify the TOF image acquisition parameters according to the distance.
Eine Beleuchtungsintensität durch die Blitzlichtquelle 7 kann insbesondere so vorgegeben werden, dass eine gemeinsame und insbesondere skalare Helligkeits-Regelung aller Bilder des Z-Bufferings der ersten Figuren 3 und 4 bei insbesondere konstanter Intensitätsausleuchtung der jeweiligen Sensor-Arrays 6i, ... vorgenommen wird. Diese Helligkeits-Regelung kann in Form eines Regelkreises bei der Vorrichtung 1, 21 genutzt werden. The illumination intensity from the flash source 7 can be specified in such a way that a common and, in particular, scalar brightness control of all images of the Z-buffering of the first figures 3 and 4 is carried out, with a constant intensity illumination of the respective sensor arrays 6i, ... This brightness control can be used in the form of a control loop in the device 1, 21.
Eine Kalibrierung einer Abhängigkeit einer Beleuchtungsintensität der Blitzlichtquelle von der Entfernung, also einer Beleuchtungsintensitätsfunktion, kann mithilfe eines Kalibrieraufbaus unter Verwendung eines Streumediums mit homogener Streupartikelverteilung erfolgen. Calibration of the dependence of the illumination intensity of the flash light source on the distance, i.e., an illumination intensity function, can be carried out using a calibration setup with a scattering medium with a homogeneous scattering particle distribution.
Die Pixelempfindlichkeit als Funktion der einfallenden Lichtintensität kann in Form einer proportionalen Funktion eingestellt werden oder auch in Form einer nichtlinearen Funktion. The pixel sensitivity as a function of the incident light intensity can be set in the form of a proportional function or in the form of a non-linear function.
Anhand der Fig. 6 wird nachfolgend ein Verfahren zum Kalibrieren eines Kamerasystems mit drei Kameras 5i, 52 und 5s erläutert, bei denen es sich um drei Kameras der Vorrichtung 1 oder der Vorrichtung 21 handeln kann. Die Kameras haben jeweils ein Sensor- Array 6i, 62, 63 entsprechend dem, was vorstehend im Zusammenhang mit den Ausführungen der Vorrichtungen 1 und 21 bereits erläutert wurde. Bei dem Sensor- Array 6i kann es sich auch um ein CCD-Array handeln. With reference to Fig. 6, a method for calibrating a camera system with three cameras 5i, 52 and 5s, which can be three cameras of the device 1 or of the device 21, is explained below. The cameras each have a sensor array 6i, 62, 63, as already explained above in connection with the descriptions of devices 1 and 21. The sensor array 6i can also be a CCD array.
Zur Veranschaulichung von Lagebeziehungen wird nachfolgend im Zusammenhang mit der Figur 6 ein xyz-Koordinatensystem benutzt. Die x- Richtung verläuft in der Figur 6 nach rechts. Die y-Richtung verläuft senkrecht zur Zeichenebene der Figur 6 in diese hinein. Die z-Richtung verläuft in der Figur 6 nach oben. To illustrate spatial relationships, an xyz coordinate system is used below in connection with Figure 6. The x-direction in Figure 6 runs to the right. The y-direction runs perpendicular to the plane of Figure 6 and into it. The z-direction in Figure 6 runs upwards.
Die Kameras 5i bis 5s sind im Bereich einer gemeinsamen Kamera- Anordnungsebene, nämlich der xy-Ebene der Figur 6, längs einer Kamera- Anordnungs-Koordinate x nebeneinander angeordnet. The cameras 5i to 5s are arranged side by side in the area of a common camera arrangement plane, namely the xy-plane of figure 6, along a camera arrangement coordinate x.
Die Kameras 5i sind als Kameras mit einem objektseitigen Öffnung s winkel von höchstens 30° ausgeführt. Randseitige Begrenzungen 351, 352, 35s dieser Öffnung s winkel der jeweiligen Kameras 5i, 52 und 5s sind in der Figur 6 eingezeichnet. The cameras 5i are designed as cameras with an object-side opening angle s of at most 30°. Edge-side limits 351, 352, 35s of this opening angle s of the respective cameras 5i, 52 and 5s are shown in Figure 6.
Die Kameras 5i sind insbesondere als Teleobjektiv-Kameras ausgeführt mit einer Brennweite im Bereich von 10 mm. The 5i cameras are specifically designed as telephoto lens cameras with a focal length in the range of 10 mm.
Zur Durchführung der Kalibrierung der Kameras 5i bis 5s werden drei Kalibrier-Markierungen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes PA, PB und Pc ausgewählt. Diese Kalibrier-Markierungspunkte PA, PB und Pc sind in verschiedenen Abständen dA, dß und dc zur Kamera- Anordnungsebene xy angeordnet. Bei den Kalibrier-Markierungspunkten PA, PB und Pc kann es sich um natürliche, tiefengestaffelte Markierungspunkte einer Szenerie oder auch um künstlich bereitgestellte, tiefenge staffelte Markierungspunkte handeln. To calibrate cameras 5i to 5s, three calibration markers are selected to define calibration marker points PA, PB, and Pc, respectively. These calibration marker points PA, PB, and Pc are positioned at different distances dA, dß, and dc from the camera's xy plane. The calibration marker points PA, PB, and Pc can be natural, depth-staggered marker points. a scene or artificially provided, staggered marker points in depth.
Die Kalibrier-Markierungspunkte PA, PB und Pc liegen innerhalb aller drei Öffnung s winkel, also innerhalb der jeweiligen Öffnung swinkel-Begren- zungen 351, 352 und 35s der Kameras 5i, 52 und 5s. The calibration marker points PA, PB and Pc lie within all three opening angles, i.e. within the respective opening angle limits 351, 352 and 35s of the cameras 5i, 52 and 5s.
Hinsichtlich insbesondere des Verhältnisses der Abstände dA, dß, dc zu den sonstigen in der Figur 6 eingezeichneten Längenparametem ist die Figur 6 nicht maßstäblich. Die Abstände dA, dß und dc sind in der Figur 6 übertrieben klein wiedergegeben. With regard to the relationship of the distances dA, dß, dc to the other length parameters shown in Figure 6, Figure 6 is not to scale. The distances dA, dß, and dc are depicted as excessively small in Figure 6.
Die Kalibrier-Markierungspunkte PA, PB und Pc sind alle auf Höhe der gleichen x- und auch auf Höhe der gleichen y- Koordinate angeordnet. Hinsichtlich einer Übereinstimmung der x- und der y-Koordinaten der Kalibrier-Markierungspunkte PA, PB und Pc erfordert das Kalibrierverfahren keine spezifische Genauigkeit. Von Bedeutung ist die Tiefenstaffelung. The calibration marker points PA, PB, and Pc are all positioned at the same x- and y-coordinates. The calibration procedure does not require a specific degree of accuracy regarding the alignment of the x- and y-coordinates of these marker points. The depth of alignment is what matters.
Beispielsweise kann für die Abstände dA, dß und dc gelten: dA= 50 m, dß = 100 m, dc= 200 m. For example, the distances dA, dß and dc can be: dA= 50 m, dß = 100 m, dc= 200 m.
Diese Entfemungs-Tiefenstaffelung entspricht einer typischen Straßenszene vor einem Fahrzeug, welches das zu kalibrierende Kamerasystem trägt. x- Abstände der Kameras zueinander können beispielsweise bei 2 m liegen (b = 2 m). Eine Brennweite der jeweiligen Kamera 5 i kann im Bereich von 10 mm liegen. Bei einer typischen Kamera-Pixelgröße, die einem Kamera- Pixelabstand entspricht, im Bereich zwischen 3 pm und 10 pm ergibt sich eine Disparität von beispielsweise 2 mm, was beispielsweise einer Entfernung entspricht, die 200 Pixel der jeweiligen Kamera 5iüberstreicht. Die relative Disparität beträgt dann 200 Pixel. Bei der Entfernung dß von 100 m ergibt sich entsprechend eine relative Disparität von 100 Pixel und bei der Entfernung dc = 200 m ergibt sich eine relative Disparität von 50 Pixel. This distance depth layering corresponds to a typical street scene in front of a vehicle carrying the camera system to be calibrated. The x-distances between the cameras can be, for example, 2 m (b = 2 m). The focal length of each camera 5i can be in the range of 10 mm. With a typical camera pixel size, corresponding to a camera pixel pitch in the range of 3 pm to 10 pm, the following results: A disparity of, for example, 2 mm, which corresponds to a distance that spans 200 pixels of the respective camera 5i. The relative disparity is then 200 pixels. At a distance dß of 100 m, the relative disparity is 100 pixels, and at a distance dc = 200 m, the relative disparity is 50 pixels.
Die Abstände dA, dß und dc unterscheiden sich jeweils voneinander um mindestens 20 %. Beim nach Figur 6 dargestellten Ausführungsbeispiel ist dieser Unterschied der Abstände zueinander sogar mindestens 50 %. The distances dA, dß, and dc each differ from each other by at least 20%. In the embodiment shown in Figure 6, this difference between the distances is even at least 50%.
Je nach Ausführung des Kalibrierung s verfahrens können auch mehr als drei Kalibrier-Markierungspunkte Pi vorgegeben werden, z. B. vier, fünf, sechs, acht, zehn oder auch nur mehr Kalibrier-Markierungspunkte. Hierüber kann die Genauigkeit der Kalibrierung verbessert werden. Depending on the specific calibration procedure, more than three calibration marker points (Pi) can be specified, e.g., four, five, six, eight, ten, or even more. This can improve the accuracy of the calibration.
Eine jeweilige Brennweite f der Kamera 5i ist in der Figur 6 im Vergleich zu den Abständen d zu den Markierungspunkten P veranschaulicht. Bei der Ausführung nach Figur 6 haben die Kameras 5i, 52 und 5s jeweils die gleiche Brennweite f. Je nach Ausführung des Kamerasystems können sich die Brennweiten der Kameras 5i auch voneinander unterscheiden. The focal length f of each camera 5i is illustrated in Figure 6 in comparison to the distances d to the marker points P. In the embodiment shown in Figure 6, cameras 5i, 52, and 5s each have the same focal length f. Depending on the design of the camera system, the focal lengths of cameras 5i can also differ from one another.
Bei der Anordnung nach Figur 6 gilt, dass die Abstände d jeweils mehr als das Vierfache der Brennweite f betragen. Auch andere Verhältnisse zwischen den Brennweiten f der Kameras 5i und den Abständen d sind möglich. In the arrangement shown in Figure 6, the distances d are each more than four times the focal length f. Other ratios between the focal lengths f of the cameras 5i and the distances d are also possible.
Eintrittspupillen der Kameras 5i, die in der Figur 6 bei Oi, O2 und O3 veranschaulicht sind, haben Baseline-Längen entsprechend der x-Abstände dieser Eintrittspupillen Oi zueinander. Eine x-Koordinate der jeweiligen Kamera- Eintrittspupille Oi ist in der Figur 6, den jeweiligen Kameras 5i zugeordnet, mit xi , X2 und X3 bezeichnet. The entrance pupils of cameras 5i, illustrated in Figure 6 at Oi, O2, and O3, have baseline lengths corresponding to the x-distances of these entrance pupils Oi to each other. An x-coordinate of the respective The camera entrance pupil Oi is assigned to the respective cameras 5i in Figure 6, labelled xi , X2 and X3.
Mit den Kameras 5i werden im Rahmen des Kalibrierverfahrens die Kalibrier-Markierungspunkte PA, PB und Pc abgebildet und in einer Kamera- Bildebene der jeweiligen Kamera 5i, also in der xy-Ebene, erfasst. Dies ist in der Figur 6 bei der Kamera 5s durch eine schematische Abbildungskonstruktion veranschaulicht, bei der die Bilder P'A, 3, P'B, 3 und P'c, 3, also die Kalibrier-Markierungs-Bildpunkte, auf den Sensor-Arrays 6i als Schnittpunkte zwischen Strahlen, die von den Eintrittspupillen Oi zu den jeweiligen Kalibrier-Markierungspunkten PA, PB, PC verlaufen, veranschaulicht sind. During the calibration procedure, the cameras 5i image the calibration marker points PA, PB, and Pc and capture them in a camera image plane of the respective camera 5i, i.e., in the xy-plane. This is illustrated in Figure 6 for camera 5s by a schematic image construction, in which the images P'A, 3, P'B, 3, and P'c, 3, i.e., the calibration marker image points, are shown on the sensor arrays 6i as intersection points between rays that extend from the entrance pupils Oi to the respective calibration marker points PA, PB, and PC.
Die Differenzen Xi - Xk zwischen den jeweiligen x-Koordinaten der Eintrittspupillen der Kamera 5i, 5j sind die Baselines entsprechend der Stereokameras, zu denen diese beiden Kameras 5i, 5j gehören. Diese Differenz Xi - xk wird auch als bienik bezeichnet. The differences Xi - Xk between the respective x-coordinates of the entrance pupils of cameras 5i and 5j are the baselines corresponding to the stereo cameras to which these two cameras 5i and 5j belong. This difference Xi - xk is also referred to as bienik.
Ein und derselbe Kalibrier-Markierungspunkt, z. B. der Markierungspunkt PA, wird abhängig vom Abstand dA, abhängig von der Brennweite f und abhängig von der Relation der x-Koordinaten dieses Markierungspunktes PA und der Eintrittspupille der Kamera 5i im Vergleich zu dieser x-Koordinate Xi um eine Disparitätsverschiebung UA,; verschoben abgebildet. Diese Disparitätsverschiebungen für die Markierungspunkte PA, PB und Pc sind beispielhaft für die Kamera 53 in der Figur 6 bei UA,3, UB, 3 und uc, 3 hervorgehoben. One and the same calibration marker point, e.g., marker point PA, is depicted shifted by a disparity shift UA, depending on the distance dA, the focal length f, and the relationship between the x-coordinates of this marker point PA and the entrance pupil of camera 5i compared to this x-coordinate Xi. These disparity shifts for marker points PA, PB, and Pc are highlighted as examples for camera 53 in Figure 6 at UA,3, UB,3, and uc,3.
Eine Differenz zwischen den Disparitätsverschiebungen bei der Abbildung jeweils eines der Markierungspunkte durch zwei Kameras 5i und 5k eines Kamerapaars wird also, hier beispielhaft für den Markierungspunkt PA, als Disparitätsdifferenz duA, ik = UA, i - UA, k = A gemessen. Entsprechende Disparitäten B und C ergeben sich bei der Abbildung der Markierungspunkte PB, PC mit der jeweiligen Kamera 5i, 52, 5s. Diese Disparitätsdifferenzen werden auch einfach als Disparitäten bezeichnet. A difference between the disparity shifts in the mapping of each of the marker points by two cameras 5i and 5k of a The disparity difference between the camera pair is thus measured, using marker point PA as an example, as duA, ik = UA, i - UA, k = A. Corresponding disparities B and C result when imaging marker points PB, PC with the respective cameras 5i, 52, 5s. These disparity differences are also simply referred to as disparities.
Bei der Durchführung des Kalibrierungsverfahrens wird für jede Paarung i und k von zwei der Kameras, 5i, 5k, die Disparitätsdifferenz duA,ik (= UA,i - UA,k), duB.ii,- und duc.ii, der Abbildung des jeweiligen Kalibrier-Markierungs- Bildpunktes in der Kamera-Bildebene xy gemessen. Es ergeben sich insgesamt neun gemessene Disparitäten du für die drei Markierungspunkte PA, PB, Pc und die drei möglichen Kamera-Paarungen 5ik, nämlich 512, 5 und 523. During the calibration procedure, for each pairing i and k of two cameras, 5i, 5k, the disparity difference duA,ik (= UA,i - UA,k), duB.ii,- and duc.ii, of the image of the respective calibration marker point in the camera image plane xy, is measured. A total of nine measured disparities du result for the three marker points PA, PB, Pc and the three possible camera pairings 5ik, namely 512, 5 and 523.
Da die Kamera 52 bei exakt der gleichen x-Koordinate X2 angeordnet ist wie die drei Kalibrier-Markierungspunkte PA, PB, PC, ergibt sich bei der Abbildung dieser Kalibrier-Markierungspunkte PA, PB, PC durch die Kamera 52, dass dort keine x-Abstände der Kalibrier-Markierungs-Bildpunkte von dieser x-Koordinate X2 vorliegen, so dass die Kamera 52 definitionsgemäß Disparitätsverschiebungswerte UA, 2, UB, 2 und uc, 2 = 0 aufweist. Since the camera 52 is positioned at exactly the same x-coordinate X2 as the three calibration marker points PA, PB, PC, when imaging these calibration marker points PA, PB, PC by the camera 52, there are no x-distances of the calibration marker image points from this x-coordinate X2, so that by definition the camera 52 has disparity shift values UA, 2, UB, 2 and uc, 2 = 0.
Aus der Stereo-Abbildungsformel ergibt sich: d = fblen/du (I) The stereo imaging formula yields: d = fblen/du (I)
Aufgelöst nach der Disparität du ergibt dies beispielsweise für den Kalibrier-Markierungspunkt PA und die Kameras 5i und 5k: dUA,ik = UA,i - UA,k = f (Xi - Xk)/dA (II) Die drei Kameras 51, 52 und 5s liegen nicht perfekt in der Kamera- Anordnungsebene xy, sondern es gibt Abweichungen hiervon, aufgrund derer die Kalibrierung vorgenommen wird. Diese Abweichungen können analog zur Beschreibung einer Schiffsbewegung, durch einen Nickwinkel, einen Rollwinkel und einen Gierwinkel des Kamerasystems mit den Kameras 5i bis 63 im Vergleich zur Anordnungsebene xy bzw. durch ein entsprechendes Nicken, Rollen und Gieren jeder dieser Kameras 5i bis 5s einzeln beschrieben werden. Solving for the disparity du, this yields, for example, for the calibration marker point PA and the cameras 5i and 5k: dUA,ik = UA,i - UA,k = f (Xi - Xk)/dA (II) The three cameras 51, 52, and 5s are not perfectly aligned with the camera arrangement plane xy; there are deviations from this plane, which is why calibration is performed. These deviations can be described analogously to the description of a ship's movement by the pitch angle, roll angle, and yaw angle of the camera system with cameras 5i to 63 compared to the arrangement plane xy, or by the corresponding pitch, roll, and yaw of each of these cameras 5i to 5s individually.
Ein entsprechender Lagefehler kann in der Stereo-Abbildungsbeschreibung der obigen Gleichungen durch Aufnahme eines auf die Brennweite normierten Kippfehlers 5ui - 5uk, also einer relativen Verkippung zwischen Kameras 5i, 5k jeweils eines der Kamerapaare berücksichtigt werden. Aus obiger Gleichung (II) ergibt sich dann, wiederum beispielhaft für den Kalibrier-Markierungspunkt PA und die Kameras 5i und 5k: A corresponding positional error can be accounted for in the stereo imaging description of the equations above by including a tilting error 5ui - 5uk normalized to the focal length, i.e., a relative tilt between cameras 5i and 5k, each of the camera pairs. From equation (II) above, the following results, again using the calibration marker PA and cameras 5i and 5k as examples:
(UA,i - UA,k)/f = (Xi - Xk)/dA - (5ui - 5uk) (III) (UA,i - UA,k)/f = (Xi - Xk)/dA - (5ui - 5uk) (III)
Die linke Seite von obiger Gleichung (III) ist, was die Disparität angeht, durch Messung und was die Kamera-Brennweite angeht, durch Vorab-Ka- librierung bekannt. The left side of the above equation (III) is known, with respect to the disparity, by measurement and, with respect to the camera focal length, by pre-calibration.
Es ergeben sich für die drei Kalibrier-Markierungspunkte PA, PB und Pc und die insgesamt drei möglichen Kamera-Paarungen 512, 513 und 523 insgesamt neun Gleichungen des obigen Typs (III) mit neun Unbekannten, nämlich die jeweiligen x-Koordinaten xi, X2, X3 der Eintrittspupillen Oi, O2 und O3 der drei Kameras 5i, 52, 53, die jeweiligen Rotationsfehler 5ui, 5u2 und Sus und die z- Abstände dA, dß, dc der Kalibrier-Markierungspunkte PA, PB und Pc. For the three calibration marker points PA, PB and Pc and the three possible camera pairings 512, 513 and 523, a total of nine equations of the above type (III) with nine unknowns result, namely the respective x-coordinates xi, X2, X3 of the entrance pupils Oi, O2 and O3 of the three cameras 5i, 52, 53, and the respective rotational errors 5ui, 5u2. and Sus and the z-distances dA, dß, dc of the calibration marker points PA, PB and Pc.
Nach erfolgter Messung der Disparitäten ist es also anhand der zusätzlich bekannten Kamera-Brennweiten f möglich, diese x-Koordinaten, die Rotationsfehler und die Ab stände der Kalibrier-Markierungspunkte zu bestimmen. After measuring the disparities, it is therefore possible to determine these x-coordinates, the rotation errors and the distances of the calibration marker points using the additionally known camera focal lengths f.
Im Rahmen des Betriebs der Vorrichtung 1 beziehungsweise 21 können nach erfolgter Kalibrierung der Kameras ausgewählte Objekte 2 beziehungsweise 22 bis 24 nachverfolgt beziehungsweise getrackt werden. Sobald eines der Objekte 2 beziehungsweise 22 bis 24 im Rahmen der trian- gulatorischen Entfemungserfassung und/oder im Rahmen der TOF- Entfemungserfassung erfasst wurde, können insbesondere die TOF- Bilderfassungsparameter, aber auch die triangulatorischen Bilderfassungsparameter (zum Beispiel die Länge der Baseline einer jeweils ausgewählten Stereokamera, eine Objektivbrennweite der Kameras der jeweiligen Stereokamera oder ein zu überwachender Disparitätsbereich) so vorgegeben werden, dass das einmal erfasste Objekt auch bei nachfolgenden Bilderfassungen wiederum erfasst wird. Hierbei kann eine Relativbewegung des jeweils erfassten Objekts zur Vorrichtung 1 beziehungsweise 21 berücksichtigt werden, sodass beispielsweise dann, wenn zu erwarten ist, dass sich Objekt und Vorrichtung einander annähem, beim Nachverfolgen die Entfernung des jeweils ausgewählten Entfemungsbereichs 22i bei der TOF-Erfassung jeweils reduziert wird. Eine Lichtintensität der Blitzlichtquelle kann auf einen Entfemungsbereich des jeweils nachzuverfolgenden Objekts abgestimmt und insbesondere geregelt werden. Je nach dem Betriebs verfahren der Vorrichtung 1, 21 kann genau ein Objekt nachverfolgt werden oder es können auch mehrere Objekte gleichzeitig nachverfolgt werden. During operation of device 1 or 21, selected objects 2 or 22 to 24 can be tracked after the cameras have been calibrated. Once one of the objects 2 or 22 to 24 has been detected using triangulatory distance detection and/or time-of-flight (TOF) distance detection, the TOF image acquisition parameters, in particular, but also the triangulatory image acquisition parameters (for example, the baseline length of a selected stereo camera, the focal length of the lenses of the respective stereo camera, or a disparity range to be monitored), can be preset so that the object, once detected, is also detected in subsequent image acquisitions. Relative movement of the detected object to device 1 or 21 can be taken into account, so that, for example, if it is expected that the object and device will approach each other, the distance of the selected distance range 22i is reduced during TOF detection. The light intensity of the flash source can be adjusted and, in particular, regulated according to the distance range of the object being tracked. Depending on the operating procedure of the device 1, 21, exactly one object can be tracked or several objects can be tracked simultaneously.
Soweit mindestens ein Objekt getrackt wird, kann intermittierend eine Tracking-Erfassung des mindestens einen getackten Objekts und ein Scan über den Gesamt-Entfemungsbereich 25 erfolgen, was die Erfassungssicherheit insgesamt bei vertretbarem Erfassungsaufwand erhöht. Provided that at least one object is tracked, intermittent tracking of the at least one tracked object and a scan over the entire distance range 25 can be performed, which increases the overall recording reliability with reasonable recording effort.
Die Bilderfassungsparameter können bei der TOF-Erfassung mehrerer Ent- femungsbereiche 22i, 22i+i so abgestimmt werden, dass eine Detektion über die jeweilige Kamera während genau eines Detektionszeitraums (gleicher Detektionsbeginn, gleiche Detektionsdauer) für diese Entfemungsbereiche 22i, 22i+i erfolgt. Im Extremfall kann dies für alle Entfernungsbereiche 22i innerhalb des Gesamt-Entfemungsbereichs 25 gelten. The image acquisition parameters for TOF acquisition of multiple distance ranges 22i, 22i+i can be adjusted so that detection via the respective camera occurs for exactly one detection period (same detection start time, same detection duration) for these distance ranges 22i, 22i+i. In extreme cases, this can apply to all distance ranges 22i within the total distance range 25.
Beim Nachverfolgen von Objekten kann insbesondere die Erstreckung des jeweiligen Entfemungsbereichs 22i, in dem das Objekt erwartet wird, über eine entsprechende Anpassung einer Blitzbeleuchtungsdauer erfolgen. Zur genaueren Nachverfolgung von Objekten können kürzere Blitzbeleuch- tungsdauem sowie kürzere Detektionsdauem mit entsprechender Erhöhung der Entfemungsgenauigkeit bei der TOF-Entfemungsbestimmung vorgegeben werden. When tracking objects, the extent of the respective distance range 22i, in which the object is expected, can be adjusted by appropriately modifying the flash illumination duration. For more precise object tracking, shorter flash illumination durations and shorter detection durations can be specified, with a corresponding increase in distance accuracy during time-of-flight (TOF) distance determination.
Die Vorrichtung 1 kann ein neuronales Netz beziehungsweise ein Kl- Modul beinhalten, welches zum Training des jeweiligen Betriebs verfahrens und zur entsprechenden Verbesserung einer Bilderkeimung genutzt werden kann. Device 1 can include a neural network or an AI module, which can be used to train the respective operating procedure and to improve image germination accordingly. ...
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024206379.7 | 2024-07-05 | ||
| DE102024206379.7A DE102024206379B3 (en) | 2024-07-05 | 2024-07-05 | Procedure for calibrating a camera system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2026008709A1 true WO2026008709A1 (en) | 2026-01-08 |
Family
ID=96429535
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2025/068850 Pending WO2026008709A1 (en) | 2024-07-05 | 2025-07-02 | Method for calibrating a camera system |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102024206379B3 (en) |
| WO (1) | WO2026008709A1 (en) |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| DE102011080702B3 (en) | 2011-08-09 | 2012-12-13 | 3Vi Gmbh | Object detection device for a vehicle, vehicle having such an object detection device |
| US20150296200A1 (en) | 2012-07-09 | 2015-10-15 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20190056498A1 (en) | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| DE102018213976A1 (en) | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| US20190158813A1 (en) | 2016-06-10 | 2019-05-23 | Lucid VR, Inc. | Real Time Re-Calibration of Stereo Cameras |
| US20200160548A1 (en) * | 2018-11-16 | 2020-05-21 | Electronics And Telecommunications Research Institute | Method for determining disparity of images captured multi-baseline stereo camera and apparatus for the same |
| WO2022069425A2 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| WO2022069424A1 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| US20220174255A1 (en) | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
-
2024
- 2024-07-05 DE DE102024206379.7A patent/DE102024206379B3/en active Active
-
2025
- 2025-07-02 WO PCT/EP2025/068850 patent/WO2026008709A1/en active Pending
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9451237B2 (en) | 2011-01-12 | 2016-09-20 | Myestro Interactive Gmbh | Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera |
| WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| DE102011080702B3 (en) | 2011-08-09 | 2012-12-13 | 3Vi Gmbh | Object detection device for a vehicle, vehicle having such an object detection device |
| WO2013020872A1 (en) | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
| US20150296200A1 (en) | 2012-07-09 | 2015-10-15 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20190056498A1 (en) | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| US20190158813A1 (en) | 2016-06-10 | 2019-05-23 | Lucid VR, Inc. | Real Time Re-Calibration of Stereo Cameras |
| DE102018213976A1 (en) | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| US20200160548A1 (en) * | 2018-11-16 | 2020-05-21 | Electronics And Telecommunications Research Institute | Method for determining disparity of images captured multi-baseline stereo camera and apparatus for the same |
| WO2022069425A2 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| WO2022069424A1 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| US20220174255A1 (en) | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
Non-Patent Citations (2)
| Title |
|---|
| MARUGAME A ET AL: "FOCUSED OBJECT EXTRACTION WITH MULTIPLE CAMERAS", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE, USA, vol. 10, no. 4, June 2000 (2000-06-01), pages 530 - 540, XP000936464, ISSN: 1051-8215, DOI: 10.1109/76.844998 * |
| VON T. SWEDISH ET AL.: "Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH, pages 1 - 8 |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102024206379B3 (en) | 2025-10-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
| DE102012112321B4 (en) | Device for optically scanning and measuring an environment | |
| EP3195256B1 (en) | Method and apparatus for identifying structural elements of a projected structural pattern in camera images | |
| EP3298345B1 (en) | Camera and method for the three-dimensional measurement and colour measurement of a dental object | |
| DE102016217628B4 (en) | A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system | |
| EP3467432A1 (en) | Method for operating a device for detecting the three-dimensional geometry of objects | |
| DE202012104890U1 (en) | Device for optically scanning and measuring an environment | |
| EP2527784A1 (en) | Optical measurement method and system for determining 3D coordinates of a measured object surface | |
| EP2858358B1 (en) | Display device and calibration method for the same | |
| CH692873A5 (en) | Device and method for the geometric calibration of CCD cameras. | |
| WO2021233603A1 (en) | Method for measuring the distance between an object and an optical sensor, controller for carrying out such a method, distance measuring device comprising such a controller, and motor vehicle comprising such a distance measuring device | |
| WO2019114889A1 (en) | 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules | |
| DE102013010010B4 (en) | Method for operating a driver assistance system for maneuvering and/or parking | |
| DE102020007613A1 (en) | Method for generating a three-dimensional depth information map of an environment | |
| WO2023041706A1 (en) | Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source | |
| DE102020117060B4 (en) | Device and method for detecting the surroundings of a vehicle | |
| WO2024251542A1 (en) | Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same | |
| DE102016103736A1 (en) | Method for determining an altitude of an object | |
| DE102015106836A1 (en) | Method for controlling a 3D measuring device by means of instantaneous movement and device for this purpose | |
| EP3989860A1 (en) | Camera system | |
| DE102024206379B3 (en) | Procedure for calibrating a camera system | |
| DE102011017707A1 (en) | Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns | |
| DE102016109131B4 (en) | Method for the three-dimensional detection of an object | |
| EP4569371A1 (en) | Device and method for measuring three-dimensional virtual images and objects on a head-up display | |
| CH697319B1 (en) | Method and apparatus for geometric calibration of optoelectronic measuring cameras. |