DE102024206379B3 - Procedure for calibrating a camera system - Google Patents
Procedure for calibrating a camera systemInfo
- Publication number
- DE102024206379B3 DE102024206379B3 DE102024206379.7A DE102024206379A DE102024206379B3 DE 102024206379 B3 DE102024206379 B3 DE 102024206379B3 DE 102024206379 A DE102024206379 A DE 102024206379A DE 102024206379 B3 DE102024206379 B3 DE 102024206379B3
- Authority
- DE
- Germany
- Prior art keywords
- camera
- cameras
- distance
- flash
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras (51, 52, 53) mit bekannten Brennweiten (f), die im Bereich einer gemeinsamen Kamera-Anordnungsebene (xy) längs einer Kamera-Anordnungs-Koordinate (x) nebeneinander angeordnet sind und deren objektseitiger Öffnungswinkel jeweils höchstens 45° beträgt, werden zunächst mindestens drei Kalibrier-Markierungen ausgewählt. Die Kalibrier-Markierungen dienen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes (PA, PB, PC), wobei die Kalibrier-Markierungspunkte (PA, PB, PC) in verschiedenen Abständen (dA, dB, dC) zur Kamera-Anordnungsebene (xy) angeordnet sind. Die Kalibrier-Markierungspunkte (PA, PB, PC) werden mit den Kameras (51, 52, 53) zur Erfassung von Kalibrierungs-Markierungs-Bildpunkten (PA', PB', PC') in eine Kamera-Bildebene der jeweiligen Kamera (51, 52, 53) abgebildet. Für jede Paarung von zweien der Kameras (51, 52, 53) wird eine Disparität der Abbildung des jeweiligen Kalibrierungs-Markierungs-Bildpunktes (PA', PB', PC') in der jeweiligen Kamera-Bildebene gemessen. Aus den jeweils mindestens neun gemessenen Disparitäten und den Kamera-Brennweiten (f) werden Abstände (xi - xk) zwischen jeweils den Kameras (5i, 5k) eines Kamerapaars längs der Kamera-Anordnungs-Koordinate (x) sowie Lagefehler jedes Kamerapaars (5i, 5k) bestimmt, die aufgrund von Anordnungsabweichungen der Kameras (51, 52, 53) relativ zur Kamera-Anordnungsebene (xy) herrühren. Es resultiert ein Kalibrierverfahren, mit dem ein präziser und sicherer Betrieb des Kamerasystems gewährleistet ist. To calibrate a camera system with at least three cameras (5 1 , 5 2 , 5 3 ) with known focal lengths (f), which are arranged next to one another in the area of a common camera arrangement plane (xy) along a camera arrangement coordinate (x) and whose object-side aperture angle is each at most 45°, at least three calibration markings are first selected. The calibration markings serve to specify a calibration marking point (P A , P B , P C ), wherein the calibration marking points (P A , P B , P C ) are arranged at different distances (d A , d B , d C ) from the camera arrangement plane (xy). The calibration marking points (P A , P B , P C ) are imaged into a camera image plane of the respective camera (5 1 , 5 2 , 5 3 ) using the cameras (5 1 , 5 2 , 5 3 ) to capture calibration marking image points (P A ' , P B ' , P C '). For each pairing of two of the cameras (5 1 , 5 2 , 5 3 ), a disparity of the image of the respective calibration marking image point (P A ', P B ', P C ') in the respective camera image plane is measured. From the at least nine measured disparities and the camera focal lengths (f), distances (x i - x k ) between the cameras (5 i , 5 k ) of a camera pair along the camera arrangement coordinate (x) are determined, as well as position errors of each camera pair (5 i , 5 k ) resulting from arrangement deviations of the cameras (5 1 , 5 2 , 5 3 ) relative to the camera arrangement plane (xy). This results in a calibration procedure that ensures precise and reliable operation of the camera system.
Description
Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems mit mindestens drei Kameras mit bekannten Brennweiten. Ferner betrifft die Erfindung ein Kamerasystem, kalibriert nach einem derartigen Verfahren, und Verfahren zum Betrieb eines derartigen Kamerasystems.The invention relates to a method for calibrating a camera system comprising at least three cameras with known focal lengths. Furthermore, the invention relates to a camera system calibrated according to such a method and to a method for operating such a camera system.
Kamerasysteme sind bekannt aus der
Es ist eine Aufgabe der vorliegenden Erfindung, einen präzisen und sicheren Betrieb eines Kamerasystems mit mehreren Kameras, die insbesondere Bestandteile von Stereokameras zur triangulatorischen Objekt-Abstandsbestimmung innerhalb einer bilderfassenden Umgebung darstellen können, zu gewährleisten.It is an object of the present invention to ensure precise and reliable operation of a camera system with multiple cameras, which can in particular represent components of stereo cameras for triangulatory object distance determination within an image-capturing environment.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Kalibrierverfahren mit den im Anspruch 1 angegebenen Merkmalen.This object is achieved according to the invention by a calibration method having the features specified in claim 1.
Erfindungsgemäß wurde erkannt, dass mit Hilfe eines derartigen Kalibrierverfahrens auch Kameras mit vergleichsweise kleinem objektseitigem Öffnungswinkel sicher und präzise kalibriert werden können, so dass diese Kameras nach durchgeführter Kalibrierung dann im Kamerasystem beispielsweise als Bestandteile von Stereokameras zum Einsatz kommen können. Bei dem Kalibrierverfahren wird ausgenutzt, dass die nebeneinander längs der Kamera-Anordnungs-Koordinate angeordneten, zu kalibrierenden Kameras des Kamerasystems die ausgewählten Kalibrier-Markierungspunkte mit definiert unterschiedlichen Disparitäten sehen, so dass auch kleine Lage- bzw. Disparitätsfehler bestimmt werden können.According to the invention, it was recognized that with the help of such a calibration method, even cameras with a comparatively small object-side aperture angle can be calibrated reliably and precisely. After calibration, these cameras can then be used in the camera system, for example, as components of stereo cameras. The calibration method takes advantage of the fact that the cameras of the camera system to be calibrated, which are arranged side by side along the camera arrangement coordinate, see the selected calibration marker points with defined, different disparities, so that even small position or disparity errors can be determined.
Bei den mindestens drei Kalibrier-Markierungen, die beim Kalibrierverfahren ausgewählt werden, kann es sich um natürliche Markierungspunkte, also insbesondere um natürliche Merkmale einer Szenerie, handeln. Alternativ oder zusätzlich können Markierungen im Rahmen des Kalibrierverfahrens auch bereitgestellt werden.The at least three calibration markers selected during the calibration process can be natural landmarks, particularly natural features of a scene. Alternatively or additionally, markers can also be provided as part of the calibration process.
Die Kalibrier-Markierungspunkte liegen tiefengestaffelt vor.The calibration marking points are staggered in depth.
Der objektseitige Öffnungswinkel der Kameras des Kamerasystems beträgt jeweils höchstens 45°. Je nach Ausführung des Kamerasystems kann der Öffnungswinkel der Kameras des Kamerasystems jeweils auch kleiner sein und kann beispielsweise höchstens 40°, höchstens 35° oder auch höchstens 30° betragen. Der maximale objektseitige Öffnungswinkel der Kameras des Kamerasystems kann auch noch kleiner sein. Regelmäßig ist dieser Öffnungswinkel größer als 5°.The maximum aperture angle of the cameras in the camera system toward the object is 45°. Depending on the camera system design, the aperture angle of the cameras in the camera system can also be smaller, for example, 40°, 35°, or 30°. The maximum aperture angle of the cameras in the camera system toward the object can also be even smaller. This aperture angle is usually greater than 5°.
Die beim Kalibrierverfahren abgebildeten Kalibrier-Markierungspunkte liegen alle in den Öffnungswinkeln aller zu kalibrierenden Kameras des Kamerasystems.The calibration marking points depicted during the calibration procedure are all located in the aperture angles of all cameras in the camera system to be calibrated.
Grundsätzlich kann das Kalibrierverfahren auch mit einem Kamerasystem mit mindestens einer Kamera zum Einsatz kommen, deren Öffnungswinkel größer ist als 45°. Insbesondere kann das Kalibrierverfahren auch bei einem Kamerasystem mit Fischaugenkameras bzw. Fischaugenobjektiven zum Einsatz kommen.In principle, the calibration procedure can also be used with a camera system with at least one camera with an aperture angle greater than 45°. In particular, the calibration procedure can also be used with a camera system with fisheye cameras or fisheye lenses.
Das zu kalibrierende Kamerasystem kann mehr als drei Kameras aufweisen, zum Beispiel vier Kameras, fünf Kameras oder auch noch mehr Kameras. Die Kameras des zu kalibrierenden Kamerasystems müssen nicht exakt in ein und derselben Ebene angeordnet sein. Ein Abstand einer jeweiligen Kamera von einer nächstliegenden gemeinsamen Kamera-Anordnungsebene ist im Regelfall deutlich kleiner als ein typischer Abstand zwischen zwei benachbarten Kameras des zu kalibrierenden Kamerasystems.The camera system to be calibrated can have more than three cameras, for example, four cameras, five cameras, or even more. The cameras of the camera system to be calibrated do not have to be arranged exactly in one and the same plane. The distance of a particular camera from the nearest common camera arrangement plane is usually significantly smaller than the typical distance between two adjacent cameras of the camera system to be calibrated.
Abstands-Relativunterschiede nach Anspruch 2 verbessern ein Kalibrierergebnis. Abstände der Kalibrier-Markierungspunkte können sich voneinander um mehr als 20 % unterscheiden, beispielsweise um mindestens 25 %, um mindestens 50 % oder auch um mindestens 100 %.Relative distance differences according to claim 2 improve a calibration result. Distances between the calibration marking points can differ from each other by more than 20%, for example by at least 25%, by at least 50%, or even by at least 100%.
Eine Vorgabe von mehr als drei Kalibrier-Messpunkten nach Anspruch 3 verbessert eine Präzision der Kalibrierung. Es ist alternativ oder zusätzlich möglich, pro ausgewählter bzw. bereitgestellter Kalibrier-Markierung mehr als einen Kalibrier-Markierungspunkt vorzugeben.Specifying more than three calibration measurement points according to claim 3 improves calibration precision. Alternatively or additionally, it is possible to specify more than one calibration marking point per selected or provided calibration marking.
Die Vorteile eines Kamerasystems nach Anspruch 4 entsprechen denen, die vorstehend unter Bezugnahme auf das Kalibrierverfahren bereits erläutert wurden. Ein derartiges Kamerasystem, ausgeführt zur räumlichen Bilderfassung, kann an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst sein. Die jeweilige Teleobjektiv-Kamera kann eine Brennweite im Bereich zwischen 6 mm und 100 mm, beispielsweise im Bereich zwischen 8 mm und 50 mm, aufweisen.The advantages of a camera system according to claim 4 correspond to those already explained above with reference to the calibration method. Such a camera system, designed for spatial image capture, can be well adapted to the practice, particularly for image capture to ensure assisted or autonomous driving. The respective telephoto lens camera can have a focal length in the range between 6 mm and 100 mm, for example, in the range between 8 mm and 50 mm.
Bei einem Pixelabstand der jeweiligen Kamera von 5 µm pro Pixel und einer Brennweite von 10 mm ergibt sich eine relative Brennweite (Brennweite/Pixelabstand) von 2000 Pixelabständen (kurz: 2000 Pixel). Der Pixelabstand kann auch kleiner sein und beispielsweise 3,45 µm betragen.With a pixel pitch of the respective camera of 5 µm per pixel and a focal length of 10 mm, the relative focal length (Focal length/pixel pitch) of 2000 pixel pitches (short: 2000 pixels). The pixel pitch can also be smaller, for example, 3.45 µm.
Bei einem Weitwinkel-Objektiv mit 2,1mm Brennweite und 3,45µm pro Pixel ergibt sich eine relative Brennweite von 609 Pixel (2,1/3,45 *1000). Je nach Ausführung des Kamerasystems können auch alle Kameras des Kamerasystems als entsprechende Teleobjektiv-Kameras ausgeführt sein.A wide-angle lens with a 2.1mm focal length and 3.45µm per pixel results in a relative focal length of 609 pixels (2.1/3.45 * 1000). Depending on the camera system, all cameras in the system can also be designed as telephoto lenses.
Bei Ausgestaltung der Kamerapaare als Stereokameras nach Anspruch 5 kommen die Vorteile der Kalibrierung besonders gut zum Tragen.When the camera pairs are designed as stereo cameras according to claim 5, the advantages of calibration are particularly effective.
Beim Kamerasystem nach Anspruch 6 ergänzen sich die Funktionen einerseits mindestens einer Stereokamera und andererseits einer Bilderfassung mittels eines Beleuchtungs-Laufzeitverfahrens vorteilhaft ergänzen. Sowohl die Stereokamera als auch die ein Laufzeitverfahren ermöglichenden Komponenten Blitzlichtquelle und Sensor-Array, über die Laufzeitverfahrens-Bilderfassungsparameter vorgegeben werden können, erlauben die Ermittlung eines Abstandes von Objekten innerhalb der Umgebung.In the camera system according to claim 6, the functions of at least one stereo camera and an image capture system using a time-of-flight illumination method advantageously complement each other. Both the stereo camera and the components enabling a time-of-flight illumination method, namely the flash source and the sensor array, allow the determination of the distance between objects within the environment.
Das Kamerasystem kann zur räumlichen Bilderfassung einer relativ zum Kamerasystem bewegten Umgebung dienen. Die mindestens eine Stereokamera kann zur triangulatorischen Objekt-Abstandsbestimmung innerhalb der erfassten Umgebung in Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung dienen. Dies kann zur Verbesserung einer Sicherheit der Umgebungserfassung insbesondere im Zusammenhang mit einem fahrerunterstützenden oder auch einem autonomen Fahren genutzt werden. Das Kamerasystem kann Bestandteil eines Fahrzeugs, beispielsweise eines PKW oder LKW, sein.The camera system can be used for spatial image capture of an environment moving relative to the camera system. The at least one stereo camera can be used for triangulatory object distance determination within the captured environment in the forward direction of a relative movement of the camera system to the environment. This can be used to improve the reliability of environmental detection, particularly in connection with driver-assisted or autonomous driving. The camera system can be part of a vehicle, for example, a car or truck.
Die Steuereinrichtung kann insbesondere einen Delay-Zeitraum zwischen dem Blitzbeleuchtungsbeginn der mindestens einen Blitzlichtquelle und dem Detektionsbeginn des jeweiligen Sensor-Arrays der Kameras der mindestens einen Stereokamera vorgeben. Der Abstand der Kameras der Stereokamera zueinander ergibt eine Länge einer Baseline, also eines Abstandes von Zentren von Eintrittspupillen der Kameras der mindestens einen Stereokamera. Mit dem Kamerasystem können Prinzipien einer TOF (Time of Flight)-Kamera mit einer triangulatorisch abstandsvermessenden Stereokamera verknüpft werden. Eine entsprechende TOF-Bilderfassung ist beschrieben beispielsweise in der
Zur triangulatorischen Objekt-Abstandsbestimmung sind die beiden Kameras der Stereokamera über eine Synchronisierungseinheit miteinander synchronisiert. Durch diese Synchronisation kann insbesondere eine exakt zeitgleiche Erfassung des jeweiligen Objekts über die Kameras der Stereokamera erreicht werden. Dies unterscheidet eine Stereokamera zur triangulatorischen Objekt-Abstandsbestimmung von einer stereoskopischen Kamera, über die ausschließlich ein Raumeindruck einer Bilderfassung erzeugt wird und die beispielsweise beschrieben ist in der
Die Synchronisation und insbesondere die zeitgleiche Objekterfassung bei der triangulatorischen Objekt-Abstandsbestimmung ermöglicht es, auch fremdbewegte Objekte in ihrer Entfernung präzise zu erfassen, da dann der Einfluss einer zusätzlichen Relativgeschwindigkeit aufgrund der Fremdbewegung des Objekts die Entfernungsbestimmung nicht beeinflusst.Synchronization and, in particular, simultaneous object detection in triangulatory object distance determination makes it possible to precisely detect the distance of even externally moving objects, since the influence of an additional relative speed due to the external movement of the object does not affect the distance determination.
Eine Brennweite f der jeweiligen Kamera einer Stereokamera, die Baseline b der Stereokamera sowie eine Disparität D, also ein Unterschied zwischen Bildkoordinaten von Abbildungspositionen des gleichen Punktes auf den Sensor-Arrays der Kameras der Stereokamera, werden so aufeinander abgestimmt, dass unter Einbeziehung der Beziehung
Zusätzlich kann das Kamerasystem so ausgelegt sein, dass ein entsprechender Objekt-Entfernungsbereich über die TOF-Bilderfassungsfunktionalität des Kamerasystems erfasst wird.In addition, the camera system can be designed so that a corresponding object distance range is captured via the TOF image capture functionality of the camera system.
Bei der Blitzlichtquelle kann es sich um eine gesteuerte Blitzlampe handeln oder auch um eine entsprechend zeitgesteuerte LED- oder Laser-Lichtquelle. Es können Blitzlichtquellen zum Einsatz kommen, die zum Einsatz beispielsweise bei LIDAR-Vorrichtungen bekannt sind.The flash light source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash light sources can be used. which are known for use in LIDAR devices, for example.
Eine Blitzbeleuchtungsdauer der Blitzlichtquelle kann im Bereich zwischen 10 ns und 200 ns, beispielsweise im Bereich von 100 ns, liegen.
Eine Detektionsdauer der Sensor-Arrays der mindestens einen Stereokamera ist regelmäßig so vorgegeben, dass sie doppelt so groß ist wie die Blitzbeleuchtungsdauer der Blitzlichtquelle. Die Detektionsdauer kann im Bereich zwischen 20 ns und 400 ns, beispielsweise im Bereich von 200 ns, liegen.A flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns.
The detection duration of the sensor arrays of at least one stereo camera is usually set to twice the flash illumination duration of the flash light source. The detection duration can be in the range between 20 ns and 400 ns, for example, in the range of 200 ns.
Sowohl die Blitzbeleuchtungsdauer als auch die Detektionsdauer können über die Steuereinrichtung einstellbar vorgebbar sein.Both the flash illumination duration and the detection duration can be set via the control device.
Die Synchronisierungseinheit kann Teil der Steuereinrichtung sein. Teil der Steuereinrichtung kann eine Speichereinheit insbesondere in Form eines Flash-Speichers sein. Die Synchronisationseinheit kann Bestandteil einer Synchronisationseinrichtung zur Synchronisation der Blitzlichtquelle und der Sensor-Arrays der Kameras der mindestens einen Stereokamera sein. Die Synchronisationseinrichtung kann wiederum Bestandteil der Steuereinrichtung des Kamerasystems sein.The synchronization unit can be part of the control device. A memory unit, particularly in the form of a flash memory, can be part of the control device. The synchronization unit can be part of a synchronization device for synchronizing the flash light source and the sensor arrays of the cameras of the at least one stereo camera. The synchronization device can, in turn, be part of the control device of the camera system.
Eine Synchronisation, die über die Synchronisationseinrichtung bereitgestellt werden kann, kann besser sein als 5 ns, kann besser sein als 2 ns, kann besser sein als 1 ns und kann auch noch besser sein.Synchronization that can be provided by the synchronization device can be better than 5 ns, can be better than 2 ns, can be better than 1 ns, and can be even better.
Die Kameras der Stereokamera können lateral zur Vorwärtsrichtung voneinander beabstandet sein. Je nach Erfassungswinkel der Kameras und je nach Anwendungszweck und Haupt-Erfassungsrichtung der Stereokamera sind auch andere Kamera-Anordnungen der Stereokamera möglich.The stereo camera's cameras can be spaced apart laterally relative to the forward direction. Depending on the cameras' detection angle, the application, and the stereo camera's primary detection direction, other camera arrangements are also possible.
Die Kameras der mindestens einen Stereokamera können eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 30m und 300 m aufweisen. Je nach Anwendungszweck können die Kameras der Stereokamera auch mit Optiken anderer Brennweiten ausgerüstet sein. Diese Kameraoptiken sind so ausgeführt, dass ein gesamter vorgegebener Entfernungsbereich insbesondere zwischen 3 m und 300 m abgedeckt wird. Grundsätzlich können auch noch kleinere Entfernungen abgedeckt werden.The cameras of at least one stereo camera can be equipped with a telephoto lens for capturing objects at distances between 30 m and 300 m. Depending on the application, the stereo camera cameras can also be equipped with lenses of other focal lengths. These camera lenses are designed to cover an entire specified distance range, particularly between 3 m and 300 m. In principle, even shorter distances can be covered.
Die Entfernungsbereiche der triangulatorischen Objekterfassung einerseits und der TOF-Entfernungserfassung andererseits sind aufeinander abgestimmt und können beispielsweise gleich sein. Auch eine Teilüberdeckung dieser Entfernungsbereiche ist möglich, sodass in einem Entfernungsbereich beide Entfernungsbestimmungsprinzipien „triangulatorisch“ und „TOF“ zur Verfügung stehen und in anderen Entfernungsbereichen eines dieser Prinzipien.The distance ranges of triangulatory object detection on the one hand and TOF distance detection on the other are coordinated and can, for example, be identical. Partial overlap of these distance ranges is also possible, so that both "triangulatory" and "TOF" distance determination principles are available in one distance range, and one of these principles is available in other distance ranges.
Mittels der Kameras der mindestens einen Stereokamera kann eine Korrespondenzanalyse zur Identifizierung von sich von einem Hintergrund unterscheidenden, in einem interessierenden Sichtbereich vorliegenden Objekten stattfinden. Methoden einer entsprechenden Korrespondenzanalyse sind bekannt aus der
Die mindestens eine Stereokamera kann mehr als zwei zueinander beabstandete Kameras aufweisen, was insbesondere einen Wechsel zwischen verschiedenen Baselines ermöglicht, was ebenfalls beispielsweise in der
Das Kamerasystem kann mindestens zwei Stereokameras mit relativ großer Baseline und mindestens eine weitere Stereokamera mit im Vergleich hierzu deutlich kleinerer Baseline aufweisen, wobei die kleinere Baseline höchstens 50 %, höchstens 25 % oder auch höchstens 10 % der größeren Baseline sein kann. Das Kamerasystem kann auch mehrere Stereokameras mit der kleinen Baseline aufweisen.The camera system can comprise at least two stereo cameras with a relatively large baseline and at least one further stereo camera with a significantly smaller baseline, whereby the smaller baseline can be at most 50%, at most 25%, or at most 10% of the larger baseline. The camera system can also comprise multiple stereo cameras with the smaller baseline.
Weitere Objektinformationen, insbesondere Objekt-Abstandsinformationen, können durch Auswertung eines Objekt-Schattenwurfs erfolgen, der von einem Objekt innerhalb der erfassten Umgebung als Schatten der Blitzbeleuchtung geworfen wird und von den beiden zueinander beabstandeten Kameras der mindestens einen Stereokamera unterschiedlich abgebildet wird. Insbesondere eine Höhe des Objektes kann ermittelt werden, weil ein Bild eines Objektschattens von der Höhenlage und der seitlichen Ablage des Objekts abhängig ist.Further object information, in particular object distance information, can be obtained by evaluating an object's shadow, which is cast by an object within the captured environment as a shadow of the flash illumination and is imaged differently by the two spaced-apart cameras of the at least one stereo camera. In particular, the height of the object can be determined because an image of an object's shadow depends on the object's elevation and lateral offset.
Mit dem Kamerasystem kann eine räumliche Bilderfassung der relativ zur zum Kamerasystem bewegten oder auch unbewegten Umgebung erreicht werden, die, beispielsweise beim Einsatz des Kamerasystems als Bestandteil eines Fahrzeugs, eine fahrerunterstützende Funktion oder auch die Funktion eines autonomen Fahrens ermöglicht.The camera system can be used to capture spatial images of the environment, whether moving or stationary relative to the camera system, which, for example, enables a driver-assisting function or even the function of autonomous driving when the camera system is used as part of a vehicle.
Die Blitzlichtquelle des Kamerasystems oder eine weitere Lichtquelle des Kamerasystems zur Umgebungsbeleuchtung kann einen Messlichtstrahl aufweisen, der über seinen Strahlquerschnitt texturiert beziehungsweise strukturiert ist. Eine derartige Texturierung/Strukturierung des Messlichtstrahls kann dadurch erfolgen, dass dieser als Vielzahl von einzelnen, die Umgebung in Form eines Rasters erfassenden Einzelstrahlen aufgebaut ist. Eine derartige Lichtquelle zur Erzeugung eines texturierten/strukturierten Messlichtstrahls kann als Laser ausgeführt sein. Beispiele für eine Detektionseinrichtung, die mittels eines solchen texturierten/strukturierten Messlichtstrahls arbeitet, finden sich in der
Mit dem Kamerasystem kann insbesondere bei der Nutzung zur räumlichen Bilderfassung eine Formredundanz und/oder eine Funktionsredundanz erreicht werden. Eine Formredundanz ist dann erreicht, wenn unterschiedliche Technologien zur Ermittlung ein und derselben Messgröße genutzt werden. Eine Funktionsredundanz liegt dann vor, wenn mehrere Vorrichtungen derselben Technologie zur Messung ein und derselben Messgröße verwendet werden. Diese Begriffe „Formredundanz“ und „Funktionsredundanz“ sind hauptsächlich im Bereich der Luftfahrt gebräuchlich. Dort wird eine Kombination aus Form- und Funktionsredundanz gefordert, damit Mehrfachauswirkungen eines Fehlers vermieden werden. Derartige Redundanzen können, je nach Applikation der Vorrichtung, gesetzlich vorgeschrieben sein.The camera system can achieve form redundancy and/or function redundancy, particularly when used for spatial image capture. Form redundancy is achieved when different technologies are used to determine one and the same measured variable. Functional redundancy exists when multiple devices of the same technology are used to measure one and the same measured variable. The terms "form redundancy" and "functional redundancy" are primarily used in the aviation sector. There, a combination of form and function redundancy is required to prevent the multiple effects of a fault. Such redundancies may be required by law, depending on the device's application.
Mindestens eine weitere Blitzlichtquelle und/oder mindestens eine weitere Stereokamera nach Anspruch 7 ermöglichen eine zusätzliche Funktionsredundanz des Kamerasystems. Bei Vorsehen mindestens einer weiteren Blitzlichtquelle kann beispielsweise nach Ausfall der zunächst eingesetzten Blitzlichtquelle auf die weitere Blitzlichtquelle umgeschaltet werden, sodass eine längere Betriebspause des Kamerasystems vermieden ist. Bei Einsatz mindestens einer weiteren Stereokamera kann, beispielsweise bei parallelem triangulatorischen Vermessen über zwei Stereokameras, eine weitere Redundanz bei der Objekt-Abstandsbestimmung erreicht werden.At least one additional flash source and/or at least one additional stereo camera according to claim 7 enable additional functional redundancy of the camera system. By providing at least one additional flash source, for example, if the initially used flash source fails, switching to the additional flash source is possible, thus avoiding a prolonged downtime of the camera system. By using at least one additional stereo camera, additional redundancy in object distance determination can be achieved, for example, during parallel triangulation measurements using two stereo cameras.
Die Kameras der weiteren Stereokamera können wiederum jeweils ein Sensor-Array mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass die weitere Stereokamera in ihrer Funktion grundsätzlich die ursprünglich eingesetzte Stereokamera ersetzen kann. Auch eine redundante TOF-Bestimmung von Objekt-Abständen ist über zwei entsprechende Stereokameras mit gesteuerter Vorgabe des Detektionsbeginns und der Detektionsdauer möglich, was eine zusätzliche Sicherheit bei der Objekt-Abstandsbestimmung liefert und beispielsweise Synchronisationsprobleme erkennen hilft.The cameras of the additional stereo camera can each have a sensor array with a controlled preset detection start and duration, so that the additional stereo camera can essentially replace the original stereo camera in its function. Redundant TOF determination of object distances is also possible using two corresponding stereo cameras with controlled preset detection start and duration, which provides additional reliability in object distance determination and helps detect synchronization problems, for example.
Bei Verwendung mehrerer Stereokameras ist zudem eine Zuordnung von Kameras verschiedener Stereokameras zu einer neuen „virtuellen“ Stereokamera mit entsprechend veränderter Baseline möglich, was eine weitere Redundanz beziehungsweise Sicherheit bei der Objekt-Abstandsbestimmung ermöglicht. Es kann beispielsweise dasjenige Kamerapaar zur Baseline-Vorgabe ausgewählt werden, welches sich in Bezug auf ein bestimmtes Umgebungs-Objekt für eine Triangulationsbestimmung als besonders günstig herausstellt.When using multiple stereo cameras, it is also possible to assign cameras from different stereo cameras to a new "virtual" stereo camera with a correspondingly modified baseline, which provides further redundancy and reliability in object distance determination. For example, the camera pair that proves to be particularly favorable for triangulation determination with respect to a specific surrounding object can be selected as the baseline.
Das Kamerasystem kann grundsätzlich auch mindestens eine Fischaugen-Stereokamera aufweisen. Eine derartige Fischaugen-Stereokamera kann mindestens zwei Fischaugen-Kameras aufweisen, wobei jede der Fischaugen-Kameras zur Erfassung der Umgebung sowohl in einer Haupterfassungsrichtung als auch längs hierzu in lateraler Richtung ausgerichtet ist, wobei Erfassungsbereiche der Fischaugen-Kameras in der Haupterfassungsrichtung in einem Überlapp-Bereich überlappen. Mindestens eine derartige Fischaugen-Stereokamera ermöglicht den Einsatz zusätzlicher Triangulations-Baselines, was zur Erfassung weiterer Umgebungs-Objekte und/oder zur Kontrolle von Objekt-Abstandsergebnissen der anderen Stereokameras und/oder zur Kalibrierung der anderen Stereokameras, insbesondere von mit Tele-Optik-Kameras ausgeführten Stereokameras, genutzt werden kann. Bei der Haupterfassungsrichtung kann es sich um die Vorwärtsrichtung einer Relativbewegung des Kamerasystems zur Umgebung handeln. Die Nutzung von Fischaugen-Kameras ist aus den oben genannten Referenzen sowie aus der
Das Kamerasystem kann mehrere Fischaugen-Stereokameras beinhalten, was eine zusätzliche Redundanz ermöglicht. Auch die Kameras der mindestens einen Fischaugen-Stereokamera können jeweils Sensor-Arrays mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass hierüber auch eine TOF-Bestimmung von Objekt-Abständen möglich ist. Grundsätzlich kann die mindestens eine Fischaugen-Stereokamera auch ohne TOF-Funktion ausgeführt sein. Soweit die Vorrichtung mehrere Fischaugen-Stereokameras aufweist, ist auch möglich, dass mindestens eine der Fischaugen-Stereokameras mit TOF-Funktion und mindestens eine weitere der Fischaugen-Stereokameras ohne TOF-Funktion ausgeführt ist.The camera system can include multiple fisheye stereo cameras, allowing for additional redundancy. The cameras of at least one fisheye stereo camera can also each contain sensor arrays with controlled presets. a detection start and a detection duration, so that a TOF determination of object distances is also possible. In principle, the at least one fisheye stereo camera can also be designed without a TOF function. If the device has multiple fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to be designed with a TOF function and at least one other fisheye stereo camera to be designed without a TOF function.
Grundsätzlich kann die Vorrichtung gemäß den obigen Ansprüchen so genutzt werden, dass hierüber mittels der TOF-Komponenten genau ein Entfernungsbereich erfasst wird, beispielsweise im Abstandsbereich zwischen 30 m und 300 m, insbesondere zwischen 100 m und 200 m, zur Vorrichtung.In principle, the device according to the above claims can be used in such a way that precisely one distance range is detected by means of the TOF components, for example in the distance range between 30 m and 300 m, in particular between 100 m and 200 m, from the device.
Die Vorteile eines Betriebsverfahrens nach Anspruch 9 entsprechen denen, die vorstehend unter Bezugnahme auf das Kamerasystem bereits erläutert wurden. Ein derartiges Betriebsverfahren ermöglicht einen Echtzeitbetrieb der Vorrichtung, sodass beispielsweise autonomes Fahren beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs möglich ist.The advantages of an operating method according to claim 9 correspond to those already explained above with reference to the camera system. Such an operating method enables real-time operation of the device, so that, for example, autonomous driving is possible when the device is used as part of a vehicle.
Bei dem Betriebsverfahren kann ein abgedeckter Gesamt-Entfernungsbereich in eine Mehrzahl von aneinander angrenzenden oder miteinander teilweise überlappenden Entfernungsbereichen unterteilt sein. Es können dabei beispielsweise drei bis 100 derartige Entfernungsbereiche über entsprechende Bilderfassungsparameter vorgegeben werden, beispielsweise 50 Entfernungsbereiche, die innerhalb des Gesamt-Entfernungsbereichs liegen. Beim Betrieb des Kamerasystems kann der Gesamt-Entfernungsbereich über die vorgegebenen einzelnen Entfernungsbereiche mehrmals in der Sekunde, beispielsweise mit einer Rate von 10 Hertz, erfasst werden. Beim Betrieb kann mit dem innerhalb des Gesamt-Entfernungsbereichs entferntesten Entfernungsbereich begonnen werden. Dies stellt sicher, dass beim Überschreiben von in einem vorhergehenden Erfassungsschritt erfassten Bildern mit einem jeweils zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes nahe Objekte entferntere Objekte überschreiben, sodass das Ergebnis des Betriebsverfahrens, nämlich das zuletzt aktualisierte, ausgegebene Bild, in jedem Fall die dem Kamerasystem nächst benachbarten Objekte darstellt, worauf dann beispielsweise durch Eingriff in eine Bewegung des Kamerasystems reagiert werden kann. Ein Zwischenspeichern von in jeweils vorhergehenden Erfassungsschritten erfassten Bildern kann dann entfallen, was die Geschwindigkeit des Verfahrensablaufs erhöht.In the operating method, a covered total distance range can be divided into a plurality of adjacent or partially overlapping distance ranges. For example, three to 100 such distance ranges can be specified using corresponding image acquisition parameters, for example, 50 distance ranges that lie within the total distance range. During operation of the camera system, the total distance range can be acquired across the specified individual distance ranges several times per second, for example at a rate of 10 Hertz. During operation, the acquisition can begin with the most distant distance range within the total distance range. This ensures that when images acquired in a previous acquisition step are overwritten with a most recently acquired image, nearby objects overwrite more distant objects in non-filtered image areas of the most recently acquired image, so that the result of the operating method, namely the most recently updated, output image, always represents the objects closest to the camera system, to which the system can then react, for example, by intervening in a movement of the camera system. Buffering of images captured in previous acquisition steps can then be eliminated, which increases the speed of the process.
Das zuletzt aktualisierte, ausgegebene Bild ist ein 2D-Bild mit nicht herausgefilterten Objekten in allen innerhalb des Gesamt-Entfernungsbereichs erfassten Entfernungsbereichen. Auch im Laufe des Betriebsverfahrens überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs früher erfassten Entfernungsbereiche können für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The last updated output image is a 2D image with unfiltered objects in all distance ranges captured within the overall distance range. Information from previously captured distance ranges within the overall distance range that was overwritten during the operating procedure can also be retained for independent spatial (3D) analysis.
Zu den jeweils nicht herausgefilterten Objekten, die dem jeweiligen Erfassungsschritt zugeordnet sind, ergibt das Verfahren als Ergebnis einen Entfernungsbereich, in dem das Objekt relativ zum Kamerasystem vorliegt. Diese resultierenden Objekt-Entfernungsinformationen, die mittels der TOF-Bilderfassung ermittelt werden, ermöglichen im Zusammenspiel mit einer über die mindestens eine Stereokamera ermöglichten triangulatorischen Entfernungserfassung eine Formredundanz des Betriebsverfahrens.For the non-filtered objects assigned to the respective detection step, the method produces a distance range in which the object is located relative to the camera system. This resulting object distance information, determined using TOF image acquisition, in conjunction with triangulatory distance detection enabled by at least one stereo camera, enables form redundancy of the operating method.
Als Entfernungsinformation kann eine jeweils geringste Entfernung des erfassten Objekts ausgegeben werden oder auch eine Entfernung pro Objekt-Bildpunkt des jeweiligen Sensor-Arrays.The distance information can be output as the smallest distance of the detected object or as a distance per object pixel of the respective sensor array.
Insgesamt resultiert eine einerseits sichere und andererseits vorausschauende Bilderfassung, die an die Erfordernisse insbesondere einer Fahrerunterstützung oder auch eines autonomen Fahrens gut angepasst ist.The overall result is both safe and predictive image capture, which is well adapted to the requirements of driver assistance or autonomous driving in particular.
Beim digitalen Filtern zum Herausfiltern strukturloser Bildbereiche kann eine Stereo-Korrespondenzbestimmung zum Einsatz kommen, die beispielsweise beschrieben ist in der
Mindestens zwei der aufeinanderfolgenden Erfassungsschritte können zeitlich miteinander überlappen. Ein derartiger zeitlicher Überlapp ermöglicht einen schnellen Ablauf des Betriebsverfahrens. Der zeitliche Überlapp kann derart sein, dass mindestens zwei Entfernungsbereiche mit gleichzeitigem Detektionsbeginn und gleicher Detektionsdauer mit den Sensor-Arrays gleichzeitig erfasst werden, wobei diese Erfassungsbereiche durch unterschiedliche Vorgabe des jeweiligen Blitzlichtbeleuchtungsbeginns und/oder der jeweiligen Blitzbeleuchtungsdauer hinsichtlich ihrer Bilderfassungsparameter vorgegeben werden. Es ist auch möglich, die Wiederholungssequenz des Betriebsverfahrens so zu gestalten, dass tatsächlich eine Detektion genau zu einem Zeitraum, also bei einem vorgegebenen Detektionsbeginn und mit einer vorgegebenen Detektionsdauer, für alle vorgegebenen Entfernungsbereiche erfolgt. Durch diese gleichzeitige Detektionserfassung von mindestens zwei Erfassungsbereichen kann ein Bildverarbeitungsaufwand reduziert und eine Beschleunigung des gesamten Verfahrens erreicht werden.At least two of the consecutive detection steps can overlap in time. Such a temporal overlap enables the operating method to run quickly. The temporal overlap can be such that at least two distance ranges with simultaneous detection start and the same detection duration are detected simultaneously with the sensor arrays, whereby these detection ranges are specified by different specifications of the respective flash illumination start and/or the respective flash illumination duration with regard to their image acquisition parameters. It is also possible to design the repetition sequence of the operating method such that a detection actually occurs at exactly one time period, i.e. at a specified detection start and with a specified detection duration, for all specified distance ranges. This simultaneous detection of at least two detection ranges can reduce image processing effort and accelerate the entire method.
Entfernungs-Ausdehnungen der Entfernungsbereiche können sich voneinander unterscheiden. Derart sich voneinander unterscheidende Entfernungs-Ausdehnungen der Entfernungsbereiche ermöglichen insbesondere, eine Entfernungs-Empfindlichkeit abhängig von der Entfernung vorzugeben, was ebenfalls hilft, eine Ablaufdauer des Betriebsverfahrens zu verkürzen. Mit zunehmender Entfernung kann beispielsweise die Entfernungs-Ausdehnung des jeweiligen Entfernungsbereiches vergrößert werden, insbesondere progressiv vergrößert werden.The distance extensions of the distance ranges can differ from one another. Such differing distance extensions of the distance ranges make it possible, in particular, to specify a distance sensitivity depending on the distance, which also helps to shorten the duration of the operating procedure. As the distance increases, for example, the distance extension of the respective distance range can be increased, in particular, progressively increased.
Nach dem Erfassen des jeweiligen Entfernungsbereiches kann eine Triangulationsbestimmung einer Entfernung von Objekten in nicht herausgefilterten Bildbereichen mittels der mindestens einen Stereokamera erfolgen. Eine derartige zusätzliche Triangulationsbestimmung ermöglicht einen Abgleich von Objekt-Abstandswerten, die einerseits über das Entfernungsbereich-aufgelöste Erfassen mithilfe der TOF-Bilderfassungsparameter und andererseits mittels der Triangulation bestimmt wurden.After capturing the respective distance range, a triangulation determination of the distance to objects in non-filtered image areas can be performed using the at least one stereo camera. Such an additional triangulation determination enables a comparison of object distance values determined, on the one hand, via distance-resolved detection using the TOF image acquisition parameters and, on the other hand, via triangulation.
Vor dem Erfassen kann eine Region of Interest (ROI) als Teil eines von den Stereokameras erfassbaren Bildfeldes vorgegeben werden. Eine derartige ROI-Vorgabe ermöglicht eine Reduktion der zu verarbeitenden Bilddaten, was das Verfahren zudem verkürzen kann. Bei der vorgegebenen ROI kann es sich um einen Straßenbereich in der Vorwärtsrichtung handeln.Before acquisition, a region of interest (ROI) can be specified as part of the image field captured by the stereo cameras. Such a ROI specification allows for a reduction in the amount of image data to be processed, which can also shorten the process. The specified ROI can be a section of the road in the forward direction.
Ein Betriebsverfahren nach Anspruch 10 kann alternativ oder zusätzlich zum vorstehend erläuterten Betriebsverfahren zum Einsatz kommen. Ein derartiges Betriebsverfahren ermöglicht eine redundante Entfernungsbestimmung eines jeweiligen Objektabstandes. Hierüber kann insbesondere eine Formredundanz bereitgestellt werden, also eine Redundanz, gegeben durch Verwendung unterschiedlicher Technologien zur Entfernungserfassung.An operating method according to claim 10 can be used alternatively or in addition to the operating method explained above. Such an operating method enables redundant distance determination of a respective object distance. This can, in particular, provide form redundancy, i.e., redundancy provided by using different distance detection technologies.
Die TOF-Entfernung kann als Eingangsgröße für die triangulatorische Erfassung benutzt werden. Eine derartige Nutzung der erfassten TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung kann eine Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann bei der Korrespondenzanalyse ein abzudeckender Disparitätsbereich eingegrenzt werden. Umgekehrt kann auch die triangulatorisch erfasste Entfernung als Eingangsgröße für eine TOF-Erfassung genutzt werden. Die Verwendung einer erfassten Objektentfernung kann im Betrieb des Kamerasystems zum Nachverfolgen beziehungsweise Tracken von erfassten Objekten genutzt werden. Es kann genau ein derartiges Objekt nachverfolgt werden oder auch eine Mehrzahl derartiger Objekte kann gleichzeitig nachverfolgt werden. Objekt-Nachverfolgungsschritte können sich mit Erfassungsschritten eines gesamten vorgegebenen Entfernungsbereichs abwechseln. Zum Objekt-Tracken können Bilderfassungsparameter der TOF-Entfernungserfassung und/oder der triangulatorischen Entfernungserfassung an eine bei der Nachverfolgung zu erwartende Objektentfernung angepasst werden.The TOF distance can be used as an input variable for triangulation detection. Using the measured TOF distance as an input variable for triangulation detection can facilitate correspondence analysis during triangulation detection. In particular, correspondence analysis can be used to narrow down the disparity range to be covered. Conversely, the triangulation-detected distance can also be used as an input variable for TOF detection. The use of a measured object distance can be used in the operation of the camera system to track detected objects. Precisely one such object can be tracked, or multiple such objects can be tracked simultaneously. Object tracking steps can alternate with detection steps of an entire specified distance range. For object tracking, image acquisition parameters of the TOF distance detection and/or the triangulation distance detection can be adapted to the object distance expected during tracking.
Eine Beleuchtungsintensität der Blitzlichtquelle kann auf einen zu erfassenden Entfernungsbereich abgestimmt werden. Eine derartige Blitzintensitäts-/Entfernungsbereichs-Abstimmung ermöglicht es insbesondere, einen Rückschluss auf im Blitzlicht- und/oder im Kamera-Erfassungsweg vorliegende diffuse Streumedien zu ziehen. Ein sicherer Vorrichtungsbetrieb auch in nebliger, staubiger oder verrauchter Umgebung ist dann möglich.The illumination intensity of the flash light source can be adjusted to the distance range to be captured. Such flash intensity/distance range adjustment makes it possible, in particular, to draw conclusions about diffuse scattering media present in the flash light and/or camera detection path. Safe device operation is then possible even in foggy, dusty, or smoky environments.
Die Blitzintensität kann quadratisch von einer Entfernung innerhalb des zu erfassenden Entfernungsbereichs abhängen. Eine derartige quadratische Abhängigkeit der Blitzintensität von der zu erfassenden Entfernung ermöglicht insbesondere dann, wenn sich die Beleuchtungsintensität quadratisch mit wachsendem Entfernungsbereich erhöht, eine Abstimmung derart, dass bei identischer Umgebungs-Rückstreuung und zu vernachlässigender Streuung längs eines Blitz- und längs eines Erfassungsweges zwischen Quelle und Objekt eine Aussteuerung einer konstanten Intensitätsausleuchtung des mindestens einen Sensor-Arrays. Dies kann zur Bestimmung diffuser Streumedien im erfassten Entfernungsbereich genutzt werden.The flash intensity can depend quadratically on a distance within the distance range to be detected. Such a quadratic dependence of the flash intensity on the distance to be detected enables adjustment such that, with identical ambient backscatter and negligible scattering along a flash path and along a detection path between source and object, a constant intensity illumination of the at least one sensor array is controlled. This can be used to determine diffuse scattering media in the detected distance range.
Eine Pixelempfindlichkeit eines Sensorpixels des Sensor-Arrays kann als Funktion einer einfallenden Lichtintensität der Blitzlichtquelle geregelt werden. Eine derartige Regelung einer Pixelempfindlichkeit kann insbesondere nicht linear zur einfallenden Lichtintensität erfolgen. Es kann insbesondere eine Gamma-Korrektur (γ) erfolgen. Die Empfindlichkeit des mindestens einen Sensor-Arrays kann dann spezifisch an bei der Anwendung vorliegende Beleuchtungs- und/oder Detektionsverhältnisse angepasst werden.The pixel sensitivity of a sensor pixel of the sensor array can be controlled as a function of the incident light intensity of the flash light source. Such control of the pixel sensitivity can, in particular, not be linear with the incident light intensity. In particular, gamma correction (γ) can be performed. The sensitivity of the at least one sensor array can then be specifically adapted to the lighting and/or detection conditions prevailing in the application.
Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen kann an einen Bewegungsmodus des Kamerasystems relativ zur Umgebung angepasst werden. Eine derartig angepasste Entfernungsbereichs-/Bewegungsmodus-Auswahl ermöglicht eine effiziente Ausnutzung insbesondere einer Rechnerleistung des Kamerasystems und kann auch eine Betriebssicherheit erhöhen.A selection of object distance ranges to be captured can be adapted to a movement mode of the camera system relative to the environment. Such an adapted distance range/movement mode selection enables efficient utilization of the camera system's computing power, in particular, and can also increase operational reliability.
Bei der Auswertung mit triangulatorischer Stereoskopie bei binokularem Sehen werden zwei Bilder verglichen, so dass eventuelle Helligkeitsänderungen durch veränderte Dichteverläufe in erster Näherung vernachlässigt werden können. Bei Vergleich der Bilder mit trainierten Daten (Neuronale Netze, KI) bei monokularem Sehen erhöht eine homogene Helligkeitsverteilung über die Entfernung die Entdeckungsleistung, sich verändernde Dichteverteilungen erschweren dagegen eine sichere Objekterkennung.When evaluating with triangulatory stereoscopy in binocular vision, two images are compared so that any changes in brightness Changes due to changing density distributions can be neglected in a first approximation. When comparing images with trained data (neural networks, AI) in monocular vision, a homogeneous brightness distribution over distance increases detection performance, whereas changing density distributions make reliable object recognition more difficult.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:
-
1 schematisch eine Aufsicht auf eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei ein Umgebungs-Objekt in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht ist; -
2 ein Zeitdiagramm zur Verdeutlichung von Bilderfassungsparametern beim Betrieb der Vorrichtung nach1 ; -
3 in einer zur1 ähnlichen Darstellung eine weitere Ausführung einer Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei Umgebungs-Objekte in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht sind; -
4 in einer zur2 ähnlichen Darstellung einen zeitlichen Ablauf eines Betriebsverfahrens der Vorrichtung nach3 ; -
5 in einer Seitenansicht Hauptkomponenten einer Ausführung der Vorrichtung bei der räumlichen Bilderfassung einer Umgebung innerhalb von drei beispielhaften Entfernungsparametern, wobei innerhalb der erfassten Umgebung ein wolkenförmiges diffuses Streumedium vorliegt; und -
6 schematisch Parameterverhältnisse bei einer Kalibriersituation eines Kalibrierverfahrens eines Kamerasystems mit drei Kameras.
-
1 schematically shows a plan view of a device for spatial image capture of an environment moving relative to the device, wherein an environmental object is illustrated by way of example and in perspective in the forward direction of a relative movement of the device to the environment; -
2 a timing diagram to illustrate image acquisition parameters during operation of the device according to1 ; -
3 in a1 similar representation, a further embodiment of a device for spatial image capture of an environment moving relative to the device, wherein environmental objects in the forward direction of a relative movement of the device to the environment are illustrated by way of example and in perspective; -
4 in a2 similar representation a chronological sequence of an operating method of the device according to3 ; -
5 in a side view, main components of an embodiment of the device in the spatial image capture of an environment within three exemplary distance parameters, wherein a cloud-shaped diffuse scattering medium is present within the captured environment; and -
6 schematic parameter relationships in a calibration situation of a calibration procedure of a camera system with three cameras.
Die Vorrichtung 1 kann Bestandteil eines Fahrzeugs 3, beispielsweise eines PKW oder eines LKW, sein. Eine Vorwärtsrichtung der Relativbewegung der Vorrichtung 1 zur Umgebung ist in der
Die Vorrichtung 1 hat mehrere Stereokameras zur triangulatorischen Objekt-Abstandsmessung von Objekten innerhalb der erfassten Umgebung in der Vorwärtsrichtung 4, also insbesondere zur Abstandsbestimmung des Objekts 2.The device 1 has several stereo cameras for triangulatory object distance measurement of objects within the detected environment in the forward direction 4, i.e. in particular for determining the distance of the object 2.
Eine erste Stereokamera 5 dieser Stereokameras hat zwei zueinander beabstandete Kameras 51, 52. Ein Abstand A dieser Kameras 51, 52 der Stereokamera 5 ergibt eine Länge einer Baseline der Stereokamera 5, also eine Länge eines Abstandes von Zentren von Eintrittspupillen der Kameras 51, 52 der Stereokamera. Die Kameras 51, 52 der Stereokamera 5 haben jeweils ein Sensor-Array 61, 62 mit gesteuerter Vorgabe eines Detektionsbeginns der jeweiligen Kamera 51 und 52 und einer Detektionsdauer der jeweiligen Kamera 51, 52. Die Sensor-Arrays 61, 62 sind nach Art entsprechender Sensoren von Time of Flight (TOF)-Kameras ausgeführt und können eine Detektionsdauer im Bereich zwischen 1 ns und 500 ns realisieren. Eine typische Detektionsdauer liegt im Bereich zwischen 50 ns und 400 ns, beispielsweise zwischen 150 ns und 250 ns.A first stereo camera 5 of these stereo cameras has two cameras 5 1 , 5 2 spaced apart from one another. A distance A between these cameras 5 1 , 5 2 of the stereo camera 5 results in a length of a baseline of the stereo camera 5, i.e. a length of a distance from the centers of entrance pupils of the cameras 5 1 , 5 2 of the stereo camera. The cameras 5 1 , 5 2 of the stereo camera 5 each have a sensor array 6 1 , 6 2 with controlled specification of a start of detection for the respective camera 5 1 and 5 2 and a detection duration for the respective camera 5 1 , 5 2 . The sensor arrays 6 1 , 6 2 are designed like corresponding sensors of time-of-flight (TOF) cameras and can realize a detection duration in the range between 1 ns and 500 ns. A typical detection time is in the range between 50 ns and 400 ns, for example between 150 ns and 250 ns.
Die Sensor-Arrays 61, 62 können jeweils 100 x 100 Pixel oder auch 200 x 200 Pixel aufweisen. Grundsätzlich ist auch eine höhere Pixelanzahl möglich, insbesondere eine Anzahl von 640 x 480 oder auch von 1440 x 1080 Pixeln.The sensor arrays 6 1 , 6 2 can each have 100 x 100 pixels or 200 x 200 pixels. A higher number of pixels is also possible, in particular 640 x 480 or 1440 x 1080 pixels.
Die Sensor-Arrays 61, 62 können als CMOS-Array ausgeführt sein.The sensor arrays 6 1 , 6 2 can be designed as CMOS arrays.
Die Kameras 51, 52 haben eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m.The cameras 5 1 , 5 2 have a telephoto lens for detecting objects at distances between 50 m and 300 m.
Zur Vorrichtung 1 gehört weiterhin eine Blitzlichtquelle 7, die ebenfalls nach Art der Lichtquelle einer TOF-Kamera ausgeführt sein kann und eine gesteuerte Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze ermöglicht. Eine Blitzbeleuchtungsdauer kann im Bereich zwischen 5 ns und 150 ns, beispielsweise im Bereich von 100 ns liegen.The device 1 also includes a flash light source 7, which can also be designed like the light source of a TOF camera and allows for controlled setting of a flash illumination start time and flash illumination duration for successive illumination flashes. A flash illumination duration can be in the range between 5 ns and 150 ns, for example, in the range of 100 ns.
Ebenfalls zum Zeitpunkt t = 0 startet eine Verzögerungszeit Δtlag, die auch als Delay-Zeit bezeichnet ist. Diese Verzögerungszeit Δtlag liegt im Bereich zwischen 300 ns und 2 ms und kann beispielsweise im Bereich zwischen 500 ns und 1 ms, zum Beispiel im Bereich zwischen 700 ns und 900 ns, zum Beispiel bei 800 ns, liegen.Also at time t = 0, a delay time Δt lag starts, which is also called delay time. This delay time Δt lag lies in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example 800 ns.
Nach Ablauf des Delay-Zeitraums Δtlag beginnt zum Zeitpunkt t = tE eine Detektion 9 durch das jeweilige Sensor-Array 61 beziehungsweise 62 der Stereokamera 5. tE stellt somit den Detektionsbeginn dar. Das jeweilige Sensor-Array 61, 62 detektiert einfallendes Licht der Blitzlichtquelle 7 dann während einer Detektionsdauer Δtexp.After the delay period Δt lag has elapsed, a detection 9 by the respective sensor array 6 1 or 6 2 of the stereo camera 5 begins at time t = t E. t E thus represents the start of detection. The respective sensor array 6 1 , 6 2 then detects incident light from the flash light source 7 during a detection period Δt exp .
Die Detektion 9 durch das jeweilige Sensor-Array 61, 62 der Stereokamera 5 ist in der
Die vorstehend erläuterten Bilderfassungsparameter, nämlich der Blitzbeleuchtungsbeginn (t = 0), die Blitzbeleuchtungsdauer Δtflash, der Detektionsbeginn (t = tE) und die Detektionsdauer Δtexp werden zeitlich synchronisiert von einer Steuereinrichtung 10 der Vorrichtung 1 vorgegeben. Hierzu kann eine Synchronisationseinheit einer Synchronisationseinrichtung der Steuereinrichtung 10 genutzt werden.The image acquisition parameters explained above, namely the flash illumination start (t = 0), the flash illumination duration Δt flash , the detection start (t = t E ), and the detection duration Δt exp , are specified in a time-synchronized manner by a control device 10 of the device 1. A synchronization unit of a synchronization device of the control device 10 can be used for this purpose.
Die Steuereinrichtung 10 hat einen Bildprozessor zur Echtzeit-Datenverarbeitung. Hierbei kann es sich um einen Prozessor mit einem Field Programmable Gate Array (FPGA, im Feld programmierbare Logik-Gatter-Anordnung) handeln. Der Bildprozessor kann auf ein ultraschnelles, mittels der Steuereinrichtung 10 getriggertes Image Grabbing der von den Sensor-Arrays 6i erfassten Einzelbilder getrimmt sein.The control device 10 has an image processor for real-time data processing. This can be a processor with a field-programmable gate array (FPGA). The image processor can be configured for ultrafast image grabbing of the individual images captured by the sensor arrays 6i , triggered by the control device 10.
Aufgrund der synchronisierten Vorgabe des Blitzlichtbeleuchtungsbeginns und des Detektionsbeginns gibt die Steuereinrichtung 10 zwangsläufig auch den Delay-Zeitraum Δtlag zwischen dem Beleuchtungsblitzbeginn (t = 0) und dem Detektionsbeginn (t = tE) der Vorrichtung 1 vor.Due to the synchronized specification of the start of the flash illumination and the start of detection, the control device 10 necessarily also specifies the delay period Δt lag between the start of the illumination flash (t = 0) and the start of detection (t = t E ) of the device 1.
Korreliert mit der Lichtgeschwindigkeit ergibt sich ein mittels der Stereokamera 5 erfasster Entfernungsbereich 11 in der Vorwärtsrichtung 4 der Vorrichtung 1. Das Objekt 2 hat zur Vorrichtung 1 einen Abstand längs der Vorwärtsrichtung 4, der innerhalb dieses Entfernungsbereichs 11 liegt, sodass das Objekt 2 von der Stereokamera 5 erfasst wird. Der erfasste Entfernungsbereich 11 ist von der Vorrichtung 1 etwa um 100 m bis 150 m beabstandet und hat längs der Vorwärtsrichtung 4 eine Ausdehnung von beispielsweise 30 m.Correlating with the speed of light, this results in a distance range 11 in the forward direction 4 of the device 1, captured by the stereo camera 5. The object 2 is at a distance from the device 1 along the forward direction 4 that lies within this distance range 11, so that the object 2 is captured by the stereo camera 5. The captured distance range 11 is approximately 100 m to 150 m from the device 1 and has an extension of, for example, 30 m along the forward direction 4.
Dieser Abstand ist in der
Aufgrund der Erfassung über die beiden Kameras 51, 52 der Stereokamera 5 ergibt sich eine räumliche Bilderfassung des Objekts 2. Triangulatorisch kann dann redundant zur TOF-Abstandsmessung über den Delay-Zeitraum Δtlag auch eine Referenz-Abstandsbestimmung des Objekts 2 zur Vorrichtung 1 vorgenommen werden. Bei der Vorrichtung 1 handelt es sich also prinzipiell um eine TOF-Kamera mit zusätzlicher Triangulation.Due to the acquisition via the two cameras 5 1 , 5 2 of the stereo camera 5, a spatial image of the object 2 is captured. A reference distance determination of the object 2 to the device 1 can then be performed triangulatorily, redundantly to the TOF distance measurement over the delay period Δt lag . The device 1 is therefore essentially a TOF camera with additional triangulation.
Die Stereokamera 5 kann zudem eine Korrespondenzanalyse von mit den beiden Kameras 51, 52 aufgenommenen Kamera-Einzelbildern durchführen, um stereoskopisch erfasste Objekte von Hintergrundrauschen, das nur bei einer der beiden Kameras 51, 52 vorliegt, zu trennen. Eine derartige Korrespondenzanalyse ist beispielsweise beschrieben in der
Initial kann bei der Stereokamera 5 eine Stereo-Kalibrierung insbesondere von Ausrichtungen und Lagen der Kameras 51, 52 der Stereokamera 5 mithilfe eines Verfahrens durchgeführt werden, das ebenfalls beschrieben ist in der
Bei der räumlichen Bilderfassung mittels der Vorrichtung 1 kann eine mittels des TOF-Prinzips erfasste TOF-Entfernung mindestens eines erfassten Objekts mit einer triangulatorischen Entfernung des Objekts, die mittels der mindestens einen Stereokamera mittels der triangulatorischen Prinzips erfasst wurde, abgeglichen werden. Die TOF-Entfernung kann dabei beispielsweise als Eingangsgröße für die triangulatorische Erfassung genutzt werden. Hierüber kann die Korrespondenzanalyse bei der triangulatorischen Erfassung, beispielsweise durch Eingrenzung eines bei der Korrespondenzanalyse abzudeckenden Disparitätsbereichs, erleichtert werden.During spatial image acquisition using device 1, a TOF distance of at least one detected object, acquired using the TOF principle, can be compared with a triangulatory distance of the object, acquired using the triangulatory principle by the at least one stereo camera. The TOF distance can be used, for example, as an input variable for the triangulatory acquisition. This can facilitate correspondence analysis during the triangulatory acquisition, for example, by limiting a disparity range to be covered by the correspondence analysis.
Mithilfe der über die Kameras 51, 52 der Stereokamera 5 erfassten Bilder des mittels der Blitzlichtquelle 7 beleuchteten Objekts 2 kann auch eine Schattenerfassung eines vom Objekt 2 geworfenen Schattens für das Beleuchtungslicht der Blitzlichtquelle 7 erfolgen. Mittels einer derartigen Schattenwurf-Auswertung des unterschiedlichen Schattenwurfes des Objekts 2, aufgenommen durch die beiden Kameras 51, 52 der Stereokamera 5, ist eine zusätzlich redundante Ermittlung des Abstandes des Objekts 2 zur Vorrichtung 1 möglich.Using the images of the object 2 illuminated by the flash light source 7 captured by the cameras 5 1 , 5 2 of the stereo camera 5, a shadow cast by the object 2 can also be captured for the illumination light of the flash light source 7. By means of such a shadow casting analysis of the different shadows cast by the object 2, recorded by the two cameras 5 1 , 5 2 of the stereo camera 5, an additional redundant determination of the distance of the object 2 from the device 1 is possible.
Die Vorrichtung 1 hat eine weitere Blitzlichtquelle 13, deren Funktion derjenigen der Blitzlichtquelle 7 entspricht, die also ebenfalls zur gesteuerten Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze dient. Die weitere Blitzlichtquelle 13 kann redundant zur zunächst beschriebenen Blitzlichtquelle 7 zum Einsatz kommen, beispielsweise bei einem Ausfall der zunächst beschriebenen Blitzlichtquelle 7. Während des Betriebs der weiteren Blitzlichtquelle 13 kann die zunächst beschriebene Blitzlichtquelle 7 dann beispielsweise ausgetauscht werden, sodass ein lückenloser Betrieb der Vorrichtung 1 beispielsweise während einer zu überwachenden Fahrt des PKW oder LKW, auf dem die Vorrichtung 1 montiert ist, möglich ist.The device 1 has a further flash light source 13, the function of which corresponds to that of the flash light source 7, which is also used for the controlled setting of a flash illumination start and a flash illumination duration of successive Illumination flashes. The additional flash light source 13 can be used redundantly to the initially described flash light source 7, for example, in the event of a failure of the initially described flash light source 7. During operation of the additional flash light source 13, the initially described flash light source 7 can then be replaced, for example, so that continuous operation of the device 1 is possible, for example, during a monitored journey of the car or truck on which the device 1 is mounted.
Die Vorrichtung 1 hat eine weitere Stereokamera 14 mit Kameras 141, 142, deren Aufbau und Funktion dem entspricht, was vorstehend unter Bezugnahme auf die Stereokamera 5 bereits erläutert wurde. Die Stereokamera 141 ist der Stereokamera 51 direkt benachbart angeordnet und deckt praktisch das gleiche Sichtfeld in der Vorwärtsrichtung 4 ab, wie die Kamera 51. Die Kamera 142 ist wiederum der Kamera 52 direkt benachbart angeordnet und deckt in der Vorwärtsrichtung 4 das gleiche Sichtfeld ab, wie die Kamera 52.The device 1 has a further stereo camera 14 with cameras 14 1 , 14 2 , the structure and function of which correspond to what was already explained above with reference to the stereo camera 5. The stereo camera 14 1 is arranged directly adjacent to the stereo camera 5 1 and covers practically the same field of view in the forward direction 4 as the camera 5 1 . The camera 14 2 is in turn arranged directly adjacent to the camera 5 2 and covers the same field of view in the forward direction 4 as the camera 5 2 .
Die Stereokamera 14 ist wiederum redundant zur Stereokamera 5. Hier gilt, was zu den Blitzlichtquellen 7 und 13 ausgeführt wurde.The stereo camera 14 is in turn redundant to the stereo camera 5. The same applies here as described for the flash light sources 7 and 13.
Die Vorrichtung 1 hat weiterhin eine Fischaugen-Stereokamera 15 mit zwei Paaren 151, 152 einerseits und 153, 154 andererseits. Jede dieser Fischaugen-Kameras 15i (i = 1 bis 4) dient zur Erfassung der Umgebung um die Vorrichtung 1 sowohl in der Vorwärtsrichtung 4 als auch in hierzu lateraler Richtung (vgl. Pfeil 16 in
Die Fischaugen-Kameras 15i haben einen Erfassungswinkel um die HauptErfassungsrichtungen 17, 18 von 180 °. Grenzwinkel der Erfassungsbereiche dieser Fischaugen-Kameras 15i sind in der
Die Beleuchtungslichtquelle 7 strahlt Blitzlicht der Beleuchtungsblitze längs der Vorwärtsrichtung in einem Beleuchtungskegel ab, dessen Randstrahlen in der
Die Fischaugen-Stereokamera 15 kann wahlweise eine triangulatorische Objekt-Abstandsbestimmung mittels mindestens zweier der insgesamt vier Fischaugen-Kameras 15i durchführen, wobei mit kurzen Baselines, Abstände der Fischaugen-Kameras 151, 152 einerseits beziehungsweise 153, 154 andererseits oder auch mit langen Baselines (Abstände der Fischaugen-Kameras 151 und 153 oder 151 und 154 oder 152 und 153 oder 152 und 154) gearbeitet werden kann. Hierüber lässt sich wiederum eine redundante triangulatorische Objekt-Abstandsbestimmung vornehmen.The fisheye stereo camera 15 can optionally perform a triangulatory object distance determination using at least two of the four fisheye cameras 15 i , whereby it can work with short baselines (distances between the fisheye cameras 15 1 , 15 2 on the one hand, or 15 3 , 15 4 on the other hand), or with long baselines (distances between the fisheye cameras 15 1 and 15 3 or 15 1 and 15 4 or 15 2 and 15 3 or 15 2 and 15 4 ). This, in turn, allows for a redundant triangulatory object distance determination.
Die Nutzung derartiger zusätzlicher Triangulations-Baselines sind beispielsweise beschrieben in der
Die Vorrichtung 1 hat zudem eine weitere Fischaugen-Stereokamera 20 mit Fischaugen-Kameras 201 bis 204, die in ihrem Aufbau, ihrer Ausrichtung und paarweisen Anordnung den Fischaugen-Kameras 151 bis 154 entsprechen. Die Fischaugen-Stereokamera 20 kann redundant zur Fischaugen-Stereokamera 15 zum Einsatz kommen. Hier gilt entsprechend, was vorstehend zu den Blitzlichtquellen 7 und 13 beziehungsweise zu den Stereokameras 5 und 14 ausgeführt wurde.The device 1 also has a further fisheye stereo camera 20 with fisheye cameras 20 1 to 20 4 , which correspond in their structure, orientation, and paired arrangement to the fisheye cameras 15 1 to 15 4 . The fisheye stereo camera 20 can be used redundantly to the fisheye stereo camera 15. The above statements regarding the flash light sources 7 and 13 and the stereo cameras 5 and 14 apply accordingly.
Die Kameras 15i der Fischaugen-Stereokamera 15 haben wiederum Sensor-Arrays nach Art der vorstehend beschriebenen Sensor-Arrays 6i, können also wiederum als Bestandteil einer TOF-Erfassung genutzt werden, wie vorstehend bereits erläutert.The cameras 15 i of the fisheye stereo camera 15 in turn have sensor arrays similar to the sensor arrays 6 i described above, and can therefore again be used as part of a TOF detection, as already explained above.
Die Steuereinrichtung 10 steht mit den Stereokameras 5, 14, 15 und 20 und mit den Blitzlichtquellen 7 und 13 in Signalverbindung. Weiterhin kann die Steuereinrichtung 10 mit Komponenten des Fahrzeugs 3 in Signalverbindung stehen, beispielsweise mit einem Antrieb und/oder mit einer Bremsanlage und/oder mit Fahrzeug-Anzeigevorrichtungen, beispielsweise in einem Armaturenbrett des Fahrzeugs 3.The control device 10 is in signal communication with the stereo cameras 5, 14, 15, and 20 and with the flash light sources 7 and 13. Furthermore, the control device 10 can be in signal communication with components of the vehicle 3, for example, with a drive and/or with a braking system and/or with vehicle display devices, for example in a dashboard of the vehicle 3.
Beim Echtzeitbetrieb kann die Vorrichtung 1 eine Bildaufnahme von beispielsweise zehn Bildern pro Sekunde vornehmen.In real-time operation, the device 1 can record images at, for example, ten images per second.
Die Vorrichtung 21 ist mit zwei Stereokameras 5, 14 ausgerüstet, die die Umgebung der wiederum auf ein Fahrzeug 3 montierten Vorrichtung 21 in der Vorwärtsrichtung 4 erfassen. Veranschaulicht sind innerhalb dieser erfassten Umgebung drei Umgebungs-Objekte 22, 23 und 24.The device 21 is equipped with two stereo cameras 5, 14, which capture the surroundings of the device 21, which is in turn mounted on a vehicle 3, in the forward direction 4. Three surrounding objects 22, 23, and 24 are illustrated within this captured environment.
Mit der Vorrichtung 21 ist insbesondere ein in der Vorwärtsrichtung 4, die auch als z-Richtung bezeichnet ist, z-gepufferter (z-buffered) Betrieb möglich, bei dem ein Gesamt-Entfernungsbereich 25 längs der Vorwärtsrichtung 4, innerhalb dem die Objekte 22 bis 24 liegen, in eine Mehrzahl von Entfernungsbereiche 221 bis 22max, also in Entfernungsbereiche 22i (i = 1 bis max) unterteilt wird. Die maximale Anzahl max dieser Entfernungsbereiche 22i kann im Bereich zwischen 3 und 50 liegen, beispielsweise im Bereich von 10. Diese Entfernungsbereiche 22i werden auch als Entfernungszonen (gate zones) gz bezeichnet.With the device 21, in particular, z-buffered operation in the forward direction 4, which is also referred to as the z-direction, is possible, in which a total distance range 25 along the forward direction 4, within which the objects 22 to 24 lie, is divided into a plurality of distance ranges 22 1 to 22 max , i.e. into distance ranges 22 i (i = 1 to max). The maximum number max of these distance ranges 22 i can be in the range between 3 and 50, for example in the range of 10. These distance ranges 22 i are also referred to as gate zones gz.
Beim entsprechenden Z-Buffering-Betrieb der Vorrichtung 21 werden zunächst die Bilderfassungsparameter Beleuchtungsblitzbeginn (t = 0), Beleuchtungsblitzdauer (Δtflash, gz-1), ein Detektionsbeginn (t = tE) und eine Detektionsdauer (Δtexp, gz-1) vorgegeben.During the corresponding Z-buffering operation of the device 21, the image acquisition parameters illumination flash start (t = 0), illumination flash duration (Δt flash , gz-1 ), a detection start (t = t E ) and a detection duration (Δt exp , gz-1 ) are initially specified.
Diese Bilderfassungsparameter-Vorgabe erfolgt wiederum mittels der Steuereinrichtung 10.This image acquisition parameter specification is again carried out by means of the control device 10.
Der Entfernungsbereich gz-1, also beispielsweise der Entfernungsbereich 22max, wird dann mit den so vorgegebenen Bilderfassungsparametern erfasst.The distance range gz-1, for example the distance range 22 max , is then recorded using the image acquisition parameters specified in this way.
Über die Steuereinrichtung 10 werden weitere Bilderfassungsparameter vorgegeben, nämlich ein weiterer Blitzlichtbeginn (t = tflash), eine weitere Blitzlichtdauer (Δflash, gz), ein weiterer Detektionsbeginn (t = tE1) und eine Detektionsdauer (Δtexp, gz). Diese Vorgabe ist so gewählt, dass ein Delay-Zeitraum (Δtlag, gz) bei diesen weiteren vorgegebenen Bilderfassungsparametern etwas kürzer ist als der zunächst vorgegebene Delay-Zeitraum Δtlag, gz-1. Dies bedingt, dass bei der Erfassung mit den zuletzt vorgegebenen Bilderfassungsparametern ein weiterer Erfassungsbereich gz erfasst wird, der den zunächst erfassten Entfernungsbereich gz-1, also den Entfernungsbereich 22max, zu kürzeren Abständen zur Vorrichtung 21 hin benachbart ist.Further image acquisition parameters are specified via the control device 10, namely a further flash start (t = t flash ), a further flash duration (Δ flash , gz ), a further detection start (t = t E1 ) and a detection duration (Δt exp , gz ). This specification is selected such that a delay period (Δt lag, gz ) with these further specified image acquisition parameters is somewhat shorter than the initially specified delay period Δt lag , gz-1 . This means that when capturing with the last specified image acquisition parameters, a further detection range gz is captured, which is adjacent to the initially captured distance range gz-1, i.e. the distance range 22 max , at shorter distances from the device 21.
Der weitere Entfernungsbereich gz grenzt an den vorhergehenden Entfernungsbereich gz-1 längs der Vorwärtsrichtung 4 in einer Erfassungsfortschrittsrichtung +z an oder überlappt mit diesem teilweise.The further distance range gz borders on or partially overlaps the previous distance range gz-1 along the forward direction 4 in a detection progress direction +z.
In diesem nun erfassten Erfassungsbereich gz liegt das Objekt 24.Object 24 is located in this now recorded detection area gz.
Es erfolgt nun ein digitales Filtern des zuletzt erfassten Bildes im Entfernungsbereich gz zum Herausfiltern strukturloser Bildbereiche, sodass das Objekt 24 übrigbleibt. Anschließend wird das im der Erfassung des Entfernungsbereichs gz vorhergehenden Erfassungsbereich (Erfassung des Entfernungsbereichs gz-1) erfasste Bild mit dem zuletzt erfassten Bild (Entfernungsbereich gz) in nicht herausgefilterten Bildbereichen, also im Bereich des Objekts 24, dieses zuletzt erfassten Bildes überschrieben, sodass in der Steuereinrichtung 10 ein aktualisiertes Bild abgelegt wird, welches die Informationen aus den beiden Entfernungsbereichen gz-1 und gz beinhaltet.The last acquired image in the distance range gz is now digitally filtered to filter out structureless image areas, leaving only the object 24. Subsequently, the image acquired in the acquisition range preceding the acquisition of the distance range gz (acquisition of the distance range gz-1) is overwritten with the last acquired image (distance range gz) in the unfiltered image areas, i.e., in the area of the object 24, of this last acquired image, so that an updated image is stored in the control device 10, which contains the information from the two distance ranges gz-1 and gz.
Die Steuereinrichtung 10 gibt im Betrieb weitere Bilderfassungsparameter vor, sodass ein weiterer Entfernungsbereich gz+1 erfasst wird, der sich wiederum entgegen der Vorwärtsrichtung 4 an dem Entfernungsbereich gz anschließt beziehungsweise mit diesem teilweise überlappt.During operation, the control device 10 specifies further image acquisition parameters so that a further distance range gz+1 is acquired, which in turn adjoins the distance range gz opposite to the forward direction 4 or partially overlaps with it.
Nun werden die zuletzt beschriebenen Schritte Erfassen, Filtern, Überschreiben und Bilderfassungsparameter-Vorgeben für diesen Entfernungsbereich gz+1 sowie weitere Entfernungsbereiche 224, 223, 222 und 221 wiederholt, bis der vorgegebene Gesamt-Entfernungsbereich 25 abgedeckt ist, der sich aus der Überlagerung der erfassten Entfernungsbereiche 221 bis 22max ergibt. Im Zuge dieser Sequenzen werden im jeweils für den Entfernungsbereich 22i aktualisierten Bild die Bildbereiche am Ort der weiteren Objekte 23 (Entfernungsbereich 222) und 22 (Entfernungsbereich 221) überschrieben, sodass im zuletzt aktualisierten Bild alle drei Objekte 22 bis 24 mit ihren über die Zuordnung zum jeweiligen Entfernungsbereich 22i bestimmten Objekt-Abständen zur Vorrichtung 1 ausgegeben werden.Now the last described steps of capturing, filtering, overwriting and specifying image capture parameters are repeated for this distance range gz+1 as well as further distance ranges 22 4 , 22 3 , 22 2 and 22 1 until the specified total distance range 25 is covered, which results from the superposition of the captured distance ranges 22 1 to 22 max . In the course of these sequences, the image areas at the location of the further objects 23 (distance range 22 2 ) and 22 (distance range 22 1 ) are overwritten in the image updated for the distance range 22 i , so that in the last updated image all three objects 22 to 24 are output with their object distances to the device 1 determined via the assignment to the respective distance range 22 i .
Die Anzahl i (i = 1 bis max) der Entfernungsbereiche 22i, die während des Betriebsverfahrens erfasst werden, kann beispielsweise bei 50 liegen. Das Betriebsverfahren mit Abrastern aller Entfernungsbereiche 22max bis 221 kann im 10 Hertz-Betrieb in Echtzeit stattfinden. Das Ergebnis eines solchen kompletten Abrasterung-Vorgangs der Entfernungsbereiche 22max bis 221 ist ein 2D-Bild mit den nicht herausgefilterten Objekten 22, 23 und 24 in allen innerhalb des Gesamt-Entfernungsbereichs 25 erfassten Entfernungsbereichen 22i. Auch überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs 25 zunächst erfassten Entfernungsbereiche 22max bis 222 können beim zuletzt aktualisierten, ausgegebenen Bild nach Erfassung des Entfernungsbereichs 221 für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The number i (i = 1 to max) of distance ranges 22 i that are acquired during the operating procedure can be, for example, 50. The operating procedure with scanning of all distance ranges 22 max to 22 1 can take place in 10 Hertz operation in real time. The result of such a complete scanning process of the distance ranges 22 max to 22 1 is a 2D image with the non-filtered objects 22, 23 and 24 in all distance ranges 22 i acquired within the total distance range 25. Written information of the distance ranges 22 max to 22 2 initially recorded within the total distance range 25 can be retained in the last updated output image after recording the distance range 22 1 for an independent spatial (3D) evaluation.
Wie die
Entfernungs-Ausdehnungen Δz der verschiedenen Entfernungsbereiche 22i, 22j können sich voneinander unterscheiden. Es können sich also die Detektionsdauern bei den verschiedenen Erfassungsschritten des Betriebsverfahrens unterscheiden.The distance extensions Δz of the various distance ranges 22 i , 22 j can differ from each other. Therefore, the detection times can differ for the various acquisition steps of the operating procedure.
Nach dem Erfassen eines jeweiligen Entfernungsbereichs 22i kann zusätzlich eine Triangulations-Bestimmung einer Entfernung der Objekte 22 bis 24 in den nicht herausgefilterten Bildbereichen mithilfe der mindestens einen Stereokamera 5, 14 erfolgen. Hierbei kann wiederum eine Stereo-Korrespondenzbestimmung stattfinden, wie vorstehend bereits erläutert.After capturing a respective distance range 22 i, a triangulation determination of the distance of the objects 22 to 24 in the non-filtered image areas can additionally be performed using the at least one stereo camera 5, 14. In this case, a stereo correspondence determination can again take place, as already explained above.
Vor einem jeweiligen Erfassungsschritt des Betriebsverfahrens kann eine Region of Interest (ROI) als Teil eines über die jeweilige Kamera 5i, 14i erfassbaren Bildfeldes vorgegeben werden, beispielsweise ein durch entsprechende Objektfilterung identifizierter Straßenbereich in der Vorwärtsrichtung 4.Before a respective detection step of the operating method, a region of interest (ROI) can be specified as part of an image field that can be captured by the respective camera 5 i , 14 i , for example a road area in the forward direction 4 identified by appropriate object filtering.
Anhand der
Beim Erfassungsbeispiel nach
Unter Voraussetzung einer konstanten Reflektivität beziehungsweise eines konstanten Streuvermögens einer Umgebungs-Oberfläche 29 ergibt sich aufgrund dieser quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di, dass das Sensor-Array 61 der Kamera 51 eine konstante Intensitätsausleuchtung bei der Bilderfassung der drei Entfernungsbereiche 221, 222 und 223 erfährt. Diese konstante Intensitätsausleuchtung des Sensor-Arrays 61 liegt nur dann vor, wenn längs Blitzlichtwegen 311, 312, 313 zwischen der Blitzlichtquelle 7 und der Umgebung in den Entfernungsbereichen 221 bis 223 keine wesentliche Streuung des Beleuchtungsblitzes 8 durch das diffuse Streumedium 27 vorliegt. Anders ausgedrückt: Ungleichheiten einer Intensitätsausleuchtung des Sensor-Arrays 61 längs der Erfassungswege 30i bei der vorgegebenen quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di innerhalb des zu erfassenden Entfernungsbereiches 22i sind ein Hinweis auf das Vorliegen des diffusen Streumediums 27.Assuming a constant reflectivity or a constant scattering power of an ambient surface 29, this quadratic dependence of the illumination intensity I i on the distance d i results in the sensor array 6 1 of the camera 5 1 experiencing a constant intensity illumination when capturing images of the three distance ranges 22 1 , 22 2 and 22 3 . This constant intensity illumination of the sensor array 6 1 only occurs when there is no significant scattering of the illumination flash 8 by the diffuse scattering medium 27 along flash light paths 31 1 , 31 2 , 31 3 between the flash light source 7 and the environment in the distance ranges 22 1 to 22 3 . In other words: Inequalities in the intensity illumination of the sensor array 6 1 along the detection paths 30 i with the given quadratic dependence of the illumination intensity I i on the distance d i within the distance range 22 i to be detected are an indication of the presence of the diffuse scattering medium 27.
Hierbei können folgende Fälle unterschieden werden:
- a) Das diffuse Streumedium 27 liegt innerhalb des aktuell erfassten Entfernungsbereichs, im in der
5 dargestellten Fall also innerhalb des Entfernungsbereichs 222, vor. In diesem Fall wird das diffuse Streumedium 27 längs des Beleuchtungsweges 312 direkt beleuchtet und eine entsprechende Streuung des Beleuchtungslichts 8 durch das diffuse Streumedium 27 in das Sensor-Array 61 bei der TOF-Erfassung gemessen, was zu einer Erhöhung der Intensitätsausleuchtung längs des Erfassungsweges 302 führt. - b) Das diffuse Streumedium 27 liegt zwischen der Blitzlichtquelle 7 und dem Sensor-Array 61 einerseits und dem aktuell erfassten Entfernungsbereich, beispielsweise dem Entfernungsbereich 223, andererseits. In diesem Fall erfolgt eine Schwächung des Beleuchtungslichts längs des Blitzlichtweges 313 beim Durchtreten des diffusen Streumediums 27. Eine weitere Schwächung erfährt das vom Erfassungsbereich 223 in Richtung des Sensor-Arrays 61 längs des Erfassungsweges 303 rückgestreute Beleuchtungslicht aufgrund einer nochmaligen Streuung durch das diffuse Streumedium 27. Im Ergebnis ist die Intensitätsausleuchtung des Sensor-Arrays 61 bei der Erfassung des Entfernungsbereichs 223 aufgrund der im zwischenliegenden Entfernungsbereich 222 vorliegenden Wolke des diffusen Streumediums 27 geschwächt.
- a) The diffuse scattering medium 27 lies within the currently recorded distance range, in the
5 In the case shown, the distance range is 22 2 . In this case, the diffuse scattering medium 27 is the illumination path 31 2 is directly illuminated and a corresponding scattering of the illumination light 8 by the diffuse scattering medium 27 into the sensor array 6 1 is measured during the TOF detection, which leads to an increase in the intensity illumination along the detection path 30 2 . - b) The diffuse scattering medium 27 lies between the flash light source 7 and the sensor array 6 1 on the one hand, and the currently detected distance range, for example the distance range 22 3 , on the other hand. In this case, the illuminating light is attenuated along the flash light path 31 3 when passing through the diffuse scattering medium 27. The illuminating light backscattered from the detection range 22 3 in the direction of the sensor array 6 1 along the detection path 30 3 experiences a further attenuation due to repeated scattering by the diffuse scattering medium 27. As a result, the intensity illumination of the sensor array 6 1 when detecting the distance range 22 3 is attenuated due to the cloud of the diffuse scattering medium 27 present in the intermediate distance range 22 2 .
Eine Kombination einer im Vergleich zur erwarteten konstanten Intensitätsausleuchtung erhöhten Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 222 und einer Verringerung der Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 223 ermöglicht also die Identifikation des diffusen Streumediums 27 innerhalb des Entfernungsbereichs 222.A combination of an increased intensity illumination of the sensor array 6 1 when detecting the distance range 22 2 compared to the expected constant intensity illumination and a reduction in the intensity illumination of the sensor array 6 1 when detecting the distance range 22 3 thus enables the identification of the diffuse scattering medium 27 within the distance range 22 2 .
Bei den vorstehend erläuterten Ausführungen der Bilderfassungs-Vorrichtung 1 beziehungsweise 21 kann eine Pixelempfindlichkeit von Sensorpixeln der verschiedenen Sensor-Arrays 61, ... als Funktion einer einfallenden Lichtintensität, also als Funktion einer Intensitätsausleuchtung, des Sensor-Arrays 61, ... geregelt werden. Es kann insbesondere eine γ-Korrektur bei der Bildverarbeitung mittels des jeweiligen Sensor-Arrays 61, ... erfolgen. Hierbei kann der bei der γ-Korrektur eingesetzte Exponent γ im Bereich zwischen beispielsweise 0,2 und 5 variieren. Je nach Größe von γ kann dann eine Pixelempfindlichkeit zur Anpassung einer hohen Dynamik entweder bei hoher oder bei niedriger Intensitätsausleuchtung des Sensor-Arrays erreicht werden.In the embodiments of the image capture device 1 or 21 explained above, a pixel sensitivity of sensor pixels of the various sensor arrays 6 1 , ... can be controlled as a function of an incident light intensity, i.e. as a function of an intensity illumination, of the sensor array 6 1 , ... In particular, a γ correction can be carried out during image processing using the respective sensor array 6 1 , .... The exponent γ used for the γ correction can vary in the range between, for example, 0.2 and 5. Depending on the value of γ, a pixel sensitivity for adapting a high dynamic range can then be achieved either at high or low intensity illumination of the sensor array.
Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen 22i kann bei bestimmten Betriebsmodi der Erfassungs-Vorrichtung 1 beziehungsweise 21 an einen Bewegungsmodus der Vorrichtung 1 beziehungsweise 21 relativ zur Umgebung angepasst sein. Insbesondere kann der Gesamt-Entfernungsbereich 25 an eine Relativgeschwindigkeit der Vorrichtung 1, 21 zur Umgebung angepasst werden. Auch eine Anpassung an einen Rückwärts- oder Kurvenfahrt-Modus ist möglich.A selection of object distance ranges 22 i to be detected can be adapted to a movement mode of the device 1 or 21 relative to the environment in certain operating modes of the detection device 1 or 21. In particular, the total distance range 25 can be adapted to a relative speed of the device 1, 21 to the environment. Adaptation to a reverse or cornering mode is also possible.
Alternativ oder zusätzlich zum vorstehend mithilfe der
- Über eine entsprechende Zuordnung insbesondere der Blitzbeleuchtungsdauer und der Detektionsdauer wird mithilfe der jeweiligen Vorrichtung 1, 21 mittels des TOF-Prinzips eine TOF-Entfernung des mindestens einen Objekts 2 beziehungsweise 22 bis 24 erfasst. Parallel oder sequenziell hierzu wird mittels der einen Stereokamera 5, ... der Vorrichtung 1, 21 mittels des triangulatorischen Prinzips eine triangulatorische Entfernung des jeweiligen Objekts 2 beziehungsweise 22 bis 24 erfasst. Die Erfassungswerte „TOF-Entfernung“ und „triangulatorische Entfernung“ werden dann bei Betrieb der Vorrichtung 1, 21 abgeglichen.
- By correspondingly assigning, in particular, the flash illumination duration and the detection duration, a TOF distance of the at least one object 2 or 22 to 24 is detected using the TOF principle with the aid of the respective device 1, 21. In parallel or sequentially, a triangulatory distance of the respective object 2 or 22 to 24 is detected using the triangulatory principle using the one stereo camera 5, ... of the device 1, 21. The detection values "TOF distance" and "triangulatory distance" are then compared during operation of the device 1, 21.
Es ist dabei insbesondere möglich, die ermittelte TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung zu nutzen. Dies kann insbesondere die Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann ein bei der Korrespondenzanalyse abzudeckender Disparitätsbereich eingegrenzt werden. Auch der umgekehrte Fall ist möglich, also, dass die triangulatorisch erfasste Entfernung als Eingangsgröße für die Entfernungserfassung mittels des TOF-Prinzips genutzt wird. Dies kann zur Bestimmung beziehungsweise zur Einteilung eines vorgegebenen Gesamt-Entfernungsbereichs in abschnittsweise Entfernungsbereiche 22i genutzt werden sowie zur entfernungsangepassten Vorgabe der TOF-Bilderfassungsparameter.In particular, it is possible to use the determined TOF distance as an input variable for the triangulation acquisition. This can facilitate correspondence analysis during triangulation acquisition. In particular, a disparity range to be covered by the correspondence analysis can be limited. The reverse case is also possible, i.e., the triangulation-determined distance is used as an input variable for distance acquisition using the TOF principle. This can be used to determine or divide a given total distance range into segmented distance ranges 22 i, as well as to specify the TOF image acquisition parameters based on the distance.
Eine Beleuchtungsintensität durch die Blitzlichtquelle 7 kann insbesondere so vorgegeben werden, dass eine gemeinsame und insbesondere skalare Helligkeits-Regelung aller Bilder des Z-Bufferings der ersten
Eine Kalibrierung einer Abhängigkeit einer Beleuchtungsintensität der Blitzlichtquelle von der Entfernung, also einer Beleuchtungsintensitätsfunktion, kann mithilfe eines Kalibrieraufbaus unter Verwendung eines Streumediums mit homogener Streupartikelverteilung erfolgen.A calibration of a dependence of the illumination intensity of the flash light source on the distance, i.e. an illumination intensity function, can be carried out using a calibration setup using a scattering medium with a homogeneous scattering particle distribution.
Die Pixelempfindlichkeit als Funktion der einfallenden Lichtintensität kann in Form einer proportionalen Funktion eingestellt werden oder auch in Form einer nichtlinearen Funktion.The pixel sensitivity as a function of the incident light intensity can be expressed in the form of a proportional tional function or in the form of a non-linear function.
Anhand der
Die Kameras haben jeweils ein Sensor-Array 61, 62, 63 entsprechend dem, was vorstehend im Zusammenhang mit den Ausführungen der Vorrichtungen 1 und 21 bereits erläutert wurde. Bei dem Sensor-Array 6i kann es sich auch um ein CCD-Array handeln.The cameras each have a sensor array 6 1 , 6 2 , 6 3 corresponding to what was already explained above in connection with the embodiments of devices 1 and 21. The sensor array 6 i can also be a CCD array.
Zur Veranschaulichung von Lagebeziehungen wird nachfolgend im Zusammenhang mit der
Die Kameras 51 bis 53 sind im Bereich einer gemeinsamen Kamera-Anordnungsebene, nämlich der xy-Ebene der
Die Kameras 5i sind als Kameras mit einem objektseitigen Öffnungswinkel von höchstens 30° ausgeführt. Randseitige Begrenzungen 351, 352, 353 dieser Öffnungswinkel der jeweiligen Kameras 51, 52 und 53 sind in der
Die Kameras 5i sind insbesondere als Teleobjektiv-Kameras ausgeführt mit einer Brennweite im Bereich von 10 mm.The 5 i cameras are designed as telephoto lens cameras with a focal length in the range of 10 mm.
Zur Durchführung der Kalibrierung der Kameras 51 bis 53 werden drei Kalibrier-Markierungen zur Vorgabe jeweils eines Kalibrier-Markierungspunktes PA, PB und PC ausgewählt. Diese Kalibrier-Markierungspunkte PA, PB und PC sind in verschiedenen Abständen dA, dB und dC zur Kamera-Anordnungsebene xy angeordnet. Bei den Kalibrier-Markierungspunkten PA, PB und PC kann es sich um natürliche, tiefengestaffelte Markierungspunkte einer Szenerie oder auch um künstlich bereitgestellte, tiefengestaffelte Markierungspunkte handeln.To calibrate cameras 51 to 53, three calibration markers are selected to specify a calibration marker point PA , PB, and PC, respectively. These calibration marker points PA , PB , and PC are arranged at different distances dA , dB, and dC from the camera arrangement plane xy. The calibration marker points PA , PB, and PC can be natural, depth-graded marker points of a scene or artificially provided, depth-graded marker points.
Die Kalibrier-Markierungspunkte PA, PB und PC liegen innerhalb aller drei Öffnungswinkel, also innerhalb der jeweiligen Öffnungswinkel-Begrenzungen 351, 352 und 353 der Kameras 51, 52 und 53.The calibration marking points P A , P B and P C lie within all three aperture angles, i.e. within the respective aperture angle limits 35 1 , 35 2 and 35 3 of the cameras 5 1 , 5 2 and 5 3 .
Hinsichtlich insbesondere des Verhältnisses der Abstände dA, dB, dC zu den sonstigen in der
Die Kalibrier-Markierungspunkte PA, PB und PC sind alle auf Höhe der gleichen x- und auch auf Höhe der gleichen y-Koordinate angeordnet. Hinsichtlich einer Übereinstimmung der x- und der y-Koordinaten der Kalibrier-Markierungspunkte PA, PB und PC erfordert das Kalibrierverfahren keine spezifische Genauigkeit. Von Bedeutung ist die Tiefenstaffelung.The calibration marker points PA , PB, and PC are all located at the same x- and y-coordinates. The calibration procedure does not require any specific accuracy regarding the alignment of the x- and y-coordinates of the calibration marker points PA , PB , and PC . The depth gradation is important.
Beispielsweise kann für die Abstände dA, dB und dC gelten: dA= 50 m, dB = 100 m, dC = 200 m.For example, the distances d A , d B and d C can be: d A = 50 m, d B = 100 m, d C = 200 m.
Diese Entfernungs-Tiefenstaffelung entspricht einer typischen Straßenszene vor einem Fahrzeug, welches das zu kalibrierende Kamerasystem trägt.This distance depth gradation corresponds to a typical street scene in front of a vehicle carrying the camera system to be calibrated.
x-Abstände der Kameras zueinander können beispielsweise bei 2 m liegen (b = 2 m). Eine Brennweite der jeweiligen Kamera 5i kann im Bereich von 10 mm liegen. Bei einer typischen Kamera-Pixelgröße, die einem Kamera-Pixelabstand entspricht, im Bereich zwischen 3 µm und 10 µm ergibt sich eine Disparität von beispielsweise 2 mm, was beispielsweise einer Entfernung entspricht, die 200 Pixel der jeweiligen Kamera 5i überstreicht. Die relative Disparität beträgt dann 200 Pixel. Bei der Entfernung dB von 100 m ergibt sich entsprechend eine relative Disparität von 100 Pixel und bei der Entfernung dC = 200 m ergibt sich eine relative Disparität von 50 Pixel.The x-distance between the cameras can, for example, be 2 m (b = 2 m). The focal length of the respective camera 5 i can be in the range of 10 mm. With a typical camera pixel size, which corresponds to a camera pixel pitch, in the range between 3 µm and 10 µm, the result is a disparity of, for example, 2 mm, which corresponds, for example, to a distance covered by 200 pixels of the respective camera 5 i . The relative disparity is then 200 pixels. At a distance d B of 100 m, the result is a relative disparity of 100 pixels, and at a distance d C = 200 m, the result is a relative disparity of 50 pixels.
Die Abstände dA, dB und dC unterscheiden sich jeweils voneinander um mindestens 20 %. Beim nach
Je nach Ausführung des Kalibrierungsverfahrens können auch mehr als drei Kalibrier-Markierungspunkte Pi vorgegeben werden, z. B. vier, fünf, sechs, acht, zehn oder auch nur mehr Kalibrier-Markierungspunkte. Hierüber kann die Genauigkeit der Kalibrierung verbessert werden.Depending on the calibration procedure, more than three calibration marking points P i can be specified, e.g., four, five, six, eight, ten, or even more calibration marking points. This can improve the accuracy of the calibration.
Eine jeweilige Brennweite f der Kamera 5i ist in der
Bei der Anordnung nach
Eintrittspupillen der Kameras 5i, die in der
Mit den Kameras 5i werden im Rahmen des Kalibrierverfahrens die Kalibrier-Markierungspunkte PA, PB und PC abgebildet und in einer Kamera-Bildebene der jeweiligen Kamera 5i, also in der xy-Ebene, erfasst. Dies ist in der
Die Differenzen xi - xk zwischen den jeweiligen x-Koordinaten der Eintrittspupillen der Kamera 5i, 5j sind die Baselines entsprechend der Stereokameras, zu denen diese beiden Kameras 5i, 5j gehören. Diese Differenz xi - xk wird auch als blenik bezeichnet.The differences x i - x k between the respective x-coordinates of the entrance pupils of the cameras 5 i , 5 j are the baselines corresponding to the stereo cameras to which these two cameras 5 i , 5 j belong. This difference x i - x k is also referred to as the baseline .
Ein und derselbe Kalibrier-Markierungspunkt, z. B. der Markierungspunkt PA, wird abhängig vom Abstand dA, abhängig von der Brennweite f und abhängig von der Relation der x-Koordinaten dieses Markierungspunktes PA und der Eintrittspupille der Kamera 5i im Vergleich zu dieser x-Koordinate xi um eine Disparitätsverschiebung uA,i verschoben abgebildet. Diese Disparitätsverschiebungen für die Markierungspunkte PA, PB und PC sind beispielhaft für die Kamera 53 in der
Eine Differenz zwischen den Disparitätsverschiebungen bei der Abbildung jeweils eines der Markierungspunkte durch zwei Kameras 5i und 5k eines Kamerapaars wird also, hier beispielhaft für den Markierungspunkt PA, als Disparitätsdifferenz duA,ik = uA,i - uA, k = A gemessen. Entsprechende Disparitäten B und C ergeben sich bei der Abbildung der Markierungspunkte PB, PC mit der jeweiligen Kamera 51, 52, 53. Diese Disparitätsdifferenzen werden auch einfach als Disparitäten bezeichnet.A difference between the disparity shifts when imaging each of the marking points by two cameras 5 i and 5 k of a camera pair is thus measured, here as an example for the marking point P A , as the disparity difference du A,ik = u A,i - u A, k = A. Corresponding disparities B and C result when imaging the marking points P B , P C with the respective camera 5 1 , 5 2 , 5 3 . These disparity differences are also simply referred to as disparities.
Bei der Durchführung des Kalibrierungsverfahrens wird für jede Paarung i und k von zwei der Kameras, 5i, 5k, die Disparitätsdifferenz duA,ik (= uA,i - uA,k), duB,ik und duC,ik der Abbildung des jeweiligen Kalibrier-Markierungs-Bildpunktes in der Kamera-Bildebene xy gemessen. Es ergeben sich insgesamt neun gemessene Disparitäten du für die drei Markierungspunkte PA, PB, PC und die drei möglichen Kamera-Paarungen 5ik, nämlich 512, 513 und 523.When performing the calibration procedure , the disparity difference du A,ik (= u A,i - u A,k ), du B,ik and du C,ik of the image of the respective calibration marker pixel in the camera image plane xy is measured for each pairing i and k of two of the cameras, 5 i , 5 k . This results in a total of nine measured disparities du for the three marker points P A , P B , P C and the three possible camera pairings 5 ik , namely 5 12 , 5 13 and 5 23 .
Da die Kamera 52 bei exakt der gleichen x-Koordinate x2 angeordnet ist wie die drei Kalibrier-Markierungspunkte PA, PB, PC, ergibt sich bei der Abbildung dieser Kalibrier-Markierungspunkte PA, PB, PC durch die Kamera 52, dass dort keine x-Abstände der Kalibrier-Markierungs-Bildpunkte von dieser x-Koordinate x2 vorliegen, so dass die Kamera 52 definitionsgemäß Disparitätsverschiebungswerte uA, 2, uB, 2 und uC, 2 = 0 aufweist.Since the camera 5 2 is arranged at exactly the same x-coordinate x 2 as the three calibration marking points P A , P B , P C , the imaging of these calibration marking points P A , P B , P C by the camera 5 2 results in there being no x-distances of the calibration marking pixels from this x-coordinate x 2 , so that the camera 5 2 has, by definition, disparity shift values u A, 2 , u B , 2 and u C , 2 = 0.
Aus der Stereo-Abbildungsformel ergibt sich:
Aufgelöst nach der Disparität du ergibt dies beispielsweise für den Kalibrier-Markierungspunkt PA und die Kameras 5i und 5k:
Die drei Kameras 51, 52 und 53 liegen nicht perfekt in der Kamera-Anordnungsebene xy, sondern es gibt Abweichungen hiervon, aufgrund derer die Kalibrierung vorgenommen wird. Diese Abweichungen können analog zur Beschreibung einer Schiffsbewegung, durch einen Nickwinkel, einen Rollwinkel und einen Gierwinkel des Kamerasystems mit den Kameras 51 bis 63 im Vergleich zur Anordnungsebene xy bzw. durch ein entsprechendes Nicken, Rollen und Gieren jeder dieser Kameras 51 bis 53 einzeln beschrieben werden.The three cameras 5 1 , 5 2 , and 5 3 are not perfectly aligned within the camera alignment plane xy; rather, there are deviations from this, which are the basis for calibration. These deviations can be described, analogous to the description of a ship's motion, by a pitch angle, a roll angle, and a yaw angle of the camera system with cameras 5 1 to 6 3 relative to the alignment plane xy, or by a corresponding pitch, roll, and yaw of each of these cameras 5 1 to 5 3 individually.
Ein entsprechender Lagefehler kann in der Stereo-Abbildungsbeschreibung der obigen Gleichungen durch Aufnahme eines auf die Brennweite normierten Kippfehlers δui - δuk, also einer relativen Verkippung zwischen Kameras 5i, 5k jeweils eines der Kamerapaare berücksichtigt werden. Aus obiger Gleichung (II) ergibt sich dann, wiederum beispielhaft für den Kalibrier-Markierungspunkt PA und die Kameras 5i und Sk:
Die linke Seite von obiger Gleichung (III) ist, was die Disparität angeht, durch Messung und was die Kamera-Brennweite angeht, durch Vorab-Kalibrierung bekannt.The left side of equation (III) above is known by measurement for disparity and by pre-calibration for camera focal length.
Es ergeben sich für die drei Kalibrier-Markierungspunkte PA, PB und PC und die insgesamt drei möglichen Kamera-Paarungen 512, 513 und 523 insgesamt neun Gleichungen des obigen Typs (III) mit neun Unbekannten, nämlich die jeweiligen x-Koordinaten x1, x2, x3 der Eintrittspupillen O1, O2 und O3 der drei Kameras 51, 52, 53, die jeweiligen Rotationsfehler δu1, δu2 und δu3 und die z-Abstände dA, dB, dC der Kalibrier-Markierungspunkte PA, PB und PC.For the three calibration marking points P A , P B and P C and the three possible camera pairings 5 12 , 5 13 and 5 23 , a total of nine equations of the above type (III) with nine unknowns result, namely the respective x-coordinates x 1 , x 2 , x 3 of the entrance pupils O 1 , O 2 and O 3 of the three cameras 5 1 , 5 2 , 5 3 , the respective rotation errors ler δu 1 , δu 2 and δu 3 and the z-distances d A , d B , d C of the calibration marking points P A , P B and P C .
Nach erfolgter Messung der Disparitäten ist es also anhand der zusätzlich bekannten Kamera-Brennweiten f möglich, diese x-Koordinaten, die Rotationsfehler und die Abstände der Kalibrier-Markierungspunkte zu bestimmen.After measuring the disparities, it is possible to determine these x-coordinates, the rotation errors and the distances of the calibration marking points using the additionally known camera focal lengths f.
Im Rahmen des Betriebs der Vorrichtung 1 beziehungsweise 21 können nach erfolgter Kalibrierung der Kameras ausgewählte Objekte 2 beziehungsweise 22 bis 24 nachverfolgt beziehungsweise getrackt werden. Sobald eines der Objekte 2 beziehungsweise 22 bis 24 im Rahmen der triangulatorischen Entfernungserfassung und/oder im Rahmen der TOF-Entfernungserfassung erfasst wurde, können insbesondere die TOF-Bilderfassungsparameter, aber auch die triangulatorischen Bilderfassungsparameter (zum Beispiel die Länge der Baseline einer jeweils ausgewählten Stereokamera, eine Objektivbrennweite der Kameras der jeweiligen Stereokamera oder ein zu überwachender Disparitätsbereich) so vorgegeben werden, dass das einmal erfasste Objekt auch bei nachfolgenden Bilderfassungen wiederum erfasst wird. Hierbei kann eine Relativbewegung des jeweils erfassten Objekts zur Vorrichtung 1 beziehungsweise 21 berücksichtigt werden, sodass beispielsweise dann, wenn zu erwarten ist, dass sich Objekt und Vorrichtung einander annähern, beim Nachverfolgen die Entfernung des jeweils ausgewählten Entfernungsbereichs 22i bei der TOF-Erfassung jeweils reduziert wird. Eine Lichtintensität der Blitzlichtquelle kann auf einen Entfernungsbereich des jeweils nachzuverfolgenden Objekts abgestimmt und insbesondere geregelt werden.During operation of the device 1 or 21, after the cameras have been calibrated, selected objects 2 or 22 to 24 can be tracked or tracked. As soon as one of the objects 2 or 22 to 24 has been detected as part of the triangulatory distance detection and/or as part of the TOF distance detection, the TOF image detection parameters in particular, but also the triangulatory image detection parameters (for example, the length of the baseline of a respectively selected stereo camera, a lens focal length of the cameras of the respective stereo camera, or a disparity range to be monitored) can be specified such that the object detected once is also detected again in subsequent image acquisitions. In this case, a relative movement of the respectively detected object to the device 1 or 21 can be taken into account, so that, for example, if it is expected that the object and the device will approach each other, the distance of the respectively selected distance range 22 i is reduced during tracking in the TOF detection. The light intensity of the flash light source can be adjusted and, in particular, controlled to a distance range of the object to be tracked.
Je nach dem Betriebsverfahren der Vorrichtung 1, 21 kann genau ein Objekt nachverfolgt werden oder es können auch mehrere Objekte gleichzeitig nachverfolgt werden.Depending on the operating method of the device 1, 21, exactly one object can be tracked or several objects can be tracked simultaneously.
Soweit mindestens ein Objekt getrackt wird, kann intermittierend eine Tracking-Erfassung des mindestens einen getrackten Objekts und ein Scan über den Gesamt-Entfernungsbereich 25 erfolgen, was die Erfassungssicherheit insgesamt bei vertretbarem Erfassungsaufwand erhöht.If at least one object is tracked, a tracking detection of the at least one tracked object and a scan over the entire distance range 25 can be carried out intermittently, which increases the overall detection reliability with a reasonable detection effort.
Die Bilderfassungsparameter können bei der TOF-Erfassung mehrerer Entfernungsbereiche 22i, 22i+1 so abgestimmt werden, dass eine Detektion über die jeweilige Kamera während genau eines Detektionszeitraums (gleicher Detektionsbeginn, gleiche Detektionsdauer) für diese Entfernungsbereiche 22i, 22i+1 erfolgt. Im Extremfall kann dies für alle Entfernungsbereiche 22i innerhalb des Gesamt-Entfernungsbereichs 25 gelten.The image acquisition parameters can be adjusted for TOF detection of multiple distance ranges 22 i , 22 i+1 such that detection via the respective camera occurs during exactly one detection period (same detection start, same detection duration) for these distance ranges 22 i , 22 i+1 . In extreme cases, this can apply to all distance ranges 22 i within the total distance range 25.
Beim Nachverfolgen von Objekten kann insbesondere die Erstreckung des jeweiligen Entfernungsbereichs 22i, in dem das Objekt erwartet wird, über eine entsprechende Anpassung einer Blitzbeleuchtungsdauer erfolgen. Zur genaueren Nachverfolgung von Objekten können kürzere Blitzbeleuchtungsdauern sowie kürzere Detektionsdauern mit entsprechender Erhöhung der Entfernungsgenauigkeit bei der TOF-Entfernungsbestimmung vorgegeben werden.When tracking objects, the extent of the respective distance range 22 i in which the object is expected can be determined by adjusting the flash illumination duration accordingly. For more precise object tracking, shorter flash illumination durations and shorter detection durations can be specified, resulting in a corresponding increase in distance accuracy for TOF distance determination.
Die Vorrichtung 1 kann ein neuronales Netz beziehungsweise ein KI-Modul beinhalten, welches zum Training des jeweiligen Betriebsverfahrens und zur entsprechenden Verbesserung einer Bilderkennung genutzt werden kann.The device 1 can contain a neural network or an AI module, which can be used to train the respective operating procedure and to improve image recognition accordingly.
Claims (15)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024206379.7A DE102024206379B3 (en) | 2024-07-05 | 2024-07-05 | Procedure for calibrating a camera system |
| PCT/EP2025/068850 WO2026008709A1 (en) | 2024-07-05 | 2025-07-02 | Method for calibrating a camera system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024206379.7A DE102024206379B3 (en) | 2024-07-05 | 2024-07-05 | Procedure for calibrating a camera system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102024206379B3 true DE102024206379B3 (en) | 2025-10-23 |
Family
ID=96429535
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102024206379.7A Active DE102024206379B3 (en) | 2024-07-05 | 2024-07-05 | Procedure for calibrating a camera system |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102024206379B3 (en) |
| WO (1) | WO2026008709A1 (en) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012095258A1 (en) * | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| DE102011080702B3 (en) * | 2011-08-09 | 2012-12-13 | 3Vi Gmbh | Object detection device for a vehicle, vehicle having such an object detection device |
| US20150296200A1 (en) * | 2012-07-09 | 2015-10-15 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20190056498A1 (en) * | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| DE102018213976A1 (en) * | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| US20190158813A1 (en) * | 2016-06-10 | 2019-05-23 | Lucid VR, Inc. | Real Time Re-Calibration of Stereo Cameras |
| WO2022069425A2 (en) * | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| WO2022069424A1 (en) * | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| US20220174255A1 (en) * | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) * | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200160548A1 (en) * | 2018-11-16 | 2020-05-21 | Electronics And Telecommunications Research Institute | Method for determining disparity of images captured multi-baseline stereo camera and apparatus for the same |
-
2024
- 2024-07-05 DE DE102024206379.7A patent/DE102024206379B3/en active Active
-
2025
- 2025-07-02 WO PCT/EP2025/068850 patent/WO2026008709A1/en active Pending
Patent Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012095258A1 (en) * | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| US9451237B2 (en) * | 2011-01-12 | 2016-09-20 | Myestro Interactive Gmbh | Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera |
| DE102011080702B3 (en) * | 2011-08-09 | 2012-12-13 | 3Vi Gmbh | Object detection device for a vehicle, vehicle having such an object detection device |
| WO2013020872A1 (en) * | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
| US20150296200A1 (en) * | 2012-07-09 | 2015-10-15 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20190056498A1 (en) * | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| US20190158813A1 (en) * | 2016-06-10 | 2019-05-23 | Lucid VR, Inc. | Real Time Re-Calibration of Stereo Cameras |
| DE102018213976A1 (en) * | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| WO2022069425A2 (en) * | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| WO2022069424A1 (en) * | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| US20220174255A1 (en) * | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) * | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
Non-Patent Citations (1)
| Title |
|---|
| SWEDISH, Tristan ; BAUER, Sebastian: Beyond the line of sight? What's new in optical perception. In: AUVSI XPONENTIAL 2022, 2022, S. 1-8. - ISBN 978-1-7138-5223-0 (e). URL: https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_1.pdf [abgerufen am 2023-08-25]. * |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2026008709A1 (en) | 2026-01-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
| EP3014569B1 (en) | Inspection of the contoured surface of the underbody of a motor vehicle | |
| CH692873A5 (en) | Device and method for the geometric calibration of CCD cameras. | |
| EP3593190B1 (en) | 3d microscopy | |
| DE102017010683A1 (en) | Method for automatic restoration of a measured state of a projection system | |
| WO2022002719A1 (en) | Device and method for detecting the surroundings of a vehicle | |
| DE102022103294B4 (en) | Calibration method for a headlight device of a motor vehicle | |
| WO2023041706A1 (en) | Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source | |
| WO2009018894A1 (en) | Method and device for determining geometric data of a measured object | |
| DE102023205343A1 (en) | Device for spatial image capture of an environment moving relative to the device and operating method therefor | |
| DE102024206379B3 (en) | Procedure for calibrating a camera system | |
| DE102017113194B4 (en) | Method for tracking a plurality of point-shaped objects in space | |
| WO2020257839A1 (en) | Camera system | |
| WO2025113959A1 (en) | Method for capturing a scene comprising a phase object | |
| WO2017162329A1 (en) | Method and apparatus for determining 3d coordinates of at least one predetermined point of an object | |
| DE102022002766B4 (en) | Method for three-dimensional reconstruction of a vehicle environment | |
| DE102016109131B4 (en) | Method for the three-dimensional detection of an object | |
| WO2024032971A1 (en) | Device and method for measuring three-dimensional virtual images and objects on a head-up display | |
| CH697319B1 (en) | Method and apparatus for geometric calibration of optoelectronic measuring cameras. | |
| DE60110341T2 (en) | Arrangement and method for distance measurement | |
| DE10301094B4 (en) | Device for measuring the distance of distance points to a camera | |
| WO2018054888A1 (en) | Method and device for the stereo photogrammetric measurement of different objects | |
| EP3556088B1 (en) | Method and device for determining intersections between two overlapping images of a surface | |
| DE102024001248B4 (en) | Method for controlling a lighting device of a motor vehicle and lighting system | |
| DE102024004340B3 (en) | Method for determining a slipstream area behind a vehicle ahead, computer program product, driver assistance system and motor vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division |