DE102023130929B3 - Method for fusing camera images and vehicle - Google Patents
Method for fusing camera images and vehicle Download PDFInfo
- Publication number
- DE102023130929B3 DE102023130929B3 DE102023130929.3A DE102023130929A DE102023130929B3 DE 102023130929 B3 DE102023130929 B3 DE 102023130929B3 DE 102023130929 A DE102023130929 A DE 102023130929A DE 102023130929 B3 DE102023130929 B3 DE 102023130929B3
- Authority
- DE
- Germany
- Prior art keywords
- camera
- vehicle
- cameras
- images
- inertial measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8046—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Fusionieren von Kamerabildern (B) mehrerer zumindest teilweise relativ zueinander beweglicher Kameras (4, 5), wobei jeder unabhängig beweglichen Kamera (4, 5) oder jeder Gruppe gemeinsam beweglicher Kameras (4, 5) mindestens eine Inertialmesseinheit (6) zugeordnet und mit dieser gemeinsam beweglich ist, wobei in einer Lernphase Beschleunigungsdaten (A) der Inertialmesseinheiten (6) zusammen mit Kamerabildern (B) der zugeordneten Kameras (4, 5) erfasst werden, eine Homografiematrix berechnet und gespeichert wird, wobei aus der Homografiematrix eine Look-up-Table erstellt wird, wobei in einer Online-Phase die Look-up-Table für bestimmte von den Inertialmesseinheiten (6) ermittelte Beschleunigungswerte (A) und von den zugeordneten Kameras (4, 5) erfasste Kamerabilder (B) abgerufen wird und Homografiematrizen liefert, um fusionierte Bilder zu berechnen. The invention relates to a method for fusing camera images (B) from a plurality of cameras (4, 5) that are at least partially movable relative to one another, wherein each independently movable camera (4, 5) or each group of jointly movable cameras (4, 5) is assigned at least one inertial measuring unit (6) and is movable together with it, wherein in a learning phase acceleration data (A) of the inertial measuring units (6) are recorded together with camera images (B) of the assigned cameras (4, 5), a homography matrix is calculated and stored, a look-up table is created from the homography matrix, wherein in an online phase the look-up table is called up for certain acceleration values (A) determined by the inertial measuring units (6) and camera images (B) captured by the assigned cameras (4, 5) and provides homography matrices in order to calculate fused images.
Description
Die Erfindung betrifft ein Verfahren zum Fusionieren von Kamerabildern gemäß dem Oberbegriff des Anspruchs 1 sowie ein Fahrzeug gemäß dem Oberbegriff des Anspruchs 3.The invention relates to a method for fusing camera images according to the preamble of
Die Fusion (Stitching) von mehreren Kamerabildern von Fahrzeugkameras ist komplex, wenn sich die Kamerapositionen zueinander über die Zeit verschieben können.The fusion (stitching) of multiple camera images from vehicle cameras is complex if the camera positions may shift relative to each other over time.
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zum Fusionieren von Kamerabildern sowie ein neuartiges Fahrzeug anzugeben.The invention is based on the object of specifying a novel method for merging camera images and a novel vehicle.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Fusionieren von Kamerabildern mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrzeug mit den Merkmalen des Anspruchs 3.The object is achieved according to the invention by a method for fusing camera images with the features of
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
Es wird ein Verfahren zum Fusionieren von Kamerabildern mehrerer zumindest teilweise relativ zueinander beweglicher Kameras vorgeschlagen. Darunter können zwei oder mehr relativ zueinander beweglicher Kameras verstanden werden. Ebenso können zwei oder mehr Kameras zu einer Gruppe zusammengefasst sein, wobei die Kameras innerhalb einer Gruppe untereinander unbeweglich, jedoch beweglich gegenüber einer weiteren Kamera oder einer weiteren Gruppe von Kameras sind.A method is proposed for merging camera images from several cameras that are at least partially movable relative to one another. This can be understood as two or more cameras that are movable relative to one another. Likewise, two or more cameras can be combined into a group, with the cameras within a group being immobile relative to one another but movable relative to another camera or another group of cameras.
Erfindungsgemäß ist jeder unabhängig beweglichen Kamera oder jeder Gruppe gemeinsam beweglicher Kameras mindestens eine Inertialmesseinheit zugeordnet und mit dieser gemeinsam beweglich, wobei in einer Lernphase Beschleunigungsdaten der Inertialmesseinheiten zusammen mit Kamerabildern der zugeordneten Kameras erfasst werden, eine Homografiematrix berechnet und gespeichert wird, wobei aus der Homografiematrix eine Look-up-Table erstellt wird, wobei in einer Online-Phase die Look-up-Table für bestimmte von den Inertialmesseinheiten ermittelte Beschleunigungswerte und von den zugeordneten Kameras erfasste Kamerabilder abgerufen wird und Homografiematrizen liefert, um fusionierte Bilder zu berechnen.According to the invention, at least one inertial measuring unit is assigned to each independently movable camera or to each group of jointly movable cameras and is jointly movable with this, wherein in a learning phase acceleration data of the inertial measuring units are recorded together with camera images of the assigned cameras, a homography matrix is calculated and stored, wherein a look-up table is created from the homography matrix, wherein in an online phase the look-up table is called up for certain acceleration values determined by the inertial measuring units and camera images recorded by the assigned cameras and homographs fiematrices to calculate fused images.
In einer Ausführungsform ist mindestens eine der Kameras als eine Spiegelersatzkamera an einer Kabine eines Fahrzeugs ausgebildet, wobei mindestens eine weitere der Kameras als eine Rückfahrkamera an einem Chassis des Fahrzeugs ausgebildet ist, wobei die Kabine relativ zum Chassis beweglich ist.In one embodiment, at least one of the cameras is designed as a mirror replacement camera on a cabin of a vehicle, wherein at least one further of the cameras is designed as a rear view camera on a chassis of the vehicle, wherein the cabin is movable relative to the chassis.
Gemäß einem Aspekt der vorliegenden Erfindung wird ein Fahrzeug vorgeschlagen, umfassend ein Chassis und eine relativ zum Chassis bewegliche Kabine, wobei an der Kabine mindestens eine Spiegelersatzkamera und mindestens eine Inertialmesseinheit angeordnet ist, wobei am Chassis mindestens eine Rückfahrkamera und mindestens eine Inertialmesseinheit angeordnet ist. Das Fahrzeug weist eine Steuereinheit auf, die zur Durchführung des oben beschriebenen Verfahrens konfiguriert ist.According to one aspect of the present invention, a vehicle is proposed, comprising a chassis and a cabin that is movable relative to the chassis, wherein at least one mirror replacement camera and at least one inertial measuring unit are arranged on the cabin, wherein at least one rear view camera and at least one inertial measuring unit are arranged on the chassis. The vehicle has a control unit that is configured to carry out the method described above.
In einer Ausführungsform ist das Fahrzeug als Nutzfahrzeug oder Bus ausgebildet.In one embodiment, the vehicle is designed as a commercial vehicle or bus.
Ferner kann das Fahrzeug als ein autonomes oder teilautonomes Fahrzeug ausgebildet sein.Furthermore, the vehicle can be designed as an autonomous or semi-autonomous vehicle.
Gemäß der kann durch Berücksichtigung von Beschleunigungsdaten, die durch mindestens eine Inertialmesseinheit ermittelt werden, und anhand der Kenntnis über den Einfluss bestimmter Beschleunigungen auf das Verhältnis der Überlappung der Kamerabilder die Berechnung für das Fusionieren der Kamerabilder beschleunigt werden. According to the, by taking into account acceleration data determined by at least one inertial measurement unit and by knowing the influence of certain accelerations on the ratio of the overlap of the camera images, the calculation for merging the camera images can be accelerated.
Durch das erfindungsgemäße Verfahren muss keine Online-Bildverarbeitung und - berechnung durchgeführt werden, um dynamisch Bilder zu fusionieren. Stattdessen werden historische Daten aus dem Wertebereich genutzt.The method according to the invention eliminates the need for online image processing and calculation to dynamically fuse images. Instead, historical data from the value range is used.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 eine schematische Ansicht eines Nutzfahrzeugs mit einer Zugmaschine und einem Auflieger oder Anhänger, und -
2 eine schematische Ansicht eines Verfahrens zum Fusionieren von Kamerabildern mehrerer Kameras
-
1 a schematic view of a commercial vehicle with a tractor and a semitrailer or trailer, and -
2 a schematic view of a method for merging camera images from multiple cameras
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numerals in all figures.
Für das Fusionieren mehrere Kamerabilder B mit überlappendem Bildausschnitt ist bei statischem Verhältnis der Positionen der Kameras 4, 5 eine einmalige Berechnung der Überlagerung und Homografiematrix notwendig.For merging several camera images B with overlapping image sections, a one-time calculation of the superposition and homography matrix is necessary if the ratio of the positions of
In einem beweglichen System mit dynamischen Positionen der Kameras 4, 5 (beispielsweise der Position einer Spiegelersatzkamera 4 an einer luftgefederten Kabine 7 relativ zur Position einer Rückfahrkamera 5 am Chassis 8) kann keine pauschale Berechnung genutzt werden. Durch Bewegung des Fahrzeugs 1 kann die Kabine 7 sich aufgrund der Beschleunigungen im Verhältnis zum Chassis 8 unterschiedlich bewegen. Überlappende Bildausschnitte zwischen der Kamerabildern B der Kameras 4, 5 sind somit ebenfalls dynamisch und es wird daher erhöhter Rechenaufwand für das Fusionieren benötigt.In a moving system with dynamic positions of the cameras 4, 5 (for example the position of a mirror replacement camera 4 on an air-sprung cabin 7 relative to the position of a
Gemäß der vorliegenden Erfindung wird vorgeschlagen, durch Berücksichtigung von Beschleunigungsdaten A, die durch mindestens eine Inertialmesseinheit 6 ermittelt werden, und anhand der Kenntnis über den Einfluss bestimmter Beschleunigungen auf das Verhältnis der Überlappung der Kamerabilder B die Berechnung für das Fusionieren der Kamerabilder B zu beschleunigen.According to the present invention, it is proposed to accelerate the calculation for merging the camera images B by taking into account acceleration data A determined by at least one inertial measuring unit 6 and based on the knowledge of the influence of certain accelerations on the ratio of the overlap of the camera images B.
Das Fusionieren (Stitchen) von Bildern erfolgt über die Ermittlung von Interest Points in mehreren Bildern. Diese verschiedenen Interest Points werden verglichen und übereinander gelegt, wobei anschließend eine Transformation berechnet wird (siehe z.B.
Dabei können in einer Lernphase in einem Schritt S1 historische Daten der Beschleunigungsdaten A der Inertialmesseinheiten 6 zusammen mit den Kamerabildern B oder Bildausschnitten erfasst werden, insbesondere über den gesamten Wertebereich. Hieraus kann in einem Schritt S2 einmalig eine Homografiematrix berechnet und in einem Schritt S3 gespeichert werden. Dabei entsteht in einem Schritt S4 eine Look-up-Table, die in einer Online-Phase in einem Schritt S5 für bestimmte von den Inertialmesseinheiten 6 ermittelte Beschleunigungswerte A und Kamerabilder B abgerufen werden kann und Homografiematrizen liefert, um in einem Schritt S6 die fusionierten Bilder zu berechnen. Dabei werden zwei Bilder nach einer Transformation zu einem einzigen Bild zusammengeführt. Der rechenintensive Teil der Bildverarbeitung erfolgt somit einmalig in der Lernphase und ist übertragbar auf viele Fahrzeuge. Beispielsweise können die Schritte S1 bis S4 während der Entwicklung des Fahrzeugs 1 erfolgen. Dies hat zudem den Vorteil, dass Verwaschungen durch frühzeitige Berücksichtigung der Beschleunigungsdaten A reduziert werden können.In a learning phase in a step S1, historical data of the acceleration data A of the inertial measurement units 6 can be recorded together with the camera images B or image sections, in particular over the entire value range. From this, a homography matrix can be calculated once in a step S2 and saved in a step S3. In a step S4, a look-up table is created which can be called up in an online phase in a step S5 for certain acceleration values A and camera images B determined by the inertial measurement units 6 and provides homography matrices in order to calculate the fused images in a step S6. Two images are merged into a single image after a transformation. The computationally intensive part of the image processing thus takes place once in the learning phase and can be transferred to many vehicles. For example, steps S1 to S4 can take place during the development of
Der oben erwähnte Wertebereich ergibt sich aus möglichen extremen Kamera-Positionen, z.B. bei komplett eingefedertem Fahrerhaus und bei komplett ausgefedertem Fahrerhaus. In diesem Wertebereich wird eine optimale Homografiematrix über Optimierungen berechnet. Wenn bekannt ist, wo die Kameras relativ zueinander stehen, dann kann in einem eingeschränkten Wertebereich eine Optimierung durchgeführt werden. Wenn die genaue Position bekannt ist, dann kann eine für diese Position schon bekannte Homografiematrix ohne Optimierung direkt verwendet werden.The value range mentioned above results from possible extreme camera positions, e.g. with the driver's cab completely compressed and with the driver's cab completely extended. In this value range, an optimal homography matrix is calculated using optimizations. If it is known where the cameras are in relation to each other, then an optimization can be carried out in a limited value range. If the exact position is known, then a homography matrix that is already known for this position can be used directly without optimization.
Die Look-up-Table weist einen Input und einen Output auf, wobei der Input durch Position (oder Veränderung der relativen Position) der beiden Kameras basierend auf Beschleunigungsdaten (integriert) gebildet wird. Der Output ist die entsprechende Homografiematrix.The look-up table has an input and an output, where the input is formed by the position (or change in the relative position) of the two cameras based on acceleration data (integrated). The output is the corresponding homography matrix.
Claims (4)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023130929.3A DE102023130929B3 (en) | 2023-11-08 | 2023-11-08 | Method for fusing camera images and vehicle |
| PCT/EP2024/080889 WO2025098882A1 (en) | 2023-11-08 | 2024-10-31 | Method for fusing camera images, and vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023130929.3A DE102023130929B3 (en) | 2023-11-08 | 2023-11-08 | Method for fusing camera images and vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023130929B3 true DE102023130929B3 (en) | 2025-02-06 |
Family
ID=93431891
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023130929.3A Active DE102023130929B3 (en) | 2023-11-08 | 2023-11-08 | Method for fusing camera images and vehicle |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102023130929B3 (en) |
| WO (1) | WO2025098882A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102013209156A1 (en) | 2013-05-16 | 2014-12-04 | Continental Automotive Gmbh | A camera with a housing for use in a motor vehicle surround view system and method for calibrating and monitoring the calibration of such a camera |
| US20170341583A1 (en) | 2016-05-27 | 2017-11-30 | GM Global Technology Operations LLC | Systems and methods for towing vehicle and trailer with surround view imaging devices |
| DE102019202269A1 (en) | 2019-02-20 | 2020-08-20 | Continental Automotive Gmbh | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
| US20210179172A1 (en) | 2019-12-16 | 2021-06-17 | GM Global Technology Operations LLC | Method and apparatus for determining a trailer hitch articulation angle in a motor vehicle |
| DE102022213225A1 (en) | 2022-07-20 | 2024-01-25 | Continental Automotive Technologies GmbH | Camera system, vehicle and procedures |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102021106988A1 (en) * | 2021-03-22 | 2022-09-22 | Conti Temic Microelectronic Gmbh | Method and system for determining a vehicle's own motion information |
| DE102021107904A1 (en) * | 2021-03-29 | 2022-09-29 | Conti Temic Microelectronic Gmbh | Method and system for determining ground level with an artificial neural network |
-
2023
- 2023-11-08 DE DE102023130929.3A patent/DE102023130929B3/en active Active
-
2024
- 2024-10-31 WO PCT/EP2024/080889 patent/WO2025098882A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102013209156A1 (en) | 2013-05-16 | 2014-12-04 | Continental Automotive Gmbh | A camera with a housing for use in a motor vehicle surround view system and method for calibrating and monitoring the calibration of such a camera |
| US20170341583A1 (en) | 2016-05-27 | 2017-11-30 | GM Global Technology Operations LLC | Systems and methods for towing vehicle and trailer with surround view imaging devices |
| DE102019202269A1 (en) | 2019-02-20 | 2020-08-20 | Continental Automotive Gmbh | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
| US20210179172A1 (en) | 2019-12-16 | 2021-06-17 | GM Global Technology Operations LLC | Method and apparatus for determining a trailer hitch articulation angle in a motor vehicle |
| DE102022213225A1 (en) | 2022-07-20 | 2024-01-25 | Continental Automotive Technologies GmbH | Camera system, vehicle and procedures |
Non-Patent Citations (1)
| Title |
|---|
| https://courses.cs.washington.edu/courses/cse576/16sp/Slides/10_ImageStitching.pdf |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2025098882A1 (en) | 2025-05-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102015107677B4 (en) | Surround View Camera System (VPM) online calibration | |
| EP3024700B1 (en) | Method and device for reproducing a lateral and/or rear surrounding area of a vehicle | |
| DE102008045436A1 (en) | Method for determining inclination angle between tractor and trailer for e.g. lorry, involves automatically determining inclination angle based on comparison of detected image with reference images and reference image inclination angle | |
| DE102015107675A9 (en) | System and method for estimating vehicle dynamics using feature points in images from multiple cameras | |
| DE102015214611A1 (en) | Method and device for displaying an environmental scene of a vehicle combination | |
| DE102015107678A1 (en) | Surround View Camera System (VPM) and Vehicle Dynamics | |
| DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
| DE102021207558B4 (en) | Camera system and method for generating a 3D view with a camera system | |
| DE112017001841T5 (en) | DEVICE FOR DETECTING AN ASSEMBLY ANGLE FOR A VEHICLE-INNER CAMERA, DEVICE FOR CALIBRATING AN ASSEMBLY ANGLE, AND METHOD FOR DETECTING A MOUNTING ANGLE | |
| DE102004028763A1 (en) | Andockassistent | |
| DE102011113197A1 (en) | Method for determining angle between towing vehicle and trailer, involves evaluating image by image evaluation unit, where angle between towing vehicle and trailer is determined based on image evaluation | |
| DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
| DE112016000689T5 (en) | Kameraparametereinstellvorrichtung | |
| DE102019122086A1 (en) | Driver assistance for a combination | |
| EP4308418B1 (en) | Method and environment-capture system for producing an environmental image of an entire multi-part vehicle | |
| DE102018122054A1 (en) | Control system and control device for moving a vehicle into a target position, and vehicle therefor | |
| DE102013103953A1 (en) | Method for recognizing vehicle traveling lane, involves determining whether boundary line representations are rectilinear within threshold, and using model matching method to identify boundary lines in every frame if threshold is met | |
| DE102013103952A1 (en) | Method for recognizing lane on road surface in which vehicle drives, involves utilizing model adjustment method to identify boundary lines in plan view image when time condition- and spatial condition threshold levels are met | |
| WO2018188700A1 (en) | Surround view system for a vehicle | |
| DE102007016055A1 (en) | Vehicle i.e. car, surroundings monitoring device for e.g. assisting view of driver, has top view video transformation unit transforming video that is recorded by imaging unit into top view video, and display displaying top view video | |
| DE102023130929B3 (en) | Method for fusing camera images and vehicle | |
| DE102017201620B4 (en) | Device and method for automated, semi-automated or assisted maneuvering of a motor vehicle | |
| EP3743311B1 (en) | Method and device for operating a video monitoring system for a motor vehicle | |
| EP2603403A1 (en) | Method for displaying images on a display device in a motor vehicle, driver assistance system, and motor vehicle | |
| DE102021208819A1 (en) | Method for determining a kink angle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |