[go: up one dir, main page]

WO2025031546A1 - Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle - Google Patents

Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle Download PDF

Info

Publication number
WO2025031546A1
WO2025031546A1 PCT/DE2024/200080 DE2024200080W WO2025031546A1 WO 2025031546 A1 WO2025031546 A1 WO 2025031546A1 DE 2024200080 W DE2024200080 W DE 2024200080W WO 2025031546 A1 WO2025031546 A1 WO 2025031546A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
vehicle
image
image data
surroundings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/DE2024/200080
Other languages
German (de)
French (fr)
Inventor
Markus Friebe
Deepanshu Makkar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aumovio Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Publication of WO2025031546A1 publication Critical patent/WO2025031546A1/en
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the invention relates to a method for generating an environmental representation representing a vehicle environment.
  • the invention also relates to a control device, a driver assistance system and a vehicle.
  • Modern vehicles are increasingly being equipped with driver assistance systems that support the driver in carrying out driving maneuvers by displaying a view of the surroundings.
  • Such environmental views can, for example, be so-called surround view displays, which show at least part of the vehicle's surroundings.
  • Such an environmental view is usually generated on the basis of camera images recorded using one or more of the vehicle's cameras.
  • the representation of the surrounding area can be based on a virtual camera position that differs from the actual arrangement position of the cameras on the vehicle.
  • the camera images can be projected onto a virtual projection surface, for example, whereby the projection surface is used to determine a view of the surroundings from a different point of view.
  • the projection surface is used to determine a view of the surroundings from a different point of view.
  • DE 10 2015 223 176 A1 discloses a driver assistance system for a vehicle with environmental sensors that use sensors to detect the vehicle's surroundings.
  • the sensor data from the environmental sensors is evaluated to detect obstacles in the vehicle's surroundings, and masking areas in the vehicle's surroundings are determined depending on the obstacles detected.
  • the obscuration areas are covered by the obstacles and limit the field of view of the driver assistance system's optical environmental sensors.
  • the determined obscuration areas can be covered with textured surfaces when the camera images are displayed.
  • DE 10 2018 203 590 A1 describes a surround view system for a vehicle.
  • An evaluation unit of the surround view system is used to detect an object in recorded environmental data and to determine the 3D shape of the object.
  • a projection surface used to generate a surround view is then supplemented with the specific 3D shape of the object.
  • Image areas hidden by the object can also be filled with a predefined color, with an interpolation of surrounding areas and/or with a mirroring of environmental data of the front of the object.
  • the invention is based on the object of specifying an improved method for generating an environmental representation representing a vehicle environment, which in particular avoids or at least reduces the occurrence of areas without a representation of the actual vehicle environment.
  • image data for at least partially filling the concealed surrounding area, wherein the image data are determined from at least one further camera image of another of the cameras recorded at the first recording time and/or from at least one stored camera image of the one or more cameras recorded at a second recording time prior to the first recording time,
  • the camera images used to generate the representation of the surroundings can be generated, for example, by one or more cameras in the vehicle and transmitted to a control device designed to carry out the method via a communication connection to provide the camera images.
  • the camera images can in particular be generated and transmitted continuously. At least some of the camera images can also be stored in a storage device in the vehicle, at least temporarily. In this way, camera images recorded at previous recording times are also available for generating the representation of the surroundings.
  • the part of the vehicle surroundings depicted in the camera images depends on the position of the camera generating the respective camera images on the vehicle. It is possible that several cameras arranged at different positions on the vehicle are used to generate the camera images. For example, at least one camera on the front of the A front camera arranged on the vehicle, one or more side cameras arranged on the side of the vehicle and/or at least one rear view camera arranged on the rear of the vehicle can be used. According to the invention, several cameras of a camera arrangement designed as a surround view system of the vehicle can be used.
  • a surround view can be generated as the environment representation.
  • the environment representation can be generated in particular starting from a virtual camera position, which differs from the actual arrangement positions of the one or more cameras on the vehicle.
  • the change in perspective can be achieved by projecting the camera images onto a projection surface, for example a bowl-shaped projection surface that virtually surrounds the vehicle, whereby the environment representation can then be derived from the projected camera images starting from the virtual camera position.
  • the camera image does not contain any information describing the vehicle environment within the hidden environment area.
  • three-dimensional environmental data is first generated from at least one of the camera images, with the at least one camera image having been recorded at a first recording time.
  • the three-dimensional environmental data describes the vehicle environment, in particular in a three-dimensional coordinate system.
  • the three-dimensional environmental data can describe the geometry of environmental objects and the respective position of the environmental objects in relation to the vehicle.
  • a hidden environmental area can then be determined.
  • the hidden environmental area refers to one of the cameras and describes the part of the vehicle's surroundings that is hidden from the camera by an object and therefore cannot be seen.
  • the hidden environmental area assigned to one of the cameras is a description of the part of the vehicle's surroundings for which no image information is contained in the camera images recorded with the respective camera.
  • Image data is then determined to fill in the hidden surrounding area.
  • the image data used to fill in the hidden surrounding area in particular shows at least part of the vehicle surroundings within the hidden surrounding area.
  • the image data used to fill in the hidden surrounding area contains a description of at least part of the actual vehicle surroundings in the hidden image area, so that they can be used in the environment view to display the hidden surrounding area.
  • the image data can describe the entire hidden surrounding area or image data can be determined which only describes one or more sub-areas of the hidden surrounding area.
  • the image data for filling the concealed surrounding area can be taken from at least one camera image taken at the first recording time from another camera. This can be the case, for example, if the vehicle has several cameras, each of which takes camera images, with the detection areas of the cameras and thus also the surrounding areas shown in the camera images partially overlapping.
  • the image data can be taken, for example, from one of the overlapping areas of a camera image from the other camera.
  • the invention allows image data from a stored camera image recorded at a second recording time to be used.
  • the second recording time is before the first recording time, so that the image data is taken from a previously recorded camera image, which can also be referred to as a historical camera image.
  • the stored camera image can be stored in a storage device in the vehicle, for example.
  • the previously recorded camera image can be used if an image area is covered by a static surrounding object, especially if the vehicle has moved between the first recording time and the second recording time. If there are a number of stored camera images, a stored camera image can be selected that was recorded from a different position of the vehicle, and thus also from a different camera position.
  • the stored camera image the image data of which is used to replace the hidden surrounding area determined for one of the cameras, can have been recorded by the same camera whose hidden surrounding area is to be replaced.
  • a stored camera image recorded by another camera in the vehicle can also be used.
  • the environment representation is then generated from the at least one camera image and the image data.
  • at least a part of the surrounding area hidden in the at least one camera image is represented in the environment representation using the image data.
  • the hidden surrounding area is at least partially filled with the image data of another of the cameras and/or with image data recorded at an earlier point in time. This means that the environment representation contains additional information about the actual vehicle environment, which is available when the
  • the representation of the surroundings can be shown visibly to a driver, in particular on a display device of the vehicle, in particular on a display arranged in a vehicle interior.
  • a driver of the vehicle is provided with assistance, for example when carrying out driving maneuvers in a confined space.
  • the method according to the invention can advantageously lead to an improved perception of the situation by the driver.
  • additional information or additional context is provided, which can make it easier for the driver to drive the vehicle.
  • gaining an understanding of the situation is made easier, which advantageously allows the driver to react more quickly and/or better to the current traffic situation in the vehicle's surroundings.
  • the occurrence of blind spots can be prevented or at least reduced, which has the advantage of increasing road safety.
  • the driver's better understanding of the situation can reduce the risk of collisions or accidents due to areas of the surroundings that cannot be seen.
  • the insertion of image data from a stored camera image makes it possible to implement additional functions such as object tracking, object recognition and/or augmentation of the environment representation with additional information when evaluating the three-dimensional vehicle environment, which can be carried out, for example, on the basis of the generated environment representation.
  • additional functions such as object tracking, object recognition and/or augmentation of the environment representation with additional information when evaluating the three-dimensional vehicle environment, which can be carried out, for example, on the basis of the generated environment representation.
  • the implementation of further This simplifies functions that depend on the most complete possible understanding of the current traffic situation.
  • the vehicle surroundings can be continuously reproduced in a consistent manner. This particularly simplifies the detection of the surroundings when dynamic conditions, such as changing lighting conditions and/or dynamic objects in the surroundings of the vehicle, are present.
  • the method according to the invention can advantageously be used to generate a consistent representation of the surroundings that essentially corresponds to human perception and can be viewed by a driver of the vehicle.
  • the image data for filling the concealed surrounding area are present in at least one further camera image of another of the cameras recorded at the first recording time, wherein if the image data from the at least one further camera image are present, these image data are used to generate the representation of the surroundings and wherein if the image data from the at least one further camera image are not present, the image data from the at least one stored camera image are used to generate the representation of the surroundings.
  • This two-stage procedure advantageously allows for checking whether there are any current camera images, i.e. images taken at the same time as the first image, which provide the image data needed to fill in the hidden surrounding area. This can be done, for example, using the three-dimensional surrounding data or the hidden surrounding areas derived from it, if these were determined for several cameras in the vehicle. If such current image data is available, it can be used preferentially to fill in the hidden surrounding area.
  • the image data from the at least one stored camera image can then be used to generate the view of the surroundings.
  • an environmental representation which is formed from several camera images recorded at the first recording time
  • the image data for filling the concealed surrounding area are determined on the basis of the surrounding data, wherein the concealed surrounding area of the at least one camera at the first recording time is compared with the concealed surrounding area of the at least one further camera and/or with concealment information associated with the stored camera image, which describes the concealed surrounding area of the camera generating the stored camera image at the second recording time.
  • the image data can be determined using masking information that is associated with a stored camera image.
  • the masking information can describe which part of the vehicle's surroundings is masked in the stored camera image, so that checking whether the camera image contains image data for filling a masked area of the surroundings can be simplified.
  • the masking information can be determined, for example, at or shortly after the time the camera image is recorded and stored with the camera image in a storage device.
  • the environmental data are determined as a function of depth information associated with the camera image, as a function of map information describing the position of the vehicle and the vehicle environment and/or as a function of the measurement data of at least one distance sensor of the vehicle.
  • the three-dimensional environmental data can be generated from the camera image by determining depth information from the image content reproduced in the camera image.
  • the three-dimensional environment data can be determined as a function of map information describing the vehicle environment.
  • the map information can, for example, by means of a method such as simultaneous localization and mapping (SLAM) and/or comparable methods.
  • SLAM simultaneous localization and mapping
  • the three-dimensional environmental data can be determined as a function of the measurement data from at least one distance sensor of the vehicle.
  • the distance sensor can be designed, for example, as a radar sensor, as a lidar sensor and/or as an ultrasonic sensor.
  • the environment representation can be generated starting from a virtual camera position, wherein the image data for representing at least part of the concealed environment area is transformed depending on the virtual camera position. Because the image data can be taken from a camera image whose perspective differs from the perspective starting from the virtual camera, an improved reproduction of the actual vehicle environment can be achieved by transforming the image data to fill in the concealed environment area in the environment representation. By transforming the image data, the difference in perspective can be at least partially compensated, resulting in a coherent overall image.
  • the image data and the at least one camera image are combined to generate the view of the surroundings depending on at least one image harmonization function.
  • the image harmonization function for example, differences in exposure, color and/or resolution between the camera image and the inserted image data can be at least partially compensated.
  • at least one image harmonization fusion By using at least one image harmonization fusion, a more harmonious overall image can thus be achieved in the representation of the surroundings.
  • the representation of the environment can preferably be a surround view representation which, starting from a virtual camera position, reproduces, for example, a virtual model of the vehicle as well as the part of the vehicle surroundings visible from the position of the virtual camera.
  • the invention further relates to a control device which is designed to carry out a method according to the invention.
  • the step of providing the camera images can be carried out, for example, by the control device being designed to receive the camera images via a communication connection and/or to retrieve the camera images from a storage device in the vehicle.
  • a driver assistance system for a driver assistance system according to the invention, it is provided that it comprises at least one camera which is designed to provide camera images representing at least part of a vehicle environment, as well as a control device set up to carry out a method according to the invention.
  • Fig. 1 shows an embodiment of a vehicle according to the invention comprising an embodiment of a driver assistance system according to the invention
  • Fig. 2 is a block diagram of an embodiment of a method according to the invention.
  • Fig. 3 shows an example of a camera image taken with a camera of the vehicle
  • Fig. 4 shows an embodiment of an environment representation generated using the method according to the invention.
  • Fig. 1 shows an embodiment of a vehicle 1.
  • vehicle 1 can be, for example, a motor vehicle, in particular a
  • the vehicle 1 can be a passenger car, a truck or another type of commercial vehicle. It is also possible that the vehicle 1 is a non-motorized vehicle such as a trailer or that it is a combination of a towing vehicle and a trailer. The vehicle 1 can also be a rail-bound vehicle such as a tram or the like, or a robot.
  • the vehicle 1 comprises an embodiment of a driver assistance system 2, which comprises one or more cameras 3 and a control device 4.
  • the vehicle 1 comprises four cameras 3, which form a camera arrangement designed as a surround view system.
  • a first camera 5 is arranged as a front camera of the vehicle 1, a second camera 6 as a rear view camera of the vehicle 1, and a third camera 7 and a fourth camera 8 each as a side camera of the vehicle 1.
  • the Control device 4 can be designed, for example, as a microcontroller, as a processor or as another type of computing device.
  • the driver assistance system 2 further comprises a display device 9, via which graphic information can be displayed for a driver or a user of the vehicle 1.
  • the display device 9 can, for example, be one or more screens or displays arranged in an interior of the vehicle 1.
  • the vehicle 1 also comprises at least one distance sensor 10.
  • the distances to objects, in particular to objects arranged in front of, next to and behind the vehicle, can be determined via the at least one distance sensor 10.
  • the distance sensor 10 can be designed, for example, as a radar sensor, as a lidar sensor and/or as an ultrasonic sensor.
  • the vehicle 1 can in particular have a plurality of distance sensors 10, which can be designed as any combination of different sensor types and can be arranged at different positions on the vehicle 1.
  • the cameras 3 can be used to generate image data from a sub-area of the surroundings of the vehicle 1.
  • the cameras 3 and the at least one distance sensor 10 are connected to the control device 4 via a communication connection 11.
  • the communication connection 11 can, for example, comprise a plurality of point-to-point connections or be a bus connection such as a CAN bus or the like. Image data or camera images are transmitted from the cameras 3 to the control device 4 via the communication connection 11, in particular continuously.
  • the control device 4 is designed to carry out a method for generating an environmental representation representing the vehicle's surroundings.
  • the control device 4 uses several camera images that were recorded by the cameras 3 of the vehicle 1.
  • at least some of the recorded camera images can be stored in the vehicle 1, for example in a storage device of the control device 4 and/or in a storage device of the respective camera.
  • the storage device can be, for example, a temporary data storage device such as a working memory or a permanent data storage device such as a hard disk.
  • Fig. 2 shows a block diagram of an embodiment of a method for generating an environmental representation representing the vehicle environment.
  • a first step S1 of the method several camera images are provided which were recorded using the cameras 3 of the vehicle 1, wherein the camera images each show a partial area of the vehicle's surroundings.
  • the camera images can be current camera images which are generated at a first recording time and transmitted to the control device. Additionally or alternatively, historical camera images can also be provided which were recorded at a second recording time before the first recording time and which are stored in the vehicle 1 so that they can be retrieved by the control device 4.
  • three-dimensional environmental data is generated from at least one of the camera images that was recorded at a first recording time.
  • the three-dimensional environmental data describe objects and/or features of the environmental structure with regard to their geometric shape and their arrangement, in particular in relation to the position of the vehicle 1.
  • the environmental data can be derived from the image content of at least one camera image.
  • the environmental data can be determined by the control device 4, which, for example, uses one or more algorithms to determine the image content of one or more of the camera images. can be evaluated.
  • the image content can be evaluated using methods such as semantic segmentation, structure-from-motion, SLAM or similar methods.
  • the environmental data can be determined depending on depth information associated with the camera image.
  • the depth information can indicate which image areas have which depth, i.e. which distance from the vehicle 1.
  • the depth information can, for example, be determined by the control device 4 using one or more of the algorithms, as described above.
  • corresponding depth information for the stored camera images is also stored in a storage device so that it can be retrieved by the control device 4.
  • the environmental data are determined depending on map information describing the position of the vehicle and the vehicle surroundings.
  • the map information can contain information about the vehicle surroundings as well as the position of the vehicle within the vehicle surroundings.
  • Map information can in particular be continuously updated depending on the camera images from the cameras 3 and/or the measurement data from the distance sensor 10.
  • the measurement data of the distance sensor 10 which describe the distances of objects in the surroundings of the vehicle 1 to the vehicle 1, to be used to determine the environmental data.
  • the measurement data of the distance sensor 10 can be transmitted from the distance sensor 10 to the control device 4 via a communication connection.
  • hidden environmental areas are determined for the individual cameras 3 of the vehicle 1 from the previously determined three-dimensional environmental data.
  • the areas are identified in which a part of the The vehicle surroundings cannot be seen due to being obscured by an object in the surrounding area.
  • Fig. 3 shows an example of a camera image 12 in which a part of the vehicle surroundings is obscured by an object 13.
  • the camera image 12 can, for example, have been recorded by one of the side cameras 7, 8 of the vehicle 1.
  • the obscured image area 14 comprises those sub-areas which lie behind the objects 13 designed as posts. There is no image information in the camera image 12 for the areas of the vehicle surroundings which lie behind the objects 13.
  • the obscured image areas 14 each relate to a camera image 12 or to one of the cameras 3, so that the obscured image areas 14 can differ for different cameras 3.
  • step S4 image data is determined to fill in the hidden surrounding area 14.
  • the image data can be taken from at least one additional camera image recorded at the first recording time from one of the additional cameras 3 of the vehicle 1.
  • a camera image from the front camera 5 or the rear view camera 6, also recorded at the first recording time can be used if they capture the hidden surrounding area 14 of the side cameras 7, 8 uncovered due to an overlap of the detection areas with the side cameras 7, 8.
  • the image data can be determined from at least one stored camera image of the one or more cameras 3 of the vehicle 1, recorded at a second recording time before the first recording time. In this sub-step, the image data are therefore taken from a historical camera image that was recorded at an earlier time.
  • This stored camera image can be loaded by the control device 4 from a storage device of the vehicle 1.
  • the stored camera image can be recorded by the same camera as the camera image showing the hidden surrounding area. or it can be a stored camera image taken by another of the cameras 3.
  • the sub-steps S4A and S4B can be carried out alternatively or one after the other.
  • it can first be checked whether the image data for filling the concealed surrounding area 14 are present in at least one further camera image recorded at the first recording time from another of the cameras 3, wherein if the image data from the at least one further camera image are present, these image data are then used to generate the representation of the surroundings.
  • the image data for filling the hidden surrounding area can be determined, for example, using the three-dimensional surrounding data.
  • the hidden surrounding area 14 of the at least one camera 3 can be compared with the hidden surrounding area of the at least one other camera at the first recording time. In this way, it can be checked whether image data for the hidden surrounding areas 14 are present in the other camera image.
  • a stored camera image can then be determined and used to generate the representation of the surroundings.
  • the stored camera image can in particular be determined in such a way that it depicts the vehicle surroundings starting from a different camera position. This can be the case, for example, if the vehicle has moved between the second recording time and the first recording time. This means that image data for the surrounding areas 14 hidden by the camera image recorded at the first recording time are present in the stored camera image.
  • the image data can be
  • the masking information can be determined from the masking information associated with the stored camera image.
  • the masking information can describe the masked surrounding area of the camera 3 generating the stored camera image at the second recording time.
  • the masking information can be used to compare the masked surrounding area of the stored camera image and the other camera image.
  • the masking information can be associated with the stored camera image, for example, and also stored in the storage device. It is possible that the masking information was already generated when the stored camera image was recorded and stored in the storage device for later use.
  • the environment representation is generated on the basis of the at least one camera image 12 and the image data used to fill the hidden environment area.
  • the image data previously determined in step S4 are inserted into the hidden environment area 14 so that, in particular when the environment representation is displayed starting from the position of a virtual camera, it can be displayed at least partially with image data that at least approximately describe the actual environment of the vehicle 1.
  • Fig. 4 shows an environmental representation 15.
  • the environmental representation 15 was generated based on a virtual camera position, so that the viewing angle of the vehicle's surroundings does not depend on an actual position of one of the cameras 3. This makes it possible for the vehicle 1, or a virtual model of the vehicle 1, to also be shown in the environmental representation.
  • the image data for representing at least part of the hidden environmental area 14 can be transformed in particular depending on the virtual camera position in order to compensate for the difference in perspective.
  • the image data were used to identify the areas covered by the objects 13 formed as posts. Fill in sub-areas of the hidden surrounding area 14 with data about the actual vehicle surroundings. Using the image data enables the driver to view a complete image of the vehicle surroundings that has no or at least fewer gaps and/or black areas or areas not filled with image data.
  • image data for all hidden areas 14 are determined for the environment representation 15 so that a complete, gap-free reproduction of the environment is possible.
  • the remaining hidden sub-areas for which no image data is available can be shown in black, for example, or filled in by extrapolating the respective surrounding image areas.
  • the image data and the at least one camera image 12 can be combined to generate the environmental representation 15 depending on at least one image harmonization function.
  • image harmonization for example, different brightnesses, different color saturations and the like can be compensated for in order to generate a harmonious environmental representation 15.
  • the environmental representation 15 shown in Fig. 4 is purely exemplary; in particular, other types of environmental representations can also be generated, for example environmental representations 15 recorded at a different angle or a different virtual camera position. For example, it is possible that a top view, which shows a bird's eye view of the vehicle 1, is also generated as the environmental representation 15.
  • the environment display 15 can be shown to a driver of the vehicle 1 on the display device 9 so that it can be viewed by the driver 1 for carrying out vehicle maneuvers. This significantly simplifies the execution of precise driving maneuvers, especially maneuvers carried out in a confined space such as parking maneuvers.
  • the environment display 15 can also be used for other driver assistance functions of the Vehicle 1, which include, for example, tracking objects, landmarks or obstacles in the vicinity of the vehicle 1.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

A method for creating a representation (15) of surroundings representing vehicle surroundings, involving the steps of: - providing camera images (12) captured by one or more vehicle (1) cameras (3), each of said camera images (12) representing at least a portion of the vehicle surroundings; - producing three-dimensional surroundings data from at least one of the camera images (12), the at least one camera image (12) having been captured at a first capturing time; - identifying a concealed sector (14) of the surroundings for at least one of the cameras from the surroundings data; - acquiring image data for filling in the concealed sector (14) of the surroundings, the image data being acquired from at least one additional camera image captured by another one of the cameras (2) at the first capturing time and/or from at least one stored camera image captured by the one or more cameras (3) at a second capturing time that precedes the first capturing time, creating the representation of the surroundings from the at least one camera image (12) and from the image data, the image data being used to represent, in the representation (15) of the surroundings, at least a portion of the sector (14) of the surroundings that is concealed in the at least one camera image (12).

Description

Beschreibung Description

Verfahren zum Erzeugen einer eine Fahrzeugumgebung darstellenden Umgebungsdarstellung, Steuereinrichtung, Fahrerassistenzsystem und Fahrzeug Method for generating an environmental representation representing a vehicle environment, control device, driver assistance system and vehicle

Die Erfindung betrifft ein Verfahren zum Erzeugen einer eine Fahrzeugumgebung darstellenden Umgebungsdarstellung. Weiterhin betrifft die Erfindung eine Steuereinrichtung, ein Fahrerassistenzsystem und ein Fahrzeug. The invention relates to a method for generating an environmental representation representing a vehicle environment. The invention also relates to a control device, a driver assistance system and a vehicle.

Moderne Fahrzeuge werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche den Fahrer durch die Darstellung einer Umgebungsansicht bei der Durchführung von Fahrmanövern unterstützen. Bei solchen Umgebungsansichten kann es sich zum Beispiel um sogenannte Surround-View-Darstellungen handeln, auf welchen zumindest ein Teil der Fahrzeugumgebung abgebildet wird. Eine solche Umgebungsansicht wird in der Regel auf Grundlage von Kamerabildern, welche mithilfe einer oder mehrerer Kameras des Fahrzeugs aufgenommen wurden, erzeugt. Modern vehicles are increasingly being equipped with driver assistance systems that support the driver in carrying out driving maneuvers by displaying a view of the surroundings. Such environmental views can, for example, be so-called surround view displays, which show at least part of the vehicle's surroundings. Such an environmental view is usually generated on the basis of camera images recorded using one or more of the vehicle's cameras.

Die Darstellung des Umgebungsbereichs kann dabei ausgehend von einer virtuellen Kameraposition, welche sich von einer tatsächlichen Anordnungsposition der Kameras am Fahrzeug unterscheidet, erfolgen. Dazu können die Kamerabilder zum Beispiel auf eine virtuelle Projektionsfläche projiziert werden, wobei mithilfe der Projektionsfläche eine Umgebungsansicht ausgehend von einem anderen Blickpunkt ermittelt wird. Dabei kann jedoch der Fall auftreten, dass einzelne Bereiche der Fahrzeugumgebung von Objekten in der Umgebung des Fahrzeugs verdeckt werden. The representation of the surrounding area can be based on a virtual camera position that differs from the actual arrangement position of the cameras on the vehicle. For this purpose, the camera images can be projected onto a virtual projection surface, for example, whereby the projection surface is used to determine a view of the surroundings from a different point of view. However, it can happen that individual areas of the vehicle's surroundings are obscured by objects in the vehicle's surroundings.

Aus DE 10 2015 223 176 A1 ist ein Fahrerassistenzsystem für ein Fahrzeug mit Umgebungssensoren, die eine Fahrzeugumgebung des Fahrzeuges sensorisch erfassen, bekannt. Dabei werden die Sensordaten der Umgebungssensoren zur Erkennung von Hindernissen in der Fahrzeugumgebung des Fahrzeuges ausgewertet, wobei in Abhängigkeit von erkannten Hindernissen Verdeckungsbereiche in der Fahrzeugumgebung des Fahrzeugs ermittelt werden. Die Verdeckungsbereiche werden dabei von den Hindernissen verdeckt und schränken einen Sichtbereich von optischen Umgebungssensoren des Fahrerassistenzsystems ein. Die ermittelten Verdeckungsbereiche können bei einer Darstellung der Kamerabilder mit Texturflächen überdeckt werden. DE 10 2015 223 176 A1 discloses a driver assistance system for a vehicle with environmental sensors that use sensors to detect the vehicle's surroundings. The sensor data from the environmental sensors is evaluated to detect obstacles in the vehicle's surroundings, and masking areas in the vehicle's surroundings are determined depending on the obstacles detected. The obscuration areas are covered by the obstacles and limit the field of view of the driver assistance system's optical environmental sensors. The determined obscuration areas can be covered with textured surfaces when the camera images are displayed.

In DE 10 2018 203 590 A1 wird ein Surroundview-System für ein Fahrzeug beschrieben. Dabei wird mithilfe einer Auswerteeinheit des Surroundview-Systems ein Objekt in erfassten Umfelddaten erkannt und die 3D-Form des Objekts ermittelt. Eine für die Erzeugung einer Surroundview-Ansicht verwendete Projektionsfläche wird anschließend mit der bestimmten 3D-Form des Objekts ergänzt. Von dem Objekt verdeckte Bildbereiche können weiterhin mit einer vordefinierten Farbe, mit einer Interpolation umliegender Bereiche und/oder mit einer Spiegelung von Umfelddaten der Vorderseite des Objekts aufgefüllt werden. DE 10 2018 203 590 A1 describes a surround view system for a vehicle. An evaluation unit of the surround view system is used to detect an object in recorded environmental data and to determine the 3D shape of the object. A projection surface used to generate a surround view is then supplemented with the specific 3D shape of the object. Image areas hidden by the object can also be filled with a predefined color, with an interpolation of surrounding areas and/or with a mirroring of environmental data of the front of the object.

Um dem Fahrer einen möglichst vollständigen Überblick über das Fahrzeugumfeld zu ermöglichen, ist es wünschenswert, dass bei einer Umgebungsdarstellung ausgehend von einer virtuellen Kameraposition, welche nicht der tatsächlichen Kameraposition entspricht, möglichst wenig Bereiche vorhanden sind, in denen nicht das tatsächliche Fahrzeugumfeld abgebildet wird. In order to provide the driver with as complete an overview of the vehicle's surroundings as possible, it is desirable that when the environment is displayed from a virtual camera position that does not correspond to the actual camera position, there are as few areas as possible in which the actual vehicle surroundings are not displayed.

Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Erzeugen einer eine Fahrzeugumgebung darstellenden Umgebungsdarstellung anzugeben, welches insbesondere das Auftreten von Bereichen ohne eine Darstellung des tatsächlichen Fahrzeugumfelds vermeidet oder zumindest reduziert. The invention is based on the object of specifying an improved method for generating an environmental representation representing a vehicle environment, which in particular avoids or at least reduces the occurrence of areas without a representation of the actual vehicle environment.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zum Erzeugen einer eine Fahrzeugumgebung darstellenden Umgebungsdarstellung gelöst, wobei das Verfahren die folgenden Schritte umfasst: This object is achieved according to the invention by a method for generating an environmental representation representing a vehicle environment, the method comprising the following steps:

Bereitstellen von mit einer oder mehreren Kameras des Fahrzeugs aufgenommenen Kamerabildern, wobei in den Kamerabildern jeweils zumindest ein Teil der Fahrzeugumgebung dargestellt ist, - Erzeugen von dreidimensionalen Umgebungsdaten aus wenigstens einem der Kamerabilder, wobei das wenigstens eine Kamerabild an einem ersten Aufnahmezeitpunkt aufgenommen wurde,Providing camera images recorded with one or more cameras of the vehicle, wherein at least part of the vehicle environment is shown in the camera images, - generating three-dimensional environmental data from at least one of the camera images, wherein the at least one camera image was recorded at a first recording time,

- Ermitteln eines verdeckten Umgebungsbereichs für wenigstens eine der Kameras aus den Umgebungsdaten, - Determining a hidden environmental area for at least one of the cameras from the environmental data,

- Ermitteln von Bilddaten zum zumindest teilweisen Ausfüllen des verdeckten Umgebungsbereichs, wobei die Bilddaten aus wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen weiteren Kamerabild einer weiteren der Kameras und/oder aus wenigstens einem gespeicherten, an einem vor dem ersten Aufnahmezeitpunkt liegenden zweiten Aufnahmezeitpunkt aufgenommenen Kamerabild der einen oder mehreren Kameras ermittelt werden, - Determining image data for at least partially filling the concealed surrounding area, wherein the image data are determined from at least one further camera image of another of the cameras recorded at the first recording time and/or from at least one stored camera image of the one or more cameras recorded at a second recording time prior to the first recording time,

- Erzeugen der Umgebungsdarstellung aus dem wenigsten einen Kamerabild sowie den Bilddaten, wobei mit den Bilddaten zumindest ein Teil des in dem wenigstens einen Kamerabild verdeckten Umgebungsbereichs in der Umgebungsdarstellung dargestellt wird. - generating the environment representation from the at least one camera image and the image data, wherein at least a part of the environment region hidden in the at least one camera image is represented in the environment representation using the image data.

Die für die Erzeugung der Umgebungsdarstellung verwendeten Kamerabilder können beispielsweise von einer oder mehreren Kameras des Fahrzeugs erzeugt und an eine zur Durchführung des Verfahrens ausgebildete Steuereinrichtung über eine Kommunikationsverbindung zur Bereitstellung der Kamerabilder übermittelt werden. Die Kamerabilder können insbesondere kontinuierlich erzeugt und übermittelt werden. Zumindest ein Teil der Kamerabilder kann weiterhin in einer Speichereinrichtung des Fahrzeugs zumindest zeitweise gespeichert werden. Auf diese Weise stehen für die Erzeugung der Umgebungsdarstellung auch an zurückliegenden Aufnahmezeitpunkten aufgenommene Kamerabilder zur Verfügung. The camera images used to generate the representation of the surroundings can be generated, for example, by one or more cameras in the vehicle and transmitted to a control device designed to carry out the method via a communication connection to provide the camera images. The camera images can in particular be generated and transmitted continuously. At least some of the camera images can also be stored in a storage device in the vehicle, at least temporarily. In this way, camera images recorded at previous recording times are also available for generating the representation of the surroundings.

Der in den Kamerabildern jeweils abgebildete Teilbereich der Fahrzeugumgebung hängt von der Anordnungsposition der die jeweiligen Kamerabilder erzeugenden Kamera am Fahrzeug ab. Es ist möglich, dass mehrere an unterschiedlichen Positionen des Fahrzeugs angeordnete Kameras zur Erzeugung der Kamerabilder verwendet werden. Beispielsweise können wenigstens eine an einer Front des Fahrzeugs angeordnete Frontkamera, eine oder mehrere seitlich am Fahrzeug angeordnete Seitenkameras und/oder wenigstens eine am Fahrzeugheck angeordnete Rückfahrkamera verwendet werden. Erfindungsgemäß können mehrere Kameras einer als Surroundview-System des Fahrzeugs ausgebildeten Kameraanordnung verwendet werden. The part of the vehicle surroundings depicted in the camera images depends on the position of the camera generating the respective camera images on the vehicle. It is possible that several cameras arranged at different positions on the vehicle are used to generate the camera images. For example, at least one camera on the front of the A front camera arranged on the vehicle, one or more side cameras arranged on the side of the vehicle and/or at least one rear view camera arranged on the rear of the vehicle can be used. According to the invention, several cameras of a camera arrangement designed as a surround view system of the vehicle can be used.

Als Umgebungsdarstellung kann insbesondere eine Surroundview-Ansicht erzeugt werden. Die Umgebungsdarstellung kann dabei insbesondere ausgehend von einer virtuellen Kameraposition, welche sich von den tatsächlichen Anordnungspositionen der einen oder mehreren Kameras am Fahrzeug unterscheidet, erzeugt werden. Der Wechsel der Perspektive kann durch die Projektion der Kamerabilder auf eine Projektionsfläche, beispielsweise eine das Fahrzeug virtuell umgebende, schüsselförmige Projektionsfläche, erfolgen, wobei die Umgebungsdarstellung dann ausgehend von der virtuellen Kameraposition aus den projizierten Kamerabildern abgeleitet werden kann. In particular, a surround view can be generated as the environment representation. The environment representation can be generated in particular starting from a virtual camera position, which differs from the actual arrangement positions of the one or more cameras on the vehicle. The change in perspective can be achieved by projecting the camera images onto a projection surface, for example a bowl-shaped projection surface that virtually surrounds the vehicle, whereby the environment representation can then be derived from the projected camera images starting from the virtual camera position.

Durch den Wechsel einer Perspektive der Darstellung von der tatsächlichen Kameraposition, von der ausgehend die Kamerabilder erzeugt werden, zu der Position der virtuellen Kamera kann der Fall auftreten, dass in den Kamerabildern von einem Umgebungsobjekt verdeckte Bildbereiche aus dem Blickwinkel der virtuellen Kamera nicht mehr verdeckt sind. Für einen solchen verdeckten Umgebungsbereich sind jedoch in dem Kamerabild keine die Fahrzeugumgebung innerhalb des verdeckten Umgebungsbereich beschreibende Informationen enthalten. By changing the perspective of the display from the actual camera position from which the camera images are generated to the position of the virtual camera, it can happen that image areas in the camera images that are hidden by an object in the environment are no longer hidden from the perspective of the virtual camera. However, for such a hidden environment area, the camera image does not contain any information describing the vehicle environment within the hidden environment area.

Um diese verdeckten Umgebungsbereiche zu ermitteln, werden zunächst dreidimensionale Umgebungsdaten aus wenigstens einem der Kamerabilder erzeugt, wobei das wenigstens eine Kamerabild an einem ersten Aufnahmezeitpunkt aufgenommen wurde. Die dreidimensionalen Umgebungsdaten beschreiben dabei die Fahrzeugumgebung insbesondere in einem dreidimensionalen Koordinatensystem. Insbesondere können die dreidimensionalen Umgebungsdaten die Geometrie von Umgebungsobjekten sowie die jeweilige Lage der Umgebungsobjekte zum Fahrzeug beschreiben. Mithilfe der Umgebungsdaten kann anschließend ein verdeckter Umgebungsbereich ermittelt werden. Der verdeckte Umgebungsbereich bezieht sich dabei auf eine der Kameras und beschreibt den Teil der Fahrzeugumgebung, welcher von der Kamera aus durch ein Objekt verdeckt ist und somit nicht eingesehen werden kann. Mit anderen Worten ist der einer der Kameras zugeordnete verdeckte Umgebungsbereich also eine Beschreibung desjenigen Teilbereichs der Fahrzeugumgebung, für welchen in den mit der jeweiligen Kamera aufgenommenen Kamerabildern keine Bildinformationen enthalten sind. In order to determine these hidden environmental areas, three-dimensional environmental data is first generated from at least one of the camera images, with the at least one camera image having been recorded at a first recording time. The three-dimensional environmental data describes the vehicle environment, in particular in a three-dimensional coordinate system. In particular, the three-dimensional environmental data can describe the geometry of environmental objects and the respective position of the environmental objects in relation to the vehicle. Using the environmental data, a hidden environmental area can then be determined. The hidden environmental area refers to one of the cameras and describes the part of the vehicle's surroundings that is hidden from the camera by an object and therefore cannot be seen. In other words, the hidden environmental area assigned to one of the cameras is a description of the part of the vehicle's surroundings for which no image information is contained in the camera images recorded with the respective camera.

Anschließend werden Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs ermittelt. Die zum Ausfüllen des verdeckten Umgebungsbereich verwendeten Bilddaten zeigen dabei insbesondere zumindest einen Teil der Fahrzeugumgebung innerhalb des verdeckten Umgebungsbereichs. Mit anderen Worten enthalten die zum Ausfüllen des verdeckten Umgebungsbereich verwendeten Bilddaten eine Beschreibung zumindest eines Teils der tatsächlichen Fahrzeugumgebung in dem verdeckten Bildbereich, sodass sie in der Umgebungsansicht zur Darstellung des verdeckten Umgebungsbereichs verwendet werden können. Dabei können die Bilddaten den ganzen verdeckten Umgebungsbereich beschreiben oder es können Bilddaten ermittelt werden, welche nur einen oder mehrere Teilbereiche des verdeckten Umgebungsbereichs beschreiben. Image data is then determined to fill in the hidden surrounding area. The image data used to fill in the hidden surrounding area in particular shows at least part of the vehicle surroundings within the hidden surrounding area. In other words, the image data used to fill in the hidden surrounding area contains a description of at least part of the actual vehicle surroundings in the hidden image area, so that they can be used in the environment view to display the hidden surrounding area. The image data can describe the entire hidden surrounding area or image data can be determined which only describes one or more sub-areas of the hidden surrounding area.

Die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs können dabei aus wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen Kamerabild einer weiteren der Kameras entnommen werden. Dies kann zum Beispiel der Fall sein, wenn das Fahrzeug mehrere Kameras aufweist, mit welchen jeweils Kamerabilder aufgenommen werden, wobei sich die Erfassungsbereiche der Kameras und somit auch die in den Kamerabilder abgebildeten Umgebungsteilbereiche teilweise überlappen. Dabei können die Bilddaten zum Beispiel einem der Überlappungsbereiche eines Kamerabilds der weiteren Kamera entnommen werden. Zusätzlich oder alternativ dazu können erfindungsgemäß Bilddaten aus einem zu einem zweiten Aufnahmezeitpunkt aufgenommenen, gespeicherten Kamerabild verwendet werden. Der zweite Aufnahmezeitpunkt liegt dabei vor dem ersten Aufnahmezeitpunkt, sodass die Bilddaten einem früher aufgenommenen Kamerabild, welches auch als historisches Kamerabild bezeichnet werden kann, entnommen werden. Das gespeicherte Kamerabild kann dabei zum Beispiel in einer Speichereinrichtung des Fahrzeugs hinterlegt sein. The image data for filling the concealed surrounding area can be taken from at least one camera image taken at the first recording time from another camera. This can be the case, for example, if the vehicle has several cameras, each of which takes camera images, with the detection areas of the cameras and thus also the surrounding areas shown in the camera images partially overlapping. The image data can be taken, for example, from one of the overlapping areas of a camera image from the other camera. In addition or alternatively, the invention allows image data from a stored camera image recorded at a second recording time to be used. The second recording time is before the first recording time, so that the image data is taken from a previously recorded camera image, which can also be referred to as a historical camera image. The stored camera image can be stored in a storage device in the vehicle, for example.

Das früher aufgenommene Kamerabild kann bei einer Verdeckung eines Bildbereichs durch ein statisches Umgebungsobjekt insbesondere dann verwendet werden, wenn sich das Fahrzeug zwischen dem ersten Aufnahmezeitpunkt und dem zweiten Aufnahmezeitpunkt bewegt hat. Bei einer Mehrzahl an gespeicherten Kamerabildern kann also insbesondere ein gespeichertes Kamerabild ausgewählt werden, welches von einer anderen Position des Fahrzeugs aus, und somit auch von einer anderen Kameraposition aus, aufgenommen wurde. The previously recorded camera image can be used if an image area is covered by a static surrounding object, especially if the vehicle has moved between the first recording time and the second recording time. If there are a number of stored camera images, a stored camera image can be selected that was recorded from a different position of the vehicle, and thus also from a different camera position.

Das gespeicherte Kamerabild, dessen Bilddaten zum Ersetzen des für eine der Kameras ermittelten, verdeckten Umgebungsbereichs verwendet werden, kann dabei von derselben Kamera, deren verdeckter Umgebungsbereich ersetzt werden soll, aufgenommen worden sein. Zusätzlich oder alternativ dazu kann auch ein gespeichertes Kamerabild verwendet werden, welches von einer anderen Kamera des Fahrzeugs aufgenommen wurde. The stored camera image, the image data of which is used to replace the hidden surrounding area determined for one of the cameras, can have been recorded by the same camera whose hidden surrounding area is to be replaced. In addition or as an alternative, a stored camera image recorded by another camera in the vehicle can also be used.

Die Umgebungsdarstellung wird anschließend aus dem wenigsten einen Kamerabild sowie den Bilddaten erzeugt. Dabei wird mit den Bilddaten zumindest ein Teil des in dem wenigstens einen Kamerabild verdeckten Umgebungsbereich in der Umgebungsdarstellung dargestellt. Mit anderen Worten wird in der Umgebungsdarstellung der verdeckte Umgebungsbereich wenigstens zum Teil mit den Bilddaten einer weiteren der Kameras und/oder mit zu einem früheren Zeitpunkt aufgenommenen Bilddaten aufgefüllt. Dies bewirkt, dass die Umgebungsdarstellung zusätzliche Informationen über die tatsächliche Fahrzeugumgebung enthält, welche bei einem Erzeugen derThe environment representation is then generated from the at least one camera image and the image data. In this case, at least a part of the surrounding area hidden in the at least one camera image is represented in the environment representation using the image data. In other words, in the environment representation, the hidden surrounding area is at least partially filled with the image data of another of the cameras and/or with image data recorded at an earlier point in time. This means that the environment representation contains additional information about the actual vehicle environment, which is available when the

Umgebungsdarstellung nur aus einem Kamerabild oder nur aus mehreren, an ihren Überlappungsbereichen zusammengefügten Kamerabildern nicht enthalten wären. Die Verwendung von Bilddaten aus einem früher aufgenommenen Kamerabild stellt dabei zumindest eine Näherung des aktuellen Fahrzeugumfelds dar, insbesondere wenn der erste Aufnahmezeitpunkt und der zweiten Aufnahmezeitpunkt nur eine kurze Zeitspanne auseinanderliegen. Environment representation from only one camera image or only from several, at their camera images merged in overlapping areas would not be included. The use of image data from a previously recorded camera image represents at least an approximation of the current vehicle surroundings, especially if the first recording time and the second recording time are only a short period of time apart.

Die Umgebungsdarstellung kann insbesondere auf einer Anzeigeeinrichtung des Fahrzeugs, insbesondere auf einem in einem Fahrzeuginnenraum angeordneten Display, für einen Fahrer sichtbar dargestellt werden. Auf diese Weise wird einem Fahrer des Fahrzeugs eine Hilfestellung, beispielsweise bei einer Durchführung von Fahrmanövern auf engem Raum, geboten. The representation of the surroundings can be shown visibly to a driver, in particular on a display device of the vehicle, in particular on a display arranged in a vehicle interior. In this way, a driver of the vehicle is provided with assistance, for example when carrying out driving maneuvers in a confined space.

Durch das erfindungsgemäße Verfahren kann vorteilhaft eine verbesserte Situationswahrnehmung durch den Fahrer erfolgen. Durch das Einfügen der Bilddaten in die Umgebungsdarstellung wird zusätzliche Information bzw. zusätzlicher Kontext bereitgestellt, welcher dem Fahrer das Führen des Fahrzeugs erleichtern kann. Insbesondere wird das Erlangen eines Situationsverständnisses vereinfacht, wodurch der Fahrer vorteilhaft schneller und/oder besser auf die aktuelle Verkehrssituation im Fahrzeugumfeld reagieren kann. The method according to the invention can advantageously lead to an improved perception of the situation by the driver. By inserting the image data into the representation of the environment, additional information or additional context is provided, which can make it easier for the driver to drive the vehicle. In particular, gaining an understanding of the situation is made easier, which advantageously allows the driver to react more quickly and/or better to the current traffic situation in the vehicle's surroundings.

Durch das Ausfüllen von verdeckten Umgebungsbereichen in der Darstellung des Fahrzeugumfelds kann das Auftreten von toten Winkeln oder blinden Flecken verhindert oder zumindest reduziert werden, was vorteilhaft eine Steigerung der Verkehrssicherheit zur Folge hat. Durch das bessere Situationsverständnis eines Fahrers kann das Risiko für Kollisionen oder Unfälle aufgrund von nicht einsehbaren Umgebungsbereichen reduziert werden. By filling in hidden areas of the vehicle's surroundings, the occurrence of blind spots can be prevented or at least reduced, which has the advantage of increasing road safety. The driver's better understanding of the situation can reduce the risk of collisions or accidents due to areas of the surroundings that cannot be seen.

Insbesondere das Einfügen von Bilddaten aus einem gespeicherten Kamerabild ermöglicht es, bei einer Auswertung der dreidimensionalen Fahrzeugumgebung, welche beispielsweise auf Grundlage der erzeugten Umgebungsdarstellung erfolgen kann, zusätzliche Funktionen wie eine Objektverfolgung, eine Objekterkennung und/oder eine Augmentierung der Umgebungsdarstellung mit weiteren Informationen umzusetzen. Auch das Implementieren weiterer Funktionen, welche auf ein möglichst vollständiges Verständnis der aktuellen Verkehrssituation angewiesen sind, wird dadurch vereinfacht. In particular, the insertion of image data from a stored camera image makes it possible to implement additional functions such as object tracking, object recognition and/or augmentation of the environment representation with additional information when evaluating the three-dimensional vehicle environment, which can be carried out, for example, on the basis of the generated environment representation. The implementation of further This simplifies functions that depend on the most complete possible understanding of the current traffic situation.

Insbesondere im Fall von statischen Umgebungsobjekten können auch vorangehend aufgenommenen Kamerabildern wertvolle Informationen hinsichtlich der Anwesenheit sowie der Position von Objekten, Landmarken und/oder Hindernissen entnommen werden, wenn diese mit einem aktuellen Kamerabild der Fahrzeugumgebung in der Umgebungsdarstellung zusammengefügt werden. Particularly in the case of static environmental objects, valuable information regarding the presence and position of objects, landmarks and/or obstacles can also be obtained from previously recorded camera images if these are combined with a current camera image of the vehicle's surroundings in the environmental representation.

Durch das Reduzieren von verdeckten Bildbereichen, in welchen kein Bildinhalt oder nur ein schematischer Bildinhalt wie eine statische Farbe oder dergleichen angezeigt werden, wird weiterhin erreicht, dass das Fahrzeugumfeld fortlaufend in einer konsistenten Weise wiedergegeben werden kann. Dies vereinfacht insbesondere das Erfassen der Umgebung, wenn dynamische Bedingungen, wie sich ändernde Beleuchtungsbedingungen und/oder dynamische Objekte in der Umgebung des Fahrzeugs, vorhanden sind. In solchen Fällen kann mithilfe des erfindungsgemäßen Verfahrens vorteilhaft eine konsistente und im Wesentlichen der menschlichen Wahrnehmung entsprechende Umgebungsdarstellung erzeugt und von einem Fahrer des Fahrzeugs betrachtet werden. By reducing hidden image areas in which no image content or only a schematic image content such as a static color or the like is displayed, it is also achieved that the vehicle surroundings can be continuously reproduced in a consistent manner. This particularly simplifies the detection of the surroundings when dynamic conditions, such as changing lighting conditions and/or dynamic objects in the surroundings of the vehicle, are present. In such cases, the method according to the invention can advantageously be used to generate a consistent representation of the surroundings that essentially corresponds to human perception and can be viewed by a driver of the vehicle.

Erfindungsgemäß kann vorgesehen sein, dass zunächst überprüft wird, ob die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs in wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen weiteren Kamerabild einer weiteren der Kameras vorhanden sind, wobei bei Vorhandensein der Bilddaten aus dem wenigstens einen weiteren Kamerabild diese Bilddaten für die Erzeugung der Umgebungsdarstellung verwendet werden und wobei bei Nichtvorhandensein der Bilddaten aus dem wenigstens einen weiteren Kamerabild die Bilddaten aus dem wenigstens einen gespeicherten Kamerabild für die Erzeugung der Umgebungsdarstellung verwendet werden. According to the invention, it can be provided that it is first checked whether the image data for filling the concealed surrounding area are present in at least one further camera image of another of the cameras recorded at the first recording time, wherein if the image data from the at least one further camera image are present, these image data are used to generate the representation of the surroundings and wherein if the image data from the at least one further camera image are not present, the image data from the at least one stored camera image are used to generate the representation of the surroundings.

Dieses zweistufige Vorgehen ermöglicht vorteilhaft, dass zunächst überprüft wird, ob aktuelle, d. h. ebenfalls an dem ersten Aufnahmezeitpunkt aufgenommene, weitere Kamerabilder vorhanden sind, denen die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereich entnommen werden können. Dies kann zum Beispiel anhand der dreidimensionalen Umgebungsdaten bzw. anhand der daraus abgeleiteten, verdeckten Umgebungsbereiche erfolgen, wenn diese jeweils für mehrere Kameras des Fahrzeugs ermittelt wurden. Wenn solche aktuellen Bilddaten vorliegen, können diese bevorzugt zum Ausfüllen des verdeckten Umgebungsbereichs verwendet werden. This two-stage procedure advantageously allows for checking whether there are any current camera images, i.e. images taken at the same time as the first image, which provide the image data needed to fill in the hidden surrounding area. This can be done, for example, using the three-dimensional surrounding data or the hidden surrounding areas derived from it, if these were determined for several cameras in the vehicle. If such current image data is available, it can be used preferentially to fill in the hidden surrounding area.

Wenn keine weiteren Kamerabilder einer weiteren Kamera zum ersten Aufnahmezeitpunkt, denen die Bilddaten für den verdeckten Umgebungsbereich entnommen werden könnten, vorliegen, dann kann anschließend überprüft werden, ob mittels der Kamera oder einer weiteren Kamera des Fahrzeugs zu einem früheren, zweiten Aufnahmezeitpunkt aufgenommene, gespeicherte Kamerabilder vorliegen, in welchen die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs enthalten sind. Entsprechend können dann die Bilddaten aus dem wenigstens einen gespeicherten Kamerabild für das Erzeugen der Umgebungsansicht herangezogen werden. If there are no further camera images from another camera at the first recording time from which the image data for the hidden surrounding area could be taken, then it can be checked whether there are any stored camera images recorded by the camera or another camera of the vehicle at an earlier, second recording time which contain the image data for filling the hidden surrounding area. Accordingly, the image data from the at least one stored camera image can then be used to generate the view of the surroundings.

Bei einer Umgebungsdarstellung, welche aus mehreren, zum ersten Aufnahmezeitpunkt aufgenommenen Kamerabildern gebildet wird, kann für jedes der Kamerabilder entsprechend überprüft werden, ob für einen gegebenenfalls vorhandenen verdeckten Umgebungsbereich die Bilddaten einer weiteren Kamera zum ersten Aufnahmezeitpunkt oder historische Bilddaten, welche einem zu einem zweiten Aufnahmezeitpunkt aufgenommenen Kamerabild entnommen werden, verwendet werden. In the case of an environmental representation which is formed from several camera images recorded at the first recording time, it can be checked for each of the camera images whether the image data of another camera at the first recording time or historical image data which are taken from a camera image recorded at a second recording time are used for a possibly existing hidden environmental area.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs anhand der Umgebungsdaten ermittelt werden, wobei der verdeckte Umgebungsbereich der wenigstens einen Kamera zum ersten Aufnahmezeitpunkt mit dem verdeckten Umgebungsbereich der wenigstens einen weiteren Kamera und/oder mit einer dem gespeicherten Kamerabild zugeordneten Verdeckungsinformation, welche den verdeckten Umgebungsbereich der das gespeicherte Kamerabild erzeugenden Kamera zum zweiten Aufnahmezeitpunkt beschreibt, verglichen wird. Durch einen Vergleich der verdeckten Umgebungsbereiche für zwei der Kameras kann in einfacher Weise ermittelt werden, ob für den verdeckten Umgebungsbereich in den Kamerabildern einer der Kameras Bilddaten in den Kamerabildern der anderen Kamera enthalten sind. Dies ist der Fall, wenn der für die eine Kamera verdeckte Umgebungsbereich für die weitere Kamera nicht verdeckt ist. Dies gilt gleichermaßen für den Vergleich zweier zum ersten Aufnahmezeitpunkt aufgenommenen Kamerabilder und für den Vergleich zwischen einem zum ersten Aufnahmezeitpunkt aufgenommenen Kamerabild mit einem gespeicherten, zu einem zweiten Aufnahmezeitpunkt aufgenommenen Kamerabild. In a preferred embodiment of the invention, it can be provided that the image data for filling the concealed surrounding area are determined on the basis of the surrounding data, wherein the concealed surrounding area of the at least one camera at the first recording time is compared with the concealed surrounding area of the at least one further camera and/or with concealment information associated with the stored camera image, which describes the concealed surrounding area of the camera generating the stored camera image at the second recording time. By comparing the hidden surrounding areas for two of the cameras, it is easy to determine whether image data for the hidden surrounding area in the camera images of one of the cameras is contained in the camera images of the other camera. This is the case if the surrounding area hidden for one camera is not hidden for the other camera. This applies equally to the comparison of two camera images recorded at the first recording time and to the comparison between a camera image recorded at the first recording time and a stored camera image recorded at a second recording time.

Zusätzlich oder alternativ dazu ist es möglich, dass die Bilddaten anhand einer Verdeckungsinformation ermittelt werden, welche einem gespeicherten Kamerabild zugeordnet ist. Die Verdeckungsinformation kann dabei beschreiben, welcher Teil des Fahrzeugumfelds in dem gespeicherten Kamerabild verdeckt ist, sodass eine Überprüfung, ob das Kamerabild Bilddaten zum Auffüllen eines verdeckten Umgebungsbereich enthält, vereinfacht werden kann. Die Verdeckungsinformation kann dabei beispielsweise an oder kurz nach dem Aufnahmezeitpunkt des Kamerabildes ermittelt und mit dem Kamerabild in einer Speichereinrichtung hinterlegt werden. In addition or as an alternative, it is possible for the image data to be determined using masking information that is associated with a stored camera image. The masking information can describe which part of the vehicle's surroundings is masked in the stored camera image, so that checking whether the camera image contains image data for filling a masked area of the surroundings can be simplified. The masking information can be determined, for example, at or shortly after the time the camera image is recorded and stored with the camera image in a storage device.

Erfindungsgemäß kann vorgesehen sein, dass die Umgebungsdaten in Abhängigkeit einer dem Kamerabild zugeordneten Tiefeninformation, in Abhängigkeit einer die Position des Fahrzeugs und die Fahrzeugumgebung beschreibenden Karteninformation und/oder in Abhängigkeit der Messdaten wenigstens eines Abstandssensors des Fahrzeugs ermittelt werden. Die dreidimensionalen Umgebungsdaten können aus dem Kamerabild durch eine Ermittlung von Tiefeninformationen aus dem in dem Kamerabild wiedergegebenen Bildinhalt erzeugt werden. According to the invention, it can be provided that the environmental data are determined as a function of depth information associated with the camera image, as a function of map information describing the position of the vehicle and the vehicle environment and/or as a function of the measurement data of at least one distance sensor of the vehicle. The three-dimensional environmental data can be generated from the camera image by determining depth information from the image content reproduced in the camera image.

Zusätzlich oder alternativ dazu ist es möglich, dass die dreidimensionalen Umgebungsdaten in Abhängigkeit einer die Fahrzeugumgebung beschreibenden Karten information ermittelt werden. Die Karteninformation kann dabei zum Beispiel mittels eines Verfahrens wie einer simultan Positionsbestimmung und Kartierung (englisch: Simultaneous Localization and Mapping, SLAM) und/oder vergleichbarer Verfahren ermittelt werden. In addition or as an alternative, it is possible for the three-dimensional environment data to be determined as a function of map information describing the vehicle environment. The map information can, for example, by means of a method such as simultaneous localization and mapping (SLAM) and/or comparable methods.

Es ist auch möglich, dass die dreidimensionalen Umgebungsdaten in Abhängigkeit der Messdaten wenigstens eines Abstandssensors des Fahrzeugs ermittelt werden. Mithilfe des Abstandsensors kann ein Abstand zwischen dem Sensor bzw. dem Fahrzeug und einem Umgebungsobjekt im Fahrzeugumfeld bestimmt werden. Der Abstandssensor kann zum Beispiel als ein Radarsensor, als ein Lidarsensor und/oder als ein Ultraschallsensor ausgeführt sein. It is also possible for the three-dimensional environmental data to be determined as a function of the measurement data from at least one distance sensor of the vehicle. Using the distance sensor, a distance between the sensor or the vehicle and an object in the vehicle's surroundings can be determined. The distance sensor can be designed, for example, as a radar sensor, as a lidar sensor and/or as an ultrasonic sensor.

Erfindungsgemäß kann die Umgebungsdarstellung ausgehend von einer virtuellen Kameraposition erzeugt werden, wobei die Bilddaten zur Darstellung des zumindest einen Teils des verdeckten Umgebungsbereichs in Abhängigkeit der virtuellen Kameraposition transformiert werden. Dadurch, dass die Bilddaten einem Kamerabild entnommen werden können, dessen Perspektive sich von der Perspektive ausgehend von der virtuellen Kamera unterscheidet, kann durch das Transformieren der Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs in der Umgebungsdarstellung eine verbesserte Wiedergabe der tatsächlichen Fahrzeugumgebung erfolgen. Durch die Transformation der Bilddaten kann der Unterschied in der Perspektive dabei zumindest teilweise ausgeglichen werden, sodass sich ein stimmiges Gesamtbild ergibt. According to the invention, the environment representation can be generated starting from a virtual camera position, wherein the image data for representing at least part of the concealed environment area is transformed depending on the virtual camera position. Because the image data can be taken from a camera image whose perspective differs from the perspective starting from the virtual camera, an improved reproduction of the actual vehicle environment can be achieved by transforming the image data to fill in the concealed environment area in the environment representation. By transforming the image data, the difference in perspective can be at least partially compensated, resulting in a coherent overall image.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass die Bilddaten und das wenigstens eine Kamerabild zur Erzeugung der Umgebungsansicht in Abhängigkeit wenigstens einer Bildharmonisierungsfunktion zusammengefügt werden. Mithilfe der Bildharmonisierungsfunktion können zum Beispiel Unterschiede in einer Belichtung, in der Farbgebung und/oder in einer Auflösung zwischen dem Kamerabild und den eingefügten Bilddaten zumindest teilweise ausgeglichen werden. Durch das Verwenden wenigstens einer Bildharmonisierungsfusion kann somit ein stimmigeres Gesamtbild in der Umgebungsdarstellung erreicht werden. Erfindungsgemäß kann vorgesehen sein, dass mehrere Kameras einer als Surroundview-System des Fahrzeugs ausgebildeten Kameraanordnung verwendet werden. Entsprechend kann es sich bei der Umgebungsdarstellung bevorzugt um eine Surroundview-Darstellung handeln, welche ausgehend von einer virtuellen Kameraposition beispielsweise ein virtuelles Modell des Fahrzeugs sowie den aus der Position der virtuellen Kamera sichtbaren Teil des Fahrzeugumfelds wiedergibt. In a preferred embodiment of the invention, it can be provided that the image data and the at least one camera image are combined to generate the view of the surroundings depending on at least one image harmonization function. With the help of the image harmonization function, for example, differences in exposure, color and/or resolution between the camera image and the inserted image data can be at least partially compensated. By using at least one image harmonization fusion, a more harmonious overall image can thus be achieved in the representation of the surroundings. According to the invention, it can be provided that several cameras of a camera arrangement designed as a surround view system of the vehicle are used. Accordingly, the representation of the environment can preferably be a surround view representation which, starting from a virtual camera position, reproduces, for example, a virtual model of the vehicle as well as the part of the vehicle surroundings visible from the position of the virtual camera.

Weiterhin betrifft die Erfindung eine Steuereinrichtung, welche zur Durchführung eines erfindungsgemäßen Verfahrens eingerichtet ist. Der Schritt der Bereitstellung der Kamerabilder kann zum Beispiel dadurch erfolgen, dass die Steuereinrichtung zum Empfang der Kamerabilder über eine Kommunikationsverbindung und/oder zum Abrufen der Kamerabilder aus einer Speichereinrichtung des Fahrzeugs ausgebildet ist. The invention further relates to a control device which is designed to carry out a method according to the invention. The step of providing the camera images can be carried out, for example, by the control device being designed to receive the camera images via a communication connection and/or to retrieve the camera images from a storage device in the vehicle.

Für ein erfindungsgemäßes Fahrerassistenzsystems vorgesehen, dass es wenigstens eine Kamera, welche zur Bereitstellung von zumindest ein Teil einer Fahrzeugumgebung darstellenden Kamerabildern ausgebildet ist, sowie eine zur Durchführung eines erfindungsgemäßen Verfahrens eingerichtete Steuereinrichtung umfasst. For a driver assistance system according to the invention, it is provided that it comprises at least one camera which is designed to provide camera images representing at least part of a vehicle environment, as well as a control device set up to carry out a method according to the invention.

Für eine Erfindung gemäß des Fahrzeuges vorgesehen, dass es ein erfindungsgemäßes Fahrerassistenzsystem aufweist. For an invention according to the vehicle it is provided that it has a driver assistance system according to the invention.

Sämtliche vorangehend in Bezug zu dem erfindungsgemäßen Verfahren beschriebenen Vorteile und Ausgestaltungen gelten entsprechend auch für das erfindungsgemäße Steuergerät, das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Fahrzeug und umgekehrt. Auch die in Bezug zu der erfindungsgemäßen Steuereinrichtung, dem erfindungsgemäßen Fahrerassistenzsystem und dem erfindungsgemäßen Fahrzeug beschriebenen Vorteile und Ausgestaltungen sind auf die jeweils anderen Gegenstände analog übertragbar. Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Diese sind schematische Darstellungen und zeigen: All advantages and configurations described above in relation to the method according to the invention also apply accordingly to the control device according to the invention, the driver assistance system according to the invention and the vehicle according to the invention and vice versa. The advantages and configurations described in relation to the control device according to the invention, the driver assistance system according to the invention and the vehicle according to the invention can also be transferred analogously to the other objects. Further advantages and details of the invention emerge from the embodiments described below and from the drawings. These are schematic representations and show:

Fig. 1 ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs umfassend ein Ausführungsbeispiel eines erfindungsgemäßen Fahrerassistenzsystems, Fig. 1 shows an embodiment of a vehicle according to the invention comprising an embodiment of a driver assistance system according to the invention,

Fig. 2 ein Blockdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens, Fig. 2 is a block diagram of an embodiment of a method according to the invention,

Fig. 3 ein Beispiel für ein mit einer Kamera des Fahrzeugs aufgenommenes Kamerabild und Fig. 3 shows an example of a camera image taken with a camera of the vehicle and

Fig. 4 ein Ausführungsbeispiel einer mit dem erfindungsgemäßen Verfahren erzeugten Umgebungsdarstellung. Fig. 4 shows an embodiment of an environment representation generated using the method according to the invention.

In Fig. 1 ist ein Ausführungsbeispiel eines Fahrzeugs 1 gezeigt. Bei dem Fahrzeug 1 kann es sich zum Beispiel um ein Kraftfahrzeug, insbesondere einenFig. 1 shows an embodiment of a vehicle 1. The vehicle 1 can be, for example, a motor vehicle, in particular a

Personenkraftwagen, einen Lastkraftwagen oder eine andere Art von Nutzfahrzeug, handeln. Es ist auch möglich, dass das Fahrzeug 1 ein unmotorisiertes Fahrzeug wie ein Anhänger ist oder dass es sich um ein Gespann aus einem Zugfahrzeug und einem Anhänger handelt. Das Fahrzeug 1 kann auch ein schienengebundenes Fahrzeug, wie eine Straßenbahn oder dergleichen, oder ein Roboter sein. The vehicle 1 can be a passenger car, a truck or another type of commercial vehicle. It is also possible that the vehicle 1 is a non-motorized vehicle such as a trailer or that it is a combination of a towing vehicle and a trailer. The vehicle 1 can also be a rail-bound vehicle such as a tram or the like, or a robot.

Das Fahrzeug 1 umfasst ein Ausführungsbeispiel eines Fahrerassistenzsystems 2, welches eine oder mehrere Kameras 3 sowie eine Steuereinrichtung 4 umfasst. Im vorliegenden Ausführungsbeispiel umfasst das Fahrzeug 1 vier Kameras 3, welche eine als Surroundview-System ausgeführte Kameraanordnung bilden. Eine erste Kamera 5 ist dabei als eine Frontkamera des Fahrzeugs 1 , eine zweite Kamera 6 als eine Rückfahrkamera des Fahrzeugs 1 , sowie eine dritte Kamera 7 und eine vierte Kamera 8 jeweils als eine Seitenkamera des Fahrzeugs 1 angeordnet. Die Steuereinrichtung 4 kann zum Beispiel als ein Mikrocontroller, als ein Prozessor oder als eine andere Art von Recheneinrichtung ausgebildet sein. The vehicle 1 comprises an embodiment of a driver assistance system 2, which comprises one or more cameras 3 and a control device 4. In the present embodiment, the vehicle 1 comprises four cameras 3, which form a camera arrangement designed as a surround view system. A first camera 5 is arranged as a front camera of the vehicle 1, a second camera 6 as a rear view camera of the vehicle 1, and a third camera 7 and a fourth camera 8 each as a side camera of the vehicle 1. The Control device 4 can be designed, for example, as a microcontroller, as a processor or as another type of computing device.

Das Fahrerassistenzsystem 2 umfasst weiterhin eine Anzeigeeinrichtung 9, über die grafische Informationen für einen Fahrer bzw. einen Benutzer des Fahrzeugs 1 dargestellt werden können. Bei der Anzeigeeinrichtung 9 kann es sich zum Beispiel um einen oder mehrere in einem Innenraum des Fahrzeugs 1 angeordnete Bildschirme bzw. Displays handeln. The driver assistance system 2 further comprises a display device 9, via which graphic information can be displayed for a driver or a user of the vehicle 1. The display device 9 can, for example, be one or more screens or displays arranged in an interior of the vehicle 1.

Weiterhin umfasst das Fahrzeug 1 wenigstens einen Abstandssensor 10. Über den wenigstens einen Abstandssensor 10 können die Abstände zu Objekten, insbesondere zu vor, neben und hinter dem Fahrzeug angeordneten Objekten, bestimmt werden. Der Abstandssensor 10 kann zum Beispiel als ein Radarsensor, als ein Lidarsensor und/oder als ein Ultraschallsensor ausgeführt sein. Das Fahrzeug 1 kann insbesondere mehrere Abstandssensoren 10 aufweisen, welche als eine beliebige Kombination von unterschiedlichen Sensortypen ausgeführt und an unterschiedlichen Positionen am Fahrzeug 1 angeordnet sein können. The vehicle 1 also comprises at least one distance sensor 10. The distances to objects, in particular to objects arranged in front of, next to and behind the vehicle, can be determined via the at least one distance sensor 10. The distance sensor 10 can be designed, for example, as a radar sensor, as a lidar sensor and/or as an ultrasonic sensor. The vehicle 1 can in particular have a plurality of distance sensors 10, which can be designed as any combination of different sensor types and can be arranged at different positions on the vehicle 1.

Mittels der Kameras 3 können jeweils Bilddaten aus einem Teilbereich einer Umgebung des Fahrzeugs 1 erzeugt werden. Die Kameras 3 und der wenigstens eine Abstandsensor 10 sind mit der Steuereinrichtung 4 über eine Kommunikationsverbindung 11 verbunden. Die Kommunikationsverbindung 11 kann zum Beispiel eine Mehrzahl von Punkt-zu-Punkt-Verbindungen umfassen oder eine Bus-Verbindung wie ein CAN-Bus oder dergleichen sein. Über die Kommunikationsverbindung 11 werden, insbesondere kontinuierlich, Bilddaten bzw. Kamerabilder von den Kameras 3 an das Steuergerät 4 übermittelt. The cameras 3 can be used to generate image data from a sub-area of the surroundings of the vehicle 1. The cameras 3 and the at least one distance sensor 10 are connected to the control device 4 via a communication connection 11. The communication connection 11 can, for example, comprise a plurality of point-to-point connections or be a bus connection such as a CAN bus or the like. Image data or camera images are transmitted from the cameras 3 to the control device 4 via the communication connection 11, in particular continuously.

Die Steuereinrichtung 4 ist dazu ausgebildet, ein Verfahren zum Erzeugen einer die Fahrzeugumgebung darstellenden Umgebungsdarstellung auszuführen. Die Steuereinrichtung 4 verwendet dazu mehrere Kamerabilder, welche mittels der Kameras 3 des Fahrzeug 1 aufgenommen wurden. Um Zugriff auf an einem früheren Zeitpunkt bzw. einer früheren Fahrzeugposition aufgenommene Kamerabilder zu erhalten, können zumindest ein Teil der aufgenommenen Kamerabilder im Fahrzeug 1 gespeichert werden, zum Beispiel in einer Speichereinrichtung der Steuereinrichtung 4 und/oder in einer Speichereinrichtung der jeweiligen Kamera. Bei der Speichereinrichtung kann es sich zum Beispiel um einen temporären Datenspeicher wie einen Arbeitsspeicher oder um einen dauerhaften Datenspeicher wie eine Festplatte handeln. The control device 4 is designed to carry out a method for generating an environmental representation representing the vehicle's surroundings. The control device 4 uses several camera images that were recorded by the cameras 3 of the vehicle 1. In order to gain access to camera images recorded at an earlier point in time or at an earlier vehicle position, at least some of the recorded camera images can be stored in the vehicle 1, for example in a storage device of the control device 4 and/or in a storage device of the respective camera. The storage device can be, for example, a temporary data storage device such as a working memory or a permanent data storage device such as a hard disk.

In Fig. 2 ist ein Blockdiagramm eines Ausführungsbeispiels eines Verfahrens zum Erzeugen einer die Fahrzeugumgebung darstellenden Umgebungsdarstellung abgebildet. Fig. 2 shows a block diagram of an embodiment of a method for generating an environmental representation representing the vehicle environment.

In einem ersten Schritt S1 des Verfahrens erfolgt das Bereitstellen von mehreren Kamerabildern, welche mithilfe der Kameras 3 des Fahrzeugs 1 aufgenommen wurden, wobei die Kamerabilder jeweils einen Teilbereich des Fahrzeugumfelds zeigen. Die Kamerabilder können dabei aktuelle Kamerabilder sein, welche an einem ersten Aufnahmezeitpunkt erzeugt und an die Steuereinrichtung übermittelt werden. Zusätzlich oder alternativ dazu können auch historische Kamerabilder bereitgestellt werden, welche an einem vor dem ersten Aufnahmezeitpunkt liegenden zweiten Aufnahmezeitpunkt aufgenommen wurden und welche in dem Fahrzeug 1 für die Steuereinrichtung 4 abrufbar gespeichert sind. In a first step S1 of the method, several camera images are provided which were recorded using the cameras 3 of the vehicle 1, wherein the camera images each show a partial area of the vehicle's surroundings. The camera images can be current camera images which are generated at a first recording time and transmitted to the control device. Additionally or alternatively, historical camera images can also be provided which were recorded at a second recording time before the first recording time and which are stored in the vehicle 1 so that they can be retrieved by the control device 4.

Anschließend erfolgt in einem Schritt S2 das Erzeugen von dreidimensionalen Umgebungsdaten aus wenigstens einem der Kamerabilder, das an einem ersten Aufnahmezeitpunkt aufgenommen wurde. Die dreidimensionalen Umgebungsdaten beschreiben Objekte und/oder Merkmale der Umgebungsstruktur hinsichtlich ihrer geometrischen Form sowie hinsichtlich ihrer Anordnung, insbesondere in Bezug zu der Position des Fahrzeugs 1 . Subsequently, in a step S2, three-dimensional environmental data is generated from at least one of the camera images that was recorded at a first recording time. The three-dimensional environmental data describe objects and/or features of the environmental structure with regard to their geometric shape and their arrangement, in particular in relation to the position of the vehicle 1.

Die Umgebungsdaten können dabei aus dem Bildinhalt des wenigstens einen Kamerabildes abgeleitet werden. Die Umgebungsdaten können durch die Steuereinrichtung 4 bestimmt werden, welche beispielsweise mittels einer oder mehrerer Algorithmen den Bildinhalt eines oder mehrerer der Kamerabilder auswerten kann. Eine Auswertung des Bildinhalts kann beispielsweise mittels Verfahren wie semantischer Segmentierung, Structure-from-Motion, SLAM oder ähnlichen Verfahren erfolgen. The environmental data can be derived from the image content of at least one camera image. The environmental data can be determined by the control device 4, which, for example, uses one or more algorithms to determine the image content of one or more of the camera images. can be evaluated. The image content can be evaluated using methods such as semantic segmentation, structure-from-motion, SLAM or similar methods.

Die Umgebungsdaten können dabei in Abhängigkeit einer dem Kamerabild zugeordneten Tiefeninformation ermittelt werden. Die Tiefeninformation kann dabei angeben, welche Bildbereiche welche Tiefe, also welchen Abstand zum Fahrzeug 1 , aufweisen. Die Tiefeninformation kann beispielsweise, wie vorangehend beschrieben wurde, durch die Steuereinrichtung 4 mittels einer oder mehrerer der Algorithmen ermittelt werden. Für gespeicherte Kamerabilder ist es möglich, dass eine entsprechende Tiefeninformation zu den gespeicherten Kamerabildern ebenfalls in einer Speichereinrichtung für die Steuereinrichtung 4 abrufbar gespeichert wird. The environmental data can be determined depending on depth information associated with the camera image. The depth information can indicate which image areas have which depth, i.e. which distance from the vehicle 1. The depth information can, for example, be determined by the control device 4 using one or more of the algorithms, as described above. For stored camera images, it is possible that corresponding depth information for the stored camera images is also stored in a storage device so that it can be retrieved by the control device 4.

Es ist auch möglich, dass die Umgebungsdaten in Abhängigkeit einer die Position des Fahrzeugs und die Fahrzeugumgebung beschreibenden Karteninformation ermittelt werden. Die Karteninformation kann dabei Informationen über die Fahrzeugumgebung sowie über die Position des Fahrzeugs innerhalb der Fahrzeugumgebung enthalten. Eine in dem Kraftfahrzeug verwendete It is also possible that the environmental data are determined depending on map information describing the position of the vehicle and the vehicle surroundings. The map information can contain information about the vehicle surroundings as well as the position of the vehicle within the vehicle surroundings. A

Karten information kann insbesondere fortlaufend in Abhängigkeit der Kamerabilder der Kameras 3 und/oder der Messdaten des Abstandsensors 10 aktualisiert werden. Map information can in particular be continuously updated depending on the camera images from the cameras 3 and/or the measurement data from the distance sensor 10.

Es ist auch möglich, dass die Messdaten des Abstandsensors 10, welche die Abstände von Objekten in der Umgebung des Fahrzeugs 1 zum Fahrzeug 1 beschreiben, für die Ermittlung der Umgebungsdaten herangezogen werden. Dazu können die Messdaten des Abstandsensors 10 vom Abstandsensor 10 an die Steuereinrichtung 4 über eine Kommunikationsverbindung übertragen werden. It is also possible for the measurement data of the distance sensor 10, which describe the distances of objects in the surroundings of the vehicle 1 to the vehicle 1, to be used to determine the environmental data. For this purpose, the measurement data of the distance sensor 10 can be transmitted from the distance sensor 10 to the control device 4 via a communication connection.

Anschließend werden einem Schritt S3 des Verfahrens für die einzelnen Kameras 3 des Fahrzeugs 1 jeweils verdeckte Umgebungsbereiche aus den vorangehend bestimmten, dreidimensionalen Umgebungsdaten ermittelt. Dabei werden insbesondere die Bereiche identifiziert, in denen jeweils ein Teil der Fahrzeugumgebung aufgrund einer Verdeckung durch ein Umgebungsobjekt nicht eingesehen werden kann. Subsequently, in a step S3 of the method, hidden environmental areas are determined for the individual cameras 3 of the vehicle 1 from the previously determined three-dimensional environmental data. In particular, the areas are identified in which a part of the The vehicle surroundings cannot be seen due to being obscured by an object in the surrounding area.

In Fig. 3 ist beispielhaft ein Kamerabild 12 dargestellt, bei dem jeweils ein Teil der Fahrzeugumgebung durch ein Objekt 13 verdeckt wird. Das Kamerabild 12 kann zum Beispiel von einer der Seitenkameras 7, 8 des Fahrzeugs 1 aufgenommen worden sein. Der verdeckte Bildbereich 14 umfasst diejenigen Teilbereiche, welche hinter den als Pfosten ausgebildeten Objekten 13 liegen. Für die hinter den Objekten 13 liegenden Bereiche der Fahrzeugumgebung liegen in dem Kamerabild 12 keine Bildinformationen vor. Die verdeckten Bildbereiche 14 beziehen sich dabei jeweils auf ein Kamerabild 12 bzw. auf eine der Kameras 3, sodass sich die verdeckten Bildbereiche 14 für verschiedene der Kameras 3 unterscheiden können. Fig. 3 shows an example of a camera image 12 in which a part of the vehicle surroundings is obscured by an object 13. The camera image 12 can, for example, have been recorded by one of the side cameras 7, 8 of the vehicle 1. The obscured image area 14 comprises those sub-areas which lie behind the objects 13 designed as posts. There is no image information in the camera image 12 for the areas of the vehicle surroundings which lie behind the objects 13. The obscured image areas 14 each relate to a camera image 12 or to one of the cameras 3, so that the obscured image areas 14 can differ for different cameras 3.

Im Schritt S4 erfolgt das Ermitteln von Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs 14. Dabei können in einem ersten Teilschritt S4A die Bilddaten aus wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen, weiteren Kamerabild einer der weiteren Kameras 3 des Fahrzeugs 1 entnommen werden. Beispielweise kann ein ebenfalls an dem ersten Aufnahmezeitpunkt aufgenommenes Kamerabild der Frontkamera 5 bzw. der Rückfahrkamera 6 verwendet werden, wenn diese aufgrund einer Überlappung der Erfassungsbereiche mit den seitlichen Kameras 7, 8 den verdeckten Umgebungsbereich 14 der Seitenkameras 7, 8 unverdeckt erfassen. In step S4, image data is determined to fill in the hidden surrounding area 14. In a first sub-step S4A, the image data can be taken from at least one additional camera image recorded at the first recording time from one of the additional cameras 3 of the vehicle 1. For example, a camera image from the front camera 5 or the rear view camera 6, also recorded at the first recording time, can be used if they capture the hidden surrounding area 14 of the side cameras 7, 8 uncovered due to an overlap of the detection areas with the side cameras 7, 8.

In einem Teilschritt S4B können die Bilddaten aus wenigstens einem gespeicherten, an einem vor dem ersten Aufnahmezeitpunkt liegenden zweiten Aufnahmezeitpunkt aufgenommenen Kamerabild der einen oder mehreren Kameras 3 des Fahrzeugs 1 ermittelt werden. In diesem Teilschritt werden also die Bilddaten einem historischen Kamerabild, welches zu einem früheren Zeitpunkt aufgenommen wurde, entnommen. Dieses gespeicherte Kamerabild kann von der Steuereinrichtung 4 aus einer Speichereinrichtung des Fahrzeugs 1 geladen werden. Das gespeicherte Kamerabild kann von derselben Kamera aufgenommen werden, wie das die verdeckten Umgebungsbereich aufweisenden Kamerabild, oder es kann sich um ein gespeichertes Kamerabild handeln, welches von einer anderen der Kameras 3 aufgenommen wurde. In a sub-step S4B, the image data can be determined from at least one stored camera image of the one or more cameras 3 of the vehicle 1, recorded at a second recording time before the first recording time. In this sub-step, the image data are therefore taken from a historical camera image that was recorded at an earlier time. This stored camera image can be loaded by the control device 4 from a storage device of the vehicle 1. The stored camera image can be recorded by the same camera as the camera image showing the hidden surrounding area. or it can be a stored camera image taken by another of the cameras 3.

Die Teilschritte S4A und S4B können alternativ oder nacheinander durchgeführt werden. Insbesondere kann zunächst überprüft werden, ob die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs 14 in wenigstens einen an dem ersten Aufnahmezeitpunkt aufgenommenen weiteren Kamerabild einer weiteren der Kameras 3 vorhanden sind, wobei bei Vorhandensein der Bilddaten aus dem wenigstens einen weiteren Kamerabild diese Bilddaten anschließend für die Erzeugung der Umgebungsdarstellung verwendet werden. The sub-steps S4A and S4B can be carried out alternatively or one after the other. In particular, it can first be checked whether the image data for filling the concealed surrounding area 14 are present in at least one further camera image recorded at the first recording time from another of the cameras 3, wherein if the image data from the at least one further camera image are present, these image data are then used to generate the representation of the surroundings.

Die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereich können beispielsweise anhand der dreidimensionalen Umgebungsdaten ermittelt werden. Dabei kann der verdeckte Umgebungsbereich 14 der wenigstens einen Kamera 3 zum ersten Aufnahmezeitpunkt mit dem verdeckten Umgebungsbereich der wenigstens einen weiteren Kamera verglichen werden. Auf diese Weise kann überprüft werden, ob in dem weiteren Kamerabild Bilddaten für die verdeckten Umgebungsbereiche 14 vorhanden sind. The image data for filling the hidden surrounding area can be determined, for example, using the three-dimensional surrounding data. The hidden surrounding area 14 of the at least one camera 3 can be compared with the hidden surrounding area of the at least one other camera at the first recording time. In this way, it can be checked whether image data for the hidden surrounding areas 14 are present in the other camera image.

Wenn ein weiteres Kamerabild vom ersten Aufnahmezeitpunkt nicht vorhanden ist bzw. wenn aus den weiteren vorhandenen Kamerabildern die Bilddaten nicht gewonnen werden können, so kann anschließend ein gespeichertes Kamerabild ermittelt und für die Erzeugung der Umgebungsdarstellung verwendet werden. Das gespeicherte Kamerabild kann insbesondere derart ermittelt werden, dass es die Fahrzeugumgebung ausgehend von einer anderen Kameraposition abbildet. Dies kann beispielsweise der Fall sein, wenn das Fahrzeug sich zwischen dem zweiten Aufnahmezeitung und dem ersten Aufnahmezeitpunkt bewegt hat. Dies bewirkt, dass in dem gespeicherten Kamerabild Bilddaten für die im ersten Aufnahmezeitpunkt aufgenommenen Kamerabild verdeckten Umgebungsbereiche 14 vorhanden sind. If another camera image from the first recording time is not available or if the image data cannot be obtained from the other existing camera images, a stored camera image can then be determined and used to generate the representation of the surroundings. The stored camera image can in particular be determined in such a way that it depicts the vehicle surroundings starting from a different camera position. This can be the case, for example, if the vehicle has moved between the second recording time and the first recording time. This means that image data for the surrounding areas 14 hidden by the camera image recorded at the first recording time are present in the stored camera image.

Bei der Verwendung eines gespeicherten Kamerabild können die Bilddaten zumWhen using a stored camera image, the image data can be

Ausfüllen des verdeckten Umgebungsbereichs 14 zum Beispiel auch mit einer dem gespeicherten Kamerabild zugeordneten Verdeckungsinformation ermittelt werden. Die Verdeckungsinformation kann den verdeckten Umgebungsbereich der das gespeicherten Kamerabild erzeugenden Kamera 3 zum zweiten Aufnahmezeitpunkt beschreiben. Mithilfe der Verdeckungsinformation können der verdeckte Umgebungsbereich des gespeicherten Kamerabildes sowie des weiteren Kamerabildes verglichen werden. Die Verdeckungsinformation kann beispielsweise dem gespeicherten Kamerabild zugeordnet und ebenfalls in der Speichereinrichtung hinterlegt sein. Es ist möglich, dass die Verdeckungsinformation bereits bei Aufnahme des gespeicherten Kamerabildes erzeugt und für die spätere Verwendung in der Speichereinrichtung hinterlegt wurde. Filling the hidden surrounding area 14, for example, with a The masking information can be determined from the masking information associated with the stored camera image. The masking information can describe the masked surrounding area of the camera 3 generating the stored camera image at the second recording time. The masking information can be used to compare the masked surrounding area of the stored camera image and the other camera image. The masking information can be associated with the stored camera image, for example, and also stored in the storage device. It is possible that the masking information was already generated when the stored camera image was recorded and stored in the storage device for later use.

In einem Schritt S5 wird schließlich die Umgebungsdarstellung auf Grundlage des wenigstens einen Kamerabildes 12 sowie den Bilddaten, welche zum Auffüllen des verdeckten Umgebungsbereichs verwendet werden, erzeugt. Die vorangehend in Schritt S4 ermittelten Bilddaten werden dabei in den verdeckten Umgebungsbereich 14 eingesetzt, sodass dieser, insbesondere bei Darstellung der Umgebungsdarstellung ausgehend von der Position einer virtuellen Kamera, zumindest teilweise mit die tatsächliche Umgebung des Fahrzeugs 1 zumindest näherungsweise beschreibenden Bilddaten dargestellt werden kann. Finally, in a step S5, the environment representation is generated on the basis of the at least one camera image 12 and the image data used to fill the hidden environment area. The image data previously determined in step S4 are inserted into the hidden environment area 14 so that, in particular when the environment representation is displayed starting from the position of a virtual camera, it can be displayed at least partially with image data that at least approximately describe the actual environment of the vehicle 1.

In Fig. 4 ist eine Umgebungsdarstellung 15 dargestellt. Die Umgebungsdarstellung 15 wurde ausgehend von einer virtuellen Kameraposition erzeugt, sodass der Blickwinkel auf die Fahrzeugumgebung nicht von einer tatsächlichen Position einer der Kameras 3 abhängt. Dies ermöglicht es, dass das Fahrzeug 1 , bzw. ein virtuelles Modell des Fahrzeugs 1 , ebenfalls in der Umgebungsdarstellung gezeigt werden kann. Die Bilddaten zur Darstellung zumindest eines Teils des verdeckten Umgebungsbereichs 14 können dabei insbesondere in Abhängigkeit der virtuellen Kameraposition transformiert werden, um den Unterschied in der Perspektive auszugleichen. Fig. 4 shows an environmental representation 15. The environmental representation 15 was generated based on a virtual camera position, so that the viewing angle of the vehicle's surroundings does not depend on an actual position of one of the cameras 3. This makes it possible for the vehicle 1, or a virtual model of the vehicle 1, to also be shown in the environmental representation. The image data for representing at least part of the hidden environmental area 14 can be transformed in particular depending on the virtual camera position in order to compensate for the difference in perspective.

In der in Fig. 4 gezeigten Umgebungsdarstellung 15 wurden die Bilddaten verwendet, um die von den als Pfosten ausgebildeten Objekten 13 verdeckten Teilbereiche des verdeckten Umgebungsbereichs 14 mit Daten über das tatsächliche Fahrzeugumfeld aufzufüllen. Das Verwenden der Bilddaten ermöglicht es dabei, dass der Fahrer ein vollständiges Bild des Fahrzeugumfelds betrachten kann, welches keine oder zumindest weniger Lücken und/oder schwarze bzw. nicht mit Bilddaten ausgefüllte Bereiche aufweist. Bevorzugt werden für die Umgebungsdarstellung 15 Bilddaten für alle verdeckten Bereiche 14 ermittelt, sodass eine vollständige, lückenfreie Wiedergabe der Umgebung möglich ist. In dem Fall, dass nicht für alle verdeckten Umgebungsbereiche 14 Bilddaten vorhanden sind, können die verbleibenden verdeckten Teilbereiche, für welche keine Bilddaten vorliegen, beispielsweise in schwarz dargestellt oder mittels einer Extrapolation der jeweils umgebenden Bildbereiche aufgefüllt werden. In the environment representation 15 shown in Fig. 4, the image data were used to identify the areas covered by the objects 13 formed as posts. Fill in sub-areas of the hidden surrounding area 14 with data about the actual vehicle surroundings. Using the image data enables the driver to view a complete image of the vehicle surroundings that has no or at least fewer gaps and/or black areas or areas not filled with image data. Preferably, image data for all hidden areas 14 are determined for the environment representation 15 so that a complete, gap-free reproduction of the environment is possible. In the event that image data is not available for all hidden surrounding areas 14, the remaining hidden sub-areas for which no image data is available can be shown in black, for example, or filled in by extrapolating the respective surrounding image areas.

Weiterhin ist es möglich, dass die Bilddaten und das wenigstens eine Kamerabild 12 zur Erzeugung der Umgebungsdarstellung 15 in Abhängigkeit wenigstens einer Bildharmonisierungsfunktion zusammengefügt werden. Mithilfe der Bildharmonisierung kann beispielsweise ein Ausgleich unterschiedlicher Helligkeiten, unterschiedlicher Farbsättigungen und dergleichen vorgenommen werden, um eine harmonische Umgebungsdarstellung 15 zu erzeugen. Furthermore, it is possible for the image data and the at least one camera image 12 to be combined to generate the environmental representation 15 depending on at least one image harmonization function. With the help of image harmonization, for example, different brightnesses, different color saturations and the like can be compensated for in order to generate a harmonious environmental representation 15.

Die in Fig. 4 gezeigte Umgebungsdarstellung 15 ist rein beispielhaft, es können insbesondere auch andere Arten von Umgebungsdarstellungen, beispielsweise unter einem anderen Winkel bzw. einer anderen virtuellen Kameraposition aufgenommene Umgebungsdarstellungen 15 erzeugt werden. Beispielsweise ist es möglich, dass als Umgebungsdarstellung 15 auch ein Topview, welcher eine Aufsicht auf das Fahrzeug 1 in einer Vogelperspektive zeigt, erzeugt wird. The environmental representation 15 shown in Fig. 4 is purely exemplary; in particular, other types of environmental representations can also be generated, for example environmental representations 15 recorded at a different angle or a different virtual camera position. For example, it is possible that a top view, which shows a bird's eye view of the vehicle 1, is also generated as the environmental representation 15.

Die Umgebungsdarstellung 15 kann einem Fahrer des Fahrzeugs 1 auf der Anzeigeeinrichtung 9 dargestellt werden, sodass diese vom Fahrer 1 für die Durchführung von Fahrzeugmanövern betrachtet werden kann. Dadurch wird die Durchführung präziser Fahrmanöver, insbesondere auf engem Raum durchgeführte Manöver wie Parkmanöver, signifikant vereinfacht. Zusätzlich kann die Umgebungsdarstellung 15 auch für weitere Fahrerassistenzfunktionen des Fahrzeugs 1 , welche beispielsweise eine Verfolgung von Objekten, Landmarken oder Hindernissen im Umfeld des Fahrzeugs 1 beinhalten, verwendet werden. The environment display 15 can be shown to a driver of the vehicle 1 on the display device 9 so that it can be viewed by the driver 1 for carrying out vehicle maneuvers. This significantly simplifies the execution of precise driving maneuvers, especially maneuvers carried out in a confined space such as parking maneuvers. In addition, the environment display 15 can also be used for other driver assistance functions of the Vehicle 1, which include, for example, tracking objects, landmarks or obstacles in the vicinity of the vehicle 1.

Claims

Patentansprüche patent claims 1 . Verfahren zum Erzeugen einer eine Fahrzeugumgebung darstellenden Umgebungsdarstellung (15) umfassend die Schritte: 1 . Method for generating an environmental representation (15) representing a vehicle environment, comprising the steps: - Bereitstellen von mit einer oder mehreren Kameras (3) des Fahrzeugs (1 ) aufgenommenen Kamerabildern (12), wobei in den Kamerabildern (12) jeweils zumindest ein Teil der Fahrzeugumgebung dargestellt ist,- providing camera images (12) recorded with one or more cameras (3) of the vehicle (1), wherein at least a part of the vehicle environment is shown in each of the camera images (12), - Erzeugen von dreidimensionalen Umgebungsdaten aus wenigstens einem der Kamerabilder (12), wobei das wenigstens eine Kamerabild (12) an einem ersten Aufnahmezeitpunkt aufgenommen wurde,- generating three-dimensional environmental data from at least one of the camera images (12), wherein the at least one camera image (12) was recorded at a first recording time, - Ermitteln eines verdeckten Umgebungsbereichs (14) für wenigstens eine der Kameras aus den Umgebungsdaten, - determining a hidden environmental area (14) for at least one of the cameras from the environmental data, - Ermitteln von Bilddaten zum zumindest teilweisen Ausfüllen des verdeckten Umgebungsbereichs (14), wobei die Bilddaten aus wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen weiteren Kamerabild einerweiteren der Kameras (3) und/oder aus wenigstens einem gespeicherten, an einem vor dem ersten Aufnahmezeitpunkt liegenden zweiten Aufnahmezeitpunkt aufgenommenen Kamerabild der einen oder mehreren Kameras (3) ermittelt werden, - determining image data for at least partially filling the concealed surrounding area (14), wherein the image data are determined from at least one further camera image of another of the cameras (3) recorded at the first recording time and/or from at least one stored camera image of the one or more cameras (3) recorded at a second recording time prior to the first recording time, - Erzeugen der Umgebungsdarstellung aus dem wenigsten einen Kamerabild (12) sowie den Bilddaten, wobei mit den Bilddaten zumindest ein Teil des in dem wenigstens einen Kamerabild (12) verdeckten Umgebungsbereichs (14) in der Umgebungsdarstellung (15) dargestellt wird. - generating the environment representation from the at least one camera image (12) and the image data, wherein at least a part of the environment region (14) hidden in the at least one camera image (12) is represented in the environment representation (15) using the image data. 2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass zunächst überprüft wird, ob die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs (14) in wenigstens einem an dem ersten Aufnahmezeitpunkt aufgenommenen weiteren Kamerabild einer weiteren der Kameras (3) vorhanden sind, wobei bei Vorhandensein der Bilddaten aus dem wenigstens einen weiteren Kamerabild diese Bilddaten für die Erzeugung der Umgebungsdarstellung (15) verwendet werden und wobei bei Nichtvorhandensein der Bilddaten aus dem wenigstens einen weiteren Kamerabild die Bilddaten aus dem wenigstens einen gespeicherten Kamerabild für die Erzeugung der Umgebungsdarstellung (15) verwendet werden. 2. Method according to claim 1, characterized in that it is first checked whether the image data for filling the concealed surrounding area (14) are present in at least one further camera image recorded at the first recording time from another of the cameras (3), wherein if the image data from the at least one further camera image, these image data are used to generate the environmental representation (15), and wherein, if the image data from the at least one further camera image are not present, the image data from the at least one stored camera image are used to generate the environmental representation (15). 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bilddaten zum Ausfüllen des verdeckten Umgebungsbereichs (14) anhand der Umgebungsdaten ermittelt werden, wobei der verdeckte Umgebungsbereich (14) der wenigstens einen Kamera (3) zum ersten Aufnahmezeitpunkt mit dem verdeckten Umgebungsbereich (14) der wenigstens einen weiteren Kamera (3) und/oder mit einer dem gespeicherten Kamerabild zugeordneten Verdeckungsinformation, welche den verdeckten Umgebungsbereich (14) der das gespeicherte Kamerabild erzeugenden Kamera (3) zum zweiten Aufnahmezeitpunkt beschreibt, verglichen wird. 3. Method according to claim 1 or 2, characterized in that the image data for filling the concealed surrounding area (14) are determined on the basis of the surrounding data, wherein the concealed surrounding area (14) of the at least one camera (3) at the first recording time is compared with the concealed surrounding area (14) of the at least one further camera (3) and/or with concealment information associated with the stored camera image, which describes the concealed surrounding area (14) of the camera (3) generating the stored camera image at the second recording time. 4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebungsdaten in Abhängigkeit einer dem Kamerabild (12) zugeordneten Tiefeninformation, in Abhängigkeit einer die Position des Fahrzeugs (1 ) und die Fahrzeugumgebung beschreibenden Karteninformation und/oder in Abhängigkeit der Messdaten wenigstens eines Abstandssensors (10) des Fahrzeugs (1 ) ermittelt werden. 4. Method according to one of the preceding claims, characterized in that the environmental data are determined as a function of depth information associated with the camera image (12), as a function of map information describing the position of the vehicle (1) and the vehicle environment and/or as a function of the measurement data of at least one distance sensor (10) of the vehicle (1). 5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebungsdarstellung (15) ausgehend von einer virtuellen Kameraposition erzeugt wird, wobei die Bilddaten zur Darstellung des zumindest einen Teils des verdeckten Umgebungsbereichs (14) in Abhängigkeit der virtuellen Kameraposition transformiert werden. 5. Method according to one of the preceding claims, characterized in that the environmental representation (15) is generated starting from a virtual camera position, wherein the image data for representing the at least part of the hidden environmental area (14) are transformed depending on the virtual camera position. 6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilddaten und das wenigstens eine Kamerabild (12) zur Erzeugung der Umgebungsansicht (15) in Abhängigkeit wenigstens einer Bildharmonisierungsfunktion zusammengefügt werden. 6. Method according to one of the preceding claims, characterized in that the image data and the at least one camera image (12) are combined to generate the environmental view (15) depending on at least one image harmonization function. 7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mehrere Kameras (3) einer als Surroundview-System des Fahrzeugs (1) ausgebildeten Kameraanordnung verwendet werden. 7. Method according to one of the preceding claims, characterized in that several cameras (3) of a camera arrangement designed as a surround view system of the vehicle (1) are used. 8. Steuereinrichtung, eingerichtet zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche. 8. Control device arranged to carry out a method according to one of the preceding claims. 9. Fahrerassistenzsystem umfassend wenigstens eine Kamera (3), welche zur Bereitstellung von zumindest einen Teil einer Fahrzeugumgebung darstellenden Kamerabildern ausgebildet ist, sowie eine Steuereirichtung (4) nach Anspruch 8. 9. Driver assistance system comprising at least one camera (3) which is designed to provide camera images representing at least part of a vehicle environment, and a control device (4) according to claim 8. 10. Fahrzeug umfassend ein Fahrerassistenzsystem (2) nach Anspruch 9. 10. Vehicle comprising a driver assistance system (2) according to claim 9.
PCT/DE2024/200080 2023-08-09 2024-07-23 Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle Pending WO2025031546A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102023207634.9A DE102023207634A1 (en) 2023-08-09 2023-08-09 Method for generating an environmental representation representing a vehicle environment, control device, driver assistance system and vehicle
DE102023207634.9 2023-08-09

Publications (1)

Publication Number Publication Date
WO2025031546A1 true WO2025031546A1 (en) 2025-02-13

Family

ID=92214283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2024/200080 Pending WO2025031546A1 (en) 2023-08-09 2024-07-23 Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle

Country Status (2)

Country Link
DE (1) DE102023207634A1 (en)
WO (1) WO2025031546A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219735A1 (en) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled
DE102015223176A1 (en) 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Method and device for determining occlusion areas in the vehicle environment of a vehicle
DE102016220894A1 (en) * 2016-10-25 2018-04-26 Conti Temic Microelectronic Gmbh A method and apparatus for generating a vehicle environment view in a vehicle
DE102017201000A1 (en) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Method for combining a plurality of camera images
DE112018000171T5 (en) * 2017-02-16 2019-08-01 Jaguar Land Rover Limited Apparatus and method for displaying information
DE102018203590A1 (en) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview system with adapted projection surface

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010010906A1 (en) 2010-03-10 2011-01-05 Daimler Ag Method for producing representation and environment of vehicle for driver assistance system, involves detecting environmental areas in stored camera image, and utilizing image area of camera image for producing representation of areas
DE102019133719A1 (en) 2019-12-10 2021-06-10 Bayerische Motoren Werke Aktiengesellschaft Correcting an Image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219735A1 (en) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method for image processing of data of images detected by cameras arranged at e.g. outer side of vehicle, involves adapting image data to be signaled such that hidden object is perceptible on image to be signaled
DE102015223176A1 (en) 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Method and device for determining occlusion areas in the vehicle environment of a vehicle
DE102016220894A1 (en) * 2016-10-25 2018-04-26 Conti Temic Microelectronic Gmbh A method and apparatus for generating a vehicle environment view in a vehicle
DE102017201000A1 (en) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Method for combining a plurality of camera images
DE112018000171T5 (en) * 2017-02-16 2019-08-01 Jaguar Land Rover Limited Apparatus and method for displaying information
DE102018203590A1 (en) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview system with adapted projection surface

Also Published As

Publication number Publication date
DE102023207634A1 (en) 2025-02-13

Similar Documents

Publication Publication Date Title
EP2805183B1 (en) Method and device for visualizing the surroundings of a vehicle
DE102009005505B4 (en) Method and device for generating an image of the surroundings of a motor vehicle
EP3328686A1 (en) Method and device for displaying an image of the surroundings of a vehicle combination
DE102018203405A1 (en) Visual surround view system for monitoring the vehicle interior
DE102017218074A1 (en) Method for representing an environment of a vehicle
DE102017105635A1 (en) SYSTEM AND METHOD FOR PRODUCING A HYBRID CAMERA VIEW IN A VEHICLE
EP2559236A1 (en) Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle
EP3167427A1 (en) Merging of partial images to form an image of surroundings of a mode of transport
EP3292535B1 (en) Method for producing an overall image of a vehicle environment of a vehicle and corresponding device
DE112015000763T5 (en) Vehicle environment image display device and vehicle environment image display method
WO2020007523A1 (en) Method for providing assistance during a parking maneuver of a vehicle combination of a towing vehicle and a trailer, system, and combination
EP2813999B1 (en) Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle
EP3571091B1 (en) Method and device for displaying the surroundings of a vehicle
WO2017198429A1 (en) Ascertainment of vehicle environment data
DE102013215408A1 (en) A vehicle display system and method for displaying a vehicle environment
WO2025031546A1 (en) Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle
DE102016226299B4 (en) Method and device for displaying an environment of a vehicle
DE102022120715A1 (en) Method for operating a display device in a motor vehicle
DE102021133199A1 (en) Method and driver assistance system for considering objects when driving along a trajectory
WO2025031545A1 (en) Method for the creation of a representation of surroundings representing vehicle surroundings, control device, driver assistance system, and vehicle
WO2021115980A1 (en) Driver assistance system, crowdsourcing module, method and computer program
DE102023123104A1 (en) Display system for a vehicle for displaying object image data of an object in a driving scene, display network, method and computer program
WO2025093087A1 (en) Method for generating an environment view for a vehicle, control device, driver assistance system and vehicle
DE102022214210A1 (en) Method for displaying an extended view of the surroundings of a vehicle, computer program, computing device and vehicle
DE102019002664A1 (en) Method for displaying a vehicle-dynamic virtual reality in a vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24751633

Country of ref document: EP

Kind code of ref document: A1