DE102024203249A1 - Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicle - Google Patents
Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicleInfo
- Publication number
- DE102024203249A1 DE102024203249A1 DE102024203249.2A DE102024203249A DE102024203249A1 DE 102024203249 A1 DE102024203249 A1 DE 102024203249A1 DE 102024203249 A DE102024203249 A DE 102024203249A DE 102024203249 A1 DE102024203249 A1 DE 102024203249A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- perspective
- computer
- vehicle
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Die vorliegende Erfindung betrifft ein computerimplementiertes Verfahren 230 zur Reduktion einer Parallaxe die bei Betrachtungen von Anzeigevorrichtungen 105 wie transparente A-Säulen oder Head-up Displays auftreten. Die Augen 140,145 eines Fahrers 135 eines Fahrzeuges 100 werden erfasst und es wird eine Perspektive des rechten Auges 335 und eine Perspektive des linken Auges 340 berechnet. Auf der Anzeigevorrichtungen 105 anzuzeigende Bilddaten 275 werden zuvor in die jeweilige Perspektive 335,340 der Augen 140,145 transformiert. Die so entstehenden rechten transformierten Bilddaten 345 werden von der Anzeigevorrichtung 105 nur für das rechte Auge 140 wahrnehmbar dargestellt. Die linken transformierten Bilddaten 350 werden von der Anzeigevorrichtung 105 nur für das linke Auge 145 wahrnehmbar dargestellt. Außerdem wird ein Computerprogrammprodukt 225, ein computerlesbares Speichermedium 215, ein Datenträgersignal, eine Vorrichtung 200 und ein Fahrzeug 100 offenbart. The present invention relates to a computer-implemented method 230 for reducing parallax that occurs when viewing display devices 105 such as transparent A-pillars or head-up displays. The eyes 140, 145 of a driver 135 of a vehicle 100 are detected, and a perspective of the right eye 335 and a perspective of the left eye 340 are calculated. Image data 275 to be displayed on the display device 105 are previously transformed into the respective perspectives 335, 340 of the eyes 140, 145. The resulting right-hand transformed image data 345 are displayed by the display device 105 so that they are perceptible only to the right eye 140. The left-hand transformed image data 350 are displayed by the display device 105 so that they are perceptible only to the left eye 145. Also disclosed are a computer program product 225, a computer-readable storage medium 215, a data carrier signal, a device 200, and a vehicle 100.
Description
Technisches GebietTechnical area
Die vorliegende Erfindung betrifft das Gebiet der Bildverarbeitung. Insbesondere betrifft die vorliegende Erfindung ein computerimplementiertes Verfahren zur Reduktion einer Parallaxe. Weiterhin betrifft die vorliegende Erfindung ein Computerprogrammprodukt, ein computerlesbares Speichermedium, ein Datenträgersignal, eine Vorrichtung und ein Fahrzeug.The present invention relates to the field of image processing. In particular, the present invention relates to a computer-implemented method for reducing parallax. Furthermore, the present invention relates to a computer program product, a computer-readable storage medium, a data carrier signal, a device, and a vehicle.
Technischer Hintergrund und AufgabeTechnical background and task
Die Verbesserung von Sicherheitsmaßnahmen für Autofahrer ist ein wichtiges Ziel für alle Fahrzeughersteller. Unsichere Verkehrssituationen können durch intransparente Strukturen der Fahrzeugkarosserie entstehen, so dass sie verkehrsrelevante Ereignisse für einen Fahrer verdecken können. Solche intransparenten Strukturen sind in der Regel Teile der Fahrzeugkarosserie, die im Falle eines Unfalls die für die Sicherheit der Insassen erforderliche mechanische Steifigkeit gewährleisten. Beispiele für solche intransparenten Strukturen sind die A-, B- und C-Säule sowie das Armaturenbrett oder der Kofferraum. Die intransparenten Strukturen stören das Sichtfeld des Fahrers, wodurch uneinsehbare Bereiche (sogenannte tote Winkel) entstehen. Verkehrssicherheitsrelevante Ereignisse oder Objekte wie ein Fußgänger, der die Straße überqueren will, einen Fahrradfahrer oder ein überholendes Auto können verdeckt werden und gegebenenfalls nicht rechtzeitig vom Fahrer erkannt. Die gegensätzlichen Anforderungen an eine hohe Steifigkeit der Fahrzeugkarosserie einerseits und ein großes Sichtfeld für den Fahrer andererseits erfordern in der Regel einen Kompromiss.Improving safety measures for drivers is an important goal for all vehicle manufacturers. Unsafe traffic situations can arise from opaque vehicle body structures, which can obscure traffic-relevant events for the driver. Such opaque structures are usually parts of the vehicle body that ensure the mechanical rigidity required for occupant safety in the event of an accident. Examples of such opaque structures are the A-, B-, and C-pillars, as well as the dashboard and trunk. These opaque structures disrupt the driver's field of vision, creating blind spots. Traffic safety-relevant events or objects such as a pedestrian crossing the road, a cyclist, or an overtaking car can be obscured and may not be detected by the driver in time. The conflicting requirements of high vehicle body rigidity on the one hand and a large field of vision for the driver on the other usually require a compromise.
Als Lösungen wurden transparente A-Säulen, Motorhauben oder Heckklappen vorgeschlagen. Dies sind Anzeigen, beispielsweise in Form von Flüssigkristallanzeigen (englisch: liquid crystal displa; LCD) oder organischen Leuchtdioden (englisch: organic light-emitting diode; OLED) -Anzeigen, welche im Inneren des Fahrzeugs zwischen der intransparenten Struktur und dem Fahrer platziert werden und Bilder anzeigen, die von einer Kamera stammen, welche außerhalb des Fahrzeugs angeordnet ist und dessen Sichtfeld den durch die Struktur verursachten uneinsehbaren Bereich erfasst. Eine solche Anordnung erzeugt die Illusion, dass die Struktur transparent ist.Transparent A-pillars, hoods, or tailgates have been proposed as solutions. These displays, for example in the form of liquid crystal displays (LCDs) or organic light-emitting diodes (OLEDs), are placed inside the vehicle between the opaque structure and the driver. They display images from a camera located outside the vehicle, whose field of view captures the obscured area caused by the structure. Such an arrangement creates the illusion that the structure is transparent.
Beispielsweise offenbart die
Die im Stand der Technik offenbarten Lösungen haben den Nachteil, dass das angezeigte Bild, wenn es mit beiden Augen betrachtet wird, eine Parallaxe aufweist, da die beiden Augen aus leicht unterschiedlichen Perspektiven auf die Anzeige schauen. Dieser Effekt wird auch als Disparität bezeichnet und tritt auch bei Head-up Displays (HUD) auf. Der Effekt kann den Fahrer verwirren, da das Bild als unklar oder diffus wahrgenommen wird und sogar zu Kopfschmerzen führen. Es ist daher wünschenswert, Vorrichtungen und Verfahren zur Verfügung zu haben, welche den Parallaxeneffekt reduzieren.The solutions disclosed in the prior art have the disadvantage that the displayed image exhibits parallax when viewed with both eyes, as the two eyes view the display from slightly different perspectives. This effect is also known as disparity and also occurs in head-up displays (HUDs). This effect can confuse the driver, as the image is perceived as unclear or diffuse, and can even lead to headaches. It is therefore desirable to have devices and methods available that reduce the parallax effect.
Es ist daher die Aufgabe der Erfindung, ein computerimplementiertes Verfahren zur Reduktion einer Parallaxe bereitzustellen. Weitere Aufgaben der Erfindung sind es, Computerprogrammprodukt, ein computerlesbares Speichermedium, ein Datenträgersignal, eine Vorrichtung und ein Fahrzeug bereitzustellen.It is therefore the object of the invention to provide a computer-implemented method for reducing parallax. Further objects of the invention are to provide a computer program product, a computer-readable storage medium, a data carrier signal, a device, and a vehicle.
Offenbarung der ErfindungDisclosure of the invention
Die Aufgabe wird erfindungsgemäß durch die Merkmale der Hauptansprüche gelöst. Vorteilhafte Ausgestaltungen können den Unteransprüchen entnommen werden.The object is achieved according to the invention by the features of the main claims. Advantageous embodiments can be found in the subclaims.
Gemäß eines ersten Aspekts der Erfindung weist ein computerimplementiertes Verfahren zur Reduktion einer Parallaxe bei Betrachtung einer Anzeigevorrichtung durch einen Fahrer eines Fahrzeuges einen Schritt auf, in welchem Bilddaten erhalten werden, welche aus einer Bilddaten-Perspektive heraus erzeugt wurden. According to a first aspect of the invention, a computer-implemented method for reducing parallax when viewing a display device by a driver of a vehicle comprises a step of obtaining image data generated from an image data perspective.
Bei dem Fahrzeug kann es sich um ein Kraftfahrzeug, ein Lastkraftwagen, ein Flugzeug, ein Helikopter, einen Zug oder dergleichen handeln. Die Bilddaten stammen beispielsweise aus einer Außenkamera, wenn eine transparente A-Säule realisiert werden soll. Die Bilddaten-Perspektive ist dann häufig bekannt, weil sie von einer fest am Fahrzeug installierten Kamera stammen, deren Position und Ausrichtung bekannt sind. Bei einem Head-up Display (HUD) können die Bilddaten auch künstlich erzeugte Bildinhalte wie Navigationspfeile, Text oder dergleichen sein. Bei der Erzeugung der Bilder ist dann eine bekannte Perspektive zugrunde gelegt worden und daher bekannt.The vehicle can be a motor vehicle, a truck, an aircraft, a helicopter, a train, or the like. The image data originates, for example, from an exterior camera when a transparent A-pillar is to be realized. The image data perspective is often known in such cases because it originates from a camera permanently installed on the vehicle, whose position and orientation are known. In the case of a head-up display (HUD), the image data can also be artificially generated image content such as navigation arrows, text, or the like. In this case, a known perspective was used to generate the images and is therefore known.
Die Parallaxe, welche zumindest reduziert wird, entsteht, weil der Fahrer auf die Anzeigevorrichtung aus unterschiedlichen Perspektiven schaut, nämlich aus der Perspektive seines rechten und linken Auges. Der Erfinder hat erkannt, dass die Parallaxe durch eine Darstellung unterschiedlicher Bilder für das linke und rechte Auge vermindert oder sogar behoben werden kann. Daher kommt für die Anzeigevorrichtung keine 2D-Anzeige in Frage, sondern ein Autostereoskopiedisplay wie etwa ein Bildschirm mit einer Parallaxenbarriere oder Linsenraster, oder eine 3D-Anzeige die auf Polaristationsfiltertechnik, Interferenzfiltertechnik oder dergleichen beruht. Für letztere werden allerdings häufig Brillen nötig, um funktionstüchtig zu sein.The parallax, which is at least reduced, occurs because the driver looks at the display from different perspectives, namely from the perspective of his right and left eye. The inventor recognized that the parallax can be reduced or even eliminated by displaying different images for the left and right eye. Therefore, the display For this device, a 2D display is not suitable, but rather an autostereoscopic display such as a screen with a parallax barrier or lenticular screen, or a 3D display based on polarization filter technology, interference filter technology, or the like. However, the latter often requires glasses to function.
Weiterhin weist das Verfahren einen Schritt auf, in welchem eine rechte Position eines rechten Auges des Fahrers erhalten wird. Diese Information kann beispielsweise durch einen Eye-Tracker erzeugt werden. Auch eine Innenraumkamera, welche gleichzeitig Entfernungen messen kann, kann Basis für diese Information sein. Generell können jedwede Entfernungsbildgebungskameras (TOF-Kamera; engl.: time of flight) eingesetzt werden zu diesem Zweck. Die Position ist in Bezug auf ein fahrzeugfestes Koordinatensystem bekannt, beispielsweise in Bezug auf die Kameraposition oder einen bestimmten Punkt des Fahrzeuges selbst.The method further includes a step in which the right position of the driver's right eye is obtained. This information can be generated, for example, by an eye tracker. An interior camera that can simultaneously measure distances can also serve as the basis for this information. In general, any distance imaging camera (TOF camera; English: time-of-flight) can be used for this purpose. The position is known with respect to a vehicle-fixed coordinate system, for example, with respect to the camera position or a specific point on the vehicle itself.
Weiterhin weist das Verfahren einen Schritt auf, in welchem eine rechte Perspektive aus der rechten Position bestimmt wird. Dies kann beispielsweise über die Position der Hornhautreflexion realisiert werden. Es ist auch möglich, die Perspektive als Richtungsvektor vom Auge zu einem in den Bilddaten detektierten Objekt oder zu einem Punkt (beispielsweise die Mitte) der Anzeigevorrichtung zu definieren.The method further includes a step in which a right perspective is determined from the right position. This can be achieved, for example, using the position of the corneal reflection. It is also possible to define the perspective as a direction vector from the eye to an object detected in the image data or to a point (e.g., the center) of the display device.
Weiterhin weist das Verfahren einen Schritt auf, in welchem rechte transformierte Bilddaten durch Transformation der Bilddaten aus der Bilddaten-Perspektive in die rechte Perspektive erzeugt werden. Dem Fachmann sind verschiedene gebräuchliche Methoden vertraut, mit denen er Bilddaten aus einer Perspektive in eine andere transformieren kann. Beispielsweise offenbart die
Weiterhin weist das Verfahren einen Schritt auf, in welchem eine linke Position eines linken Auges des Fahrers erhalten wird.Furthermore, the method comprises a step in which a left position of a left eye of the driver is obtained.
Weiterhin weist das Verfahren einen Schritt auf, in welchem eine linke Perspektive aus der linken Position bestimmt wird.Furthermore, the method comprises a step in which a left perspective is determined from the left position.
Weiterhin weist das Verfahren einen Schritt auf, in welchem linke transformierte Bilddaten durch Transformation der Bilddaten aus der Bilddaten-Perspektive in die linke Perspektive erzeugt wird.Furthermore, the method comprises a step in which left transformed image data is generated by transforming the image data from the image data perspective into the left perspective.
Diese Schritte sind für das linke Auge also analog zu denen des rechten Auges.These steps are therefore analogous for the left eye to those for the right eye.
Weiterhin weist das Verfahren einen Schritt auf, in welchem die rechten transformierten Bilddaten und die linken transformierten Bilddaten auf der Anzeigevorrichtung des Fahrzeuges derart angezeigt werden, dass die rechten transformierten Bilddaten vom rechten Auge und die linken transformierten Bilddaten vom linken Auge wahrgenommen werden. Die Bilder für die unterschiedlichen Augenpositionen und damit Augen-Perspektiven werden also nur jeweils einem Auge präsentiert. Unter idealen Bedingungen (keine Verbautoleranzen im Fahrzeug, fehlerfreie Detektion der beteiligten Sensoren, etc) tritt keine Parallaxe mehr auf.The method further includes a step in which the right-hand transformed image data and the left-hand transformed image data are displayed on the vehicle's display device in such a way that the right-hand transformed image data is perceived by the right eye and the left-hand transformed image data by the left eye. The images for the different eye positions and thus eye perspectives are thus presented to only one eye at a time. Under ideal conditions (no installation tolerances in the vehicle, error-free detection of the sensors involved, etc.), parallax no longer occurs.
In vorteilhafter Ausführung wird eine Objekt-Position zur Erzeugung der Bilddaten-Perspektive verwendet, wobei die Objekt-Position mittels einer ersten Tiefenkarte bestimmt wird. Das Objekt kann beispielsweise mittels bekannter Methoden der Objekterkennung in den Bilddaten erkannt werden. Werden die Bilddaten mit Entfernungsdaten in Form einer Tiefenkarte korreliert, lässt sich eine Position des Objektes leicht bestimmen. Ein Lidar-Sensor kann beispielsweise Basis für eine solche Tiefenkarte sein.In an advantageous embodiment, an object position is used to generate the image data perspective, with the object position being determined using a first depth map. The object can be detected in the image data, for example, using known object detection methods. If the image data is correlated with distance data in the form of a depth map, the object's position can be easily determined. A lidar sensor, for example, can serve as the basis for such a depth map.
In vorteilhafter Ausführung wird die rechte Position und die linke Position mit Hilfe einer zweiten Tiefenkarte bestimmt werden. Wie auch schon die Objekt-Position, können die Augenpositionen mit einer Tiefenkarte bestimmt werden. Beispielsweise eignet sich dazu ein Punktprojektor oder ein Infrarotsensor.In an advantageous implementation, the right and left positions are determined using a second depth map. Like the object position, the eye positions can be determined using a depth map. A point projector or an infrared sensor, for example, is suitable for this purpose.
In vorteilhafter Ausführung entspricht die rechte Perspektive einem rechten Vektor von der rechten Position zur Objekt-Position und die linke Perspektive einem linken Vektor von der linken Position zur Objekt-Position. Mit anderen Worten, die Perspektive entspricht der Blickrichtung zu einem in den Bilddaten detektierten Objekt. Dies muss nicht der tatsächlichen Blickrichtung des Fahrers entsprechen.In an advantageous embodiment, the right perspective corresponds to a right vector from the right position to the object position, and the left perspective corresponds to a left vector from the left position to the object position. In other words, the perspective corresponds to the viewing direction toward an object detected in the image data. This does not necessarily correspond to the driver's actual viewing direction.
In vorteilhafter Ausführung wird eine rechte Blickrichtung des rechten Auges detektiert und die rechte Perspektive entspricht der rechten Blickrichtung. Eine linke Blickrichtung des linken Auges wird detektiert und die linke Perspektive entspricht der linken Blickrichtung. Hier wird eine tatsächliche Blickrichtung des Fahrers detektiert, welche die jeweilige Augen-Perspektiven definieren. Dies kann beispielsweise über weitere Bilderkennungsalgorithmen gelingen, welche die Hornhautreflektion und das Augenzentrum erkennen und daraus die Blickrichtung extrahieren können. Dem Fachmann sind solche Methoden bekannt. Beispielsweise offenbart die
Gemäß eines zweiten Aspekts der Erfindung weist ein Computerprogrammprodukt Befehle auf, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, ein wie zuvor beschriebenes Verfahren auszuführen. Das Computerprogrammprodukt kann in einer Programmiersprache, beispielsweise Python oder C++, verfasst sein.According to a second aspect of the invention, a computer program product comprises instructions which, when executed by a computer, cause the computer to execute a method as described above. The computer program product can be written in a programming language, for example, Python or C++.
Gemäß eines dritten Aspekts der Erfindung weist ein computerlesbares Speichermedium Befehle auf, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, ein wie zuvor beschriebenes Verfahren auszuführen. Das computerlesbares Speichermedium kann beispielsweise als SSD (engl.: solid-state disk) oder als Flash Speicher ausgeführt sein. Das computerlesbare Speichermedium kann daneben noch andere Daten speichern, beispielsweise Sensordaten und/oder Daten, die während des Ausführens des Verfahrens (zwischen)gespeichert werden.According to a third aspect of the invention, a computer-readable storage medium comprises instructions that, when the program is executed by a computer, cause the computer to execute a method as described above. The computer-readable storage medium can be implemented, for example, as an SSD (solid-state disk) or as a flash memory. The computer-readable storage medium can also store other data, for example, sensor data and/or data that is (temporarily) stored during the execution of the method.
Gemäß eines vierten Aspekts der Erfindung überträgt ein Datenträgersignal das wie zuvor beschriebene Computerprogrammprodukt. Das Datenträgersignal kann kabelgebunden, beispielsweise mittels eines CAN-Bus (engl.: controller area network) oder Ethernet Kabels oder kabellos mittels Wifi, Bluetooth oder dergleichen, übertragen werden.According to a fourth aspect of the invention, a data carrier signal transmits the computer program product as described above. The data carrier signal can be transmitted via a cable, for example, via a CAN bus (controller area network) or Ethernet cable, or wirelessly via Wi-Fi, Bluetooth, or the like.
Gemäß eines fünften Aspekts der Erfindung weist eine Vorrichtung zur Reduktion einer Parallaxe bei Betrachtung einer Anzeigevorrichtung durch einen Fahrer eines Fahrzeuges eine Auswerteeinheit auf, welche ausgebildet ist, ein wie zuvor beschriebenes Verfahren auszuführen. Die Auswerteeinheit selbst kann beispielsweise einen Prozessor und flüchtige und/oder nicht-flüchtige Speichermedien aufweisen. Die einzelnen Bestandteile der Auswerteeinheit können in einem einzelnen Bauteil realisiert sein, beispielsweise in einer zentralen Recheneinheit (HPC, engl.: high performance computer). Die einzelnen Bauteile können aber auch dezentral verteilt sein, beispielsweise können Speichermedien auf einem Server ausgelagert werden.According to a fifth aspect of the invention, a device for reducing parallax when a driver of a vehicle views a display device comprises an evaluation unit configured to carry out a method as described above. The evaluation unit itself can, for example, comprise a processor and volatile and/or non-volatile storage media. The individual components of the evaluation unit can be implemented in a single component, for example, in a central processing unit (HPC, English: high-performance computer). However, the individual components can also be distributed decentrally; for example, storage media can be outsourced to a server.
Weiterhin weist die Vorrichtung eine Bilderzeugungseinheit auf, welche kommunikativ mit der Auswerteeinheit verbunden ist. Die Bilderzeugungseinheit kann beispielsweise durch eine Außenkamera an einem Außenspiegel des Fahrzeuges realisiert werden. Die Bilderzeugungseinheit kann beispielsweise auch durch eine Recheneinheit realisiert werden, welche künstliche Bilddaten wie Navigationspfeile, Karten oder dergleichen erzeugen kann.The device further comprises an image generation unit that is communicatively connected to the evaluation unit. The image generation unit can be implemented, for example, by an external camera on an exterior mirror of the vehicle. The image generation unit can also be implemented, for example, by a computing unit that can generate artificial image data such as navigation arrows, maps, or the like.
Weiterhin weist die Vorrichtung eine Innenraumkamera auf, welche kommunikativ mit der Auswerteeinheit verbunden und derart im Fahrzeug angeordnet ist, dass sie Augen des Fahrers erfassen kann. Beispiele für solche Innenraumkameras sind beispielsweise Eye-Tracker.The device also includes an interior camera that is communicatively connected to the evaluation unit and positioned in the vehicle in such a way that it can capture the driver's eyes. Examples of such interior cameras include eye trackers.
Weiterhin weist die Vorrichtung eine Anzeigevorrichtung auf, welche kommunikativ mit der Auswerteeinheit verbunden ist. Die Anzeigevorrichtung ist im Stande, zwei unterschiedliche Bilder gleichzeitig aber in unterschiedliche Richtungen anzuzeigen. Beispielsweise können dies Autostereoskopiedisplays oder 3D-Anzeigen.The device further comprises a display device that is communicatively connected to the evaluation unit. The display device is capable of displaying two different images simultaneously but in different directions. For example, these can be autostereoscopic displays or 3D displays.
Für die kommunikative Verbindung unter den einzelnen Bestandteilen der Auswerteeinheit eignet sich beispielsweise ein CAN-Bus oder Ethernet Kabel.A CAN bus or Ethernet cable, for example, is suitable for the communicative connection between the individual components of the evaluation unit.
In vorteilhafter Ausführung wird entspricht die Anzeigevorrichtung einem Autostereoskopiedisplay.In an advantageous embodiment, the display device corresponds to an autostereoscopy display.
In vorteilhafter Ausführung entspricht die Anzeigevorrichtung einem Head-up Display entspricht.In an advantageous embodiment, the display device corresponds to a head-up display.
Gemäß eines sechsten Aspekts der Erfindung weist ein Fahrzeug eine Vorrichtung wie zuvor beschriebene Vorrichtung auf. Dabei können einzelne Bestandteile der Vorrichtung mehrere Funktionen des Fahrzeuges zur Verfügung stehen. Die Innenraumkamera kann beispielsweise ebenso dazu genutzt werden, eine Müdigkeit des Fahrers zu erkennen.According to a sixth aspect of the invention, a vehicle comprises a device such as the one described above. Individual components of the device can be used to provide multiple functions of the vehicle. The interior camera, for example, can also be used to detect driver fatigue.
Kurzfassung der FigurenSummary of the characters
Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen mit Hilfe von Figuren näher erläutert. Die Figuren zeigen:
-
1 : Eine erste Szene aus einer Fahrerkabine zur Erläuterung des gewünschten Ergebnisses; -
2 : Eine Aufsicht auf ein Fahrzeug zur Erläuterung des der Erfindung zugrundeliegenden Problems; -
3 : Eine zweite Szene aus einer Fahrerkabine zur Erläuterung des der Erfindung zugrundeliegenden Problems; -
4 : Ein Ausführungsbeispiel einer Vorrichtung zur Reduktion einer Parallaxe; -
5 : Ein Flussdiagramm eines computerimplementierten Verfahrens zur Reduktion einer Parallaxe; und -
6 : Ein Flussdiagramm eines Ausführungsbeispiels des computerimplementierten Verfahrens aus5 .
-
1 : A first scene from a driver's cab to explain the desired result; -
2 : A plan view of a vehicle to explain the problem underlying the invention; -
3 : A second scene from a driver's cab to explain the problem underlying the invention; -
4 : An embodiment of a device for reducing parallax; -
5 : A flowchart of a computer-implemented method for reducing parallax; and -
6 : A flowchart of an embodiment of the computer-implemented method of5 .
Detaillierte Beschreibung der FigurenDetailed description of the characters
In
Das Fahrzeug 100 weist eine Außenkamera 110 auf, welche mit ihrem Sichtfeld 115 den für den Fahrer 135 nicht-einsehbaren Bereich zumindest teilweise erfasst. Die Bilddaten 275 der Außenkamera 110 werden auf der Anzeigevorrichtung 105 dargestellt. Dabei werden sie zuvor transformiert, um beispielsweise einer ungefähren Perspektive des Fahrers 135 und einer Krümmung der Anzeigevorrichtung 105 Rechnung zu tragen.The vehicle 100 has an exterior camera 110, which, with its field of view 115, at least partially captures the area invisible to the driver 135. The image data 275 from the exterior camera 110 is displayed on the display device 105. They are previously transformed, for example, to account for an approximate perspective of the driver 135 and a curvature of the display device 105.
In
Im weiteren werden nun Vorrichtungen 200 und Verfahren 230 diskutiert, welche zumindest zu einer Reduktion dieser Parallaxe führen.In the following, devices 200 and methods 230 are discussed which at least lead to a reduction of this parallax.
Die Vorrichtung 200 weist eine Außenkamera 110, eine Innenraumkamera 180 und eine Anzeigevorrichtung 105 auf. Weiterhin weist die Vorrichtung 200 eine Auswerteeinheit 205 auf. Diese wiederum weist einen Prozessor 210, einen flüchtigen Speicher 220 und einen nicht-flüchtigen Speicher 215 auf. Auf dem nicht-flüchtigen Speicher 215 ist ein Computerprogrammprodukt 225 gespeichert, welches Befehle aufweist, bei deren Ausführung durch den Prozessor 210 diesen veranlassen, ein Verfahren 230 zur Reduktion einer Parallaxe durchzuführen. Das Computerprogrammprodukt 225 ist beispielsweise in der Programmiersprache Python verfasst. Alle Elemente sind kommunikativ, beispielsweise mit einem Ethernet Kabel, verbunden.The device 200 comprises an external camera 110, an internal camera 180, and a display device 105. Furthermore, the device 200 comprises an evaluation unit 205. This, in turn, comprises a processor 210, a volatile memory 220, and a non-volatile memory 215. A computer program product 225 is stored on the non-volatile memory 215. The computer program product 225 comprises instructions which, when executed by the processor 210, cause the processor to perform a method 230 for reducing parallax. The computer program product 225 is written, for example, in the Python programming language. All elements are communicatively connected, for example, via an Ethernet cable.
Im Verfahren 230 werden in einem ersten Erhaltungsschritt 235 Bilddaten 275 erhalten. In einem zweiten Erhaltungsschritt 240 wird eine rechte Position 320 eines rechten Auges 140 eines Fahrers 135 erhalten. In einem dritten Erhaltungsschritt 245 wird eine linke Position 325 eines linken Auges 145 des Fahrers 135 erhalten.In method 230, image data 275 is obtained in a first acquisition step 235. In a second acquisition step 240, a right position 320 of a right eye 140 of a driver 135 is obtained. In a third acquisition step 245, a left position 325 of a left eye 145 of the driver 135 is obtained.
In einem ersten Bestimmungsschritt 250 wird aus der rechten Position 320 eine rechte Perspektive 335 bestimmt. Aus der linken Position 325 wird in einem zweiten Bestimmungsschritt 260 eine linke Perspektive 340 bestimmt.In a first determination step 250, a right perspective 335 is determined from the right position 320. In a second determination step 260, a left perspective 340 is determined from the left position 325.
In einem ersten Erzeugungsschritt 255 werden rechte transformierte Bilddaten 345 erzeugt. Dies gelingt auf Basis der Bilddaten 275 durch Transformation aus der Bilddaten-Perspektive 310 in die rechte Perspektive 335. Analog dazu werden in einem zweiten Erzeugungsschritt 265 linke transformierte Bilddaten 350 durch Transformation aus der Bilddaten-Perspektive 310 in die linke Perspektive 340 erzeugt.In a first generation step 255, right-hand transformed image data 345 is generated. This is achieved on the basis of the image data 275 by transforming it from the image data perspective 310 to the right-hand perspective 335. Similarly, in a second generation step 265, left-hand transformed image data 350 is generated by transforming it from the image data perspective 310 to the left perspective 340.
Abschließend werden die rechten transformierten Bilddaten 345 und die linken transformierten Bilddaten 350 auf einer Anzeigevorrichtung 105 des Fahrzeuges 100 angezeigt. Dabei werden die rechten transformierten Bilddaten 345 vom rechten Auge 140 und die linken transformierten Bilddaten 350 vom linken Auge 145 wahrgenommen. Durch die korrekte Berücksichtigung der Perspektiven 335,340 und die Augenabhängige Anzeige wird die ansonsten auftretende Parallaxe zumindest reduziert, wenn nicht sogar gänzlich vermieden.Finally, the right transformed image data 345 and the left transformed image data 350 are displayed on a display device 105 of the vehicle 100. The right transformed image data 345 is perceived by the right eye 140, and the left transformed image data 350 is perceived by the left eye 145. By correctly considering the perspectives 335, 340 and the eye-dependent display, the parallax that would otherwise occur is at least reduced, if not completely eliminated.
In
Weiterhin ist in
Zunächst werden die Lidar-Daten 280 der Außenkamera 110 im Prozessor 210 zu einer Außenkamera-Tiefenkarte 295 verarbeitet. Diese korreliert jeden Pixel der Außenkamera-Bilddaten 275 mit einer Tiefe. Nach einer Objektdetektierung in den Außenkamera-Bilddaten 275 kann einem relevanten Objekt 130, beispielsweise einer Person 120, eine Objekt-Position 300 zugewiesen werden. Da die Außenkamera 110 derart angeordnet ist, dass ein vom Fahrer 135 des Fahrzeuges 100 nicht einsehbarer Bereich erfasst wird, sind insbesondere verletzliche Verkehrsteilnehmer oder Hindernisse als relevante Objekte 130 anzusehen.First, the lidar data 280 of the external camera 110 is processed in the processor 210 to create an external camera depth map 295. This map correlates each pixel of the external camera image data 275 with a depth. After an object is detected in the external camera image data 275, an object position 300 can be assigned to a relevant object 130, for example, a person 120. Since the external camera 110 is arranged such that an area invisible to the driver 135 of the vehicle 100 is captured, vulnerable road users or obstacles, in particular, are considered relevant objects 130.
Die Objekt-Position 300 liegt typischerweise zunächst in Relation zur Außenkamera 110 vor, kann aber mit Hilfe eines Außenkamera-Koordinatensystem 305, welches beispielsweise in Relation zu einem fahrzeugfesten Koordinatensystem definiert ist, auf einen anderen beliebigen Bezug umgerechnet werden. Die Bilddaten-Perspektive 310 wird nun errechnet als Vektor, welcher von der Außenkamera 110 zum detektierten Objekt 120 zeigt (siehe
Parallel werden die Punktprojektor-Daten 290 im Prozessor 210 zu einer Innenraumkamera-Tiefenkarte 315 verarbeitet. In den Innenraumkamera-Bilddaten 285 wird der Kopf des Fahrers 135 und insbesondere seine Augen 140,145 erfasst. Dazu kann die Innenraumkamera 180 beispielsweise wie in
Mit Hilfe der Innenraumkamera-Tiefenkarte 315 und einer Objektdetektierung in den Innenraumkamera-Bilddaten 285, welche das rechte Auge 140 und das linke Auge 145 detektieren kann, kann eine Position des rechten Auges 320 und eine Position des linken Auges 325 gefunden werden. Üblicherweise sind diese Positionen relativ zur einem Innenraumkamera-Koordinatensystem 330. Dessen Verhältnis zu einem fahrzeugfesten Koordinatensystem ist aber typischerweise bekannt, daher kann auf ein anderes Koordinatensystem umgerechnet werden, falls nötig.Using the interior camera depth map 315 and object detection in the interior camera image data 285, which can detect the right eye 140 and the left eye 145, a position of the right eye 320 and a position of the left eye 325 can be found. Typically, these positions are relative to an interior camera coordinate system 330. However, its relationship to a vehicle-fixed coordinate system is typically known, so it can be converted to another coordinate system if necessary.
Aus der Position des rechten Auges 320 kann nun eine Perspektive des rechten Auges 335 ermittelt werden. Dies kann beispielsweise durch einfache geometrische Betrachtungen geschehen, in dem ein Vektor von der Position des rechten Auges 320 zum detektierten Objekt 130 errechnet wird. Im Beispiel von
Analog dazu wird aus der Position des linken Auges 325 eine Perspektive des linken Auges 340 ermittelt.Analogously, a perspective of the left eye 340 is determined from the position of the left eye 325.
Nun werden die Außenkamera-Bilddaten 275 zur Anzeige für das rechte Auge 140 vorbereitet. Hierzu werden sie aus der Bilddaten-Perspektive 310 mit Hilfe mathematischer Transformationen wie beschneiden, drehen, rotieren, verzerren und dergleichen, in die Perspektive des rechten Auges 335 transformiert. Das Ergebnis sind rechte transformierte Bilddaten 345. Analog werden auch linke transformierte Bilddaten 350 erstellt.The external camera image data 275 is now prepared for display for the right eye 140. For this purpose, it is transformed from the image data perspective 310 into the perspective of the right eye 335 using mathematical transformations such as cropping, rotating, twisting, and the like. The result is right-transformed image data 345. Left-transformed image data 350 is also created analogously.
Anschließend werden die rechten transformierten Bilddaten 345 und die linken transformierten Bilddaten 350 auf der Anzeigevorrichtung 105 dargestellt. Dies geschieht derart, dass jene Pixel der Anzeigevorrichtung 105, welche durch die Parallaxenbarriere nur für das rechte Auge 140 sichtbar sind, die rechten transformierten Bilddaten 345 darstellen. Die Pixel, die durch die Parallaxenbarriere nur für das linke Auge 140 sichtbar sind, zeigen die linken transformierten Bilddaten 350 an.Subsequently, the right transformed image data 345 and the left transformed image data 350 are displayed on the display device 105. This occurs in such a way that those pixels of the display device 105 that are visible only to the right eye 140 through the parallax barrier display the right transformed image data 345. The pixels that are visible only to the left eye 140 through the parallax barrier display the left transformed image data 350.
BezugszeichenlisteList of reference symbols
- 100100
- Fahrzeugvehicle
- 105105
- AnzeigevorrichtungDisplay device
- 110110
- AußenkameraOutdoor camera
- 115115
- Sichtfeld AußenkameraField of view outdoor camera
- 120120
- Personperson
- 125125
- Digitale Repräsentation der PersonDigital representation of the person
- 130130
- Objektobject
- 131131
- Distanz Außerkamera zu ObjektDistance from external camera to object
- 135135
- Fahrerdriver
- 140140
- Rechtes AugeRight eye
- 145145
- Linkes AugeLeft eye
- 150150
- Distanz rechtes Auge zu ObjektDistance right eye to object
- 155155
- Distanz linkes Auge zu ObjektDistance left eye to object
- 160160
- Objektposition für rechtes AugeObject position for right eye
- 165165
- Objektposition für linkes AugeObject position for left eye
- 170170
- Digitale Repräsentation für rechtes AugeDigital representation for the right eye
- 175175
- Digitale Repräsentation für linkes AugeDigital representation for left eye
- 180180
- InnenraumkameraInterior camera
- 185185
- Sichtfeld InnenraumkameraField of view interior camera
- 190190
- Distanz rechtes Auge zu InnenraumkameraDistance right eye to interior camera
- 195195
- Distanz linkes Auge zu InnenraumkameraDistance left eye to interior camera
- 200200
- Vorrichtungdevice
- 205205
- AuswerteeinheitEvaluation unit
- 210210
- Prozessorprocessor
- 215215
- Nicht-flüchtigen SpeicherNon-volatile memory
- 220220
- Flüchtigen SpeicherVolatile memory
- 225225
- Computerprogrammproduktcomputer program product
- 230230
- VerfahrenProceedings
- 235235
- Erster ErhaltungsschrittFirst conservation step
- 240240
- Zweiter ErhaltungsschrittSecond conservation step
- 245245
- Dritter ErhaltungsschrittThird conservation step
- 250250
- Erster BestimmungsschrittFirst determination step
- 255255
- Erster ErzeugungsschrittFirst production step
- 260260
- Zweiter BestimmungsschrittSecond determination step
- 265265
- Zweiter ErzeugungsschrittSecond production step
- 270270
- AnzeigeschrittDisplay step
- 275275
- Bilddaten AußenkameraImage data outdoor camera
- 280280
- Lidar-DatenLidar data
- 285285
- Bilddaten InnenraumkameraImage data interior camera
- 290290
- Punktprojektor-DatenDot projector data
- 295295
- Tiefenkarte AußenkameraDepth map outdoor camera
- 300300
- Objekt-PositionObject position
- 305305
- Außenkamera-KoordinatensystemOutdoor camera coordinate system
- 310310
- Bilddaten-PerspektiveImage data perspective
- 315315
- Tiefenkarte InnenraumkameraDepth map indoor camera
- 320320
- Position rechtes AugePosition right eye
- 325325
- Position linkes AugePosition left eye
- 330330
- Innenraumkamera-KoordinatensystemInterior camera coordinate system
- 335335
- Perspektiven rechtes AugePerspectives right eye
- 340340
- Perspektiven linkes AugePerspectives left eye
- 345345
- Rechte transformierte BilddatenRights transformed image data
- 350350
- Linke transformierte BilddatenLeft transformed image data
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES CONTAINED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents submitted by the applicant was generated automatically and is included solely for the convenience of the reader. This list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 1 878 618 B1 [0004]EP 1 878 618 B1 [0004]
- US 10 832 372 B2 [0013]US 10 832 372 B2 [0013]
- US 10 314 484 B2 [0022]US 10 314 484 B2 [0022]
- US 2019/0206082 A1 [0058]US 2019/0206082 A1 [0058]
Claims (12)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024203249.2A DE102024203249A1 (en) | 2024-04-10 | 2024-04-10 | Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024203249.2A DE102024203249A1 (en) | 2024-04-10 | 2024-04-10 | Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102024203249A1 true DE102024203249A1 (en) | 2025-10-16 |
Family
ID=97174325
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102024203249.2A Ceased DE102024203249A1 (en) | 2024-04-10 | 2024-04-10 | Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicle |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102024203249A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170161950A1 (en) * | 2015-12-08 | 2017-06-08 | GM Global Technology Operations LLC | Augmented reality system and image processing of obscured objects |
| WO2019035177A1 (en) * | 2017-08-15 | 2019-02-21 | 三菱電機株式会社 | Vehicle-mounted display device, image processing device, and display control method |
-
2024
- 2024-04-10 DE DE102024203249.2A patent/DE102024203249A1/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170161950A1 (en) * | 2015-12-08 | 2017-06-08 | GM Global Technology Operations LLC | Augmented reality system and image processing of obscured objects |
| WO2019035177A1 (en) * | 2017-08-15 | 2019-02-21 | 三菱電機株式会社 | Vehicle-mounted display device, image processing device, and display control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102015218162B4 (en) | Augmented reality head-up display display method and apparatus for vehicle | |
| DE102017128296B4 (en) | SYSTEM FOR CHANGING THE FIELD OF VIEW OF AN EXTERNAL REAR VIEW CAMERA | |
| DE102018105951B4 (en) | METHOD FOR DYNAMICALLY DISPLAYING IMAGES ON AN ELECTRONIC DISPLAY DEVICE OF A VEHICLE | |
| EP3847499B1 (en) | Method for operating a field-of-vision display device for a motor vehicle | |
| EP3620842B1 (en) | Concept for adjusting a head-up display in a motor vehicle | |
| DE102018129741A1 (en) | Device and method for controlling a display of a vehicle | |
| DE112014004889T5 (en) | Systems and methods for displaying three-dimensional images on a vehicle instrument panel | |
| EP2559236A1 (en) | Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle | |
| DE112017001545T5 (en) | VIRTUAL OVERLAY SYSTEM AND PROCESS FOR COVERED OBJECTS | |
| DE112019000329B4 (en) | DISPLAY SYSTEM, MOVABLE OBJECT AND DESIGN METHOD | |
| WO2020249367A1 (en) | Control of a display of an augmented reality head-up display apparatus for a motor vehicle | |
| DE102015015676A1 (en) | A method for automatically connecting an environmental image on a display unit of a vehicle | |
| EP3959647B1 (en) | Displaying additional information in the correct position on a display unit of a vehicle | |
| EP3296795B1 (en) | Method for displaying an image object in a vehicle on a display seen inside and outside the vehicle | |
| EP2888623B1 (en) | Operating a head-up display of a vehicle and image determining system for the head-up display | |
| DE102018216409A1 (en) | Method, device and means of transportation for a kinetose-avoiding representation of a liquid in a display in a means of transportation | |
| DE102017209802A1 (en) | Method and device for operating a display system with data glasses | |
| DE102024002430B3 (en) | Method for operating a field of view display device and vehicle | |
| DE102024203249A1 (en) | Method for reducing parallax, computer program product, storage medium, data carrier signal, device and vehicle | |
| DE102012213132A1 (en) | Method for displaying environment of e.g. passenger car by electronic processing unit, involves displaying environment of vehicle based on first and second cameras, and recording first and second positions of camera | |
| DE102016215704A1 (en) | Method and device for operating a display system with data glasses | |
| DE102016000412A1 (en) | Method for low-latency compensation of a self-motion of a vehicle in a display area of a head-up display | |
| DE102022123223A1 (en) | Transmission of visual display content between a vehicle-based and a glasses-based display in a vehicle | |
| DE102020211298A1 (en) | Method for representing a virtual element | |
| DE102018200312A1 (en) | A method, apparatus and computer readable storage medium having instructions for controlling a display of an augmented reality head-up display device for a motor vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R002 | Refusal decision in examination/registration proceedings | ||
| R003 | Refusal decision now final | ||
| R081 | Change of applicant/patentee |
Owner name: AUMOVIO GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30175 HANNOVER, DE |