DE102015119753A1 - Augmented reality system - Google Patents
Augmented reality system Download PDFInfo
- Publication number
- DE102015119753A1 DE102015119753A1 DE102015119753.7A DE102015119753A DE102015119753A1 DE 102015119753 A1 DE102015119753 A1 DE 102015119753A1 DE 102015119753 A DE102015119753 A DE 102015119753A DE 102015119753 A1 DE102015119753 A1 DE 102015119753A1
- Authority
- DE
- Germany
- Prior art keywords
- sequence
- orientation
- representation
- orientation data
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
Die Erfindung betrifft ein Augmented Reality(AR)-System (10), umfassend wenigstens ein mobiles Endgerät (12) mit folgenden Merkmalen – einer Bilderfassungseinrichtung (26), – einem Display (14) zur Wiedergabe einer Videosequenz, – einer AR-Steuerung (40), welches AR-System (10) weiterhin wenigstens einen Informationsträger (16) aufweist, auf welchem wenigstens ein AR-Marker (18) abgebildet ist, welche AR-Steuerung (40) eine Analyseeinheit (42) umfasst, die mit einem Vergleichsspeicher (44) verbunden ist, in dem Vergleichsmuster abgelegt sind, wobei die Analyseeinheit (42) konzipiert ist, einen in den Erfassungsbereich der Bilderfassungseinrichtung (26) geratenden auf dem Informationsträger (16) wiedergegebenen AR-Marker (18) aufgrund des Vergleichs mit den Vergleichsmustern zu erkennen und ein Triggersignal an eine Wiedergabeeinheit (46) abzugeben, welche die Wiedergabe wenigstens einer zu dem erkannten AR-Marker (18) korrelierten AR-Sequenz (30) veranlasst, wobei der AR-Marker (18) mehrere Markerelemente (20, 22, 24) aufweist und die Analyseeinheit (42) konzipiert ist, anhand der Orientierung der Markerelemente (20, 22, 24) im Erfassungsbereich der Bilderfassungseinrichtung (26) die Orientierung des mobilen Endgeräts (12) relativ zu dem Informationsträger (16) zu bestimmen und entsprechende Orientierungsdaten zu erzeugen, wobei die Wiedergabeeinheit (46) die Darstellung der AR-Sequenz (30) in Abhängigkeit von den Orientierungsdaten ausführt. Die Wiedergabeeinheit (46) verändert die Darstellung zumindest eines Teils der AR-Sequenz (30) auf dem Display (14) in Abhängigkeit von den Orientierungsdaten derart, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht.The invention relates to an augmented reality (AR) system (10) comprising at least one mobile terminal (12) having the following features: - an image acquisition device (26), - a display (14) for reproducing a video sequence, - an AR control ( 40), which AR system (10) further comprises at least one information carrier (16) on which at least one AR marker (18) is mapped, which AR controller (40) comprises an analysis unit (42) provided with a comparison memory (44) are stored in the comparison pattern, wherein the analysis unit (42) is designed, a in the detection range of the image capture device (26) raten on the information carrier (16) reproduced AR marker (18) due to the comparison with the comparison patterns and to issue a trigger signal to a playback unit (46) which causes the playback of at least one AR sequence (30) correlated to the detected AR marker (18), the AR flag r (18) has a plurality of marker elements (20, 22, 24) and the analysis unit (42) is designed, based on the orientation of the marker elements (20, 22, 24) in the detection range of the image capture device (26), the orientation of the mobile terminal (12) relative to the information carrier (16) to determine and generate corresponding orientation data, wherein the display unit (46) performs the representation of the AR sequence (30) in dependence on the orientation data. The display unit (46) changes the representation of at least part of the AR sequence (30) on the display (14) in dependence on the orientation data in such a way that it deviates from a representation of the AR sequence that is orientation-correlated with respect to the orientation data.
Description
Die vorliegende Erfindung betrifft ein Augmented Reality System (AR-System), umfassend wenigstens ein mobiles Endgerät mit einer Bilderfassungseinrichtung, mit einem Display zur Wiedergabe einer Videosequenz und einer AR-Steuerung. Weiterhin enthält das AR-System wenigstens einen Informationsträger, auf welchem wenigstens ein AR-Marker zum Triggern der Wiedergabe einer AR-Sequenz in das mobile Endgerät angeordnet ist. The present invention relates to an Augmented Reality System (AR system), comprising at least one mobile terminal with an image capture device, with a display for reproducing a video sequence and an AR control. Furthermore, the AR system contains at least one information carrier on which at least one AR marker for triggering the reproduction of an AR sequence is arranged in the mobile terminal.
Das mobile Endgerät hat eine Steuerung mit einer Analyseeinheit, welche Analyseeinheit mit einem Vergleichsspeicher verbunden ist, in welchem Vergleichsmuster abgelegt sind. Die Bilderfassungseinrichtung ist konzipiert, den auf dem Informationsträger wiedergegebenen AR-Marker aufgrund des Vergleichs mit dem Vergleichsmuster zu erkennen, worauf die Analyseeinheit ein Triggersignal an eine Wiedergabeeinheit abgibt, welches die Wiedergabeeinheit zur Wiedergabe wenigstens einer zu dem AR-Marker korrelierten AR-Sequenz veranlasst. Der AR-Marker hat mehrere Markerelemente und die Analyseeinheit des mobilen Endgerätes ist konzipiert, anhand der Orientierung der Markerelemente im Erfassungsbereich der Bilderfassungseinrichtung die Orientierung des mobilen Endgeräts relativ zu dem Informationsträger zu bestimmen und daraus Orientierungsdaten zu erzeugen. Die Wiedergabeeinheit führt dann die Wiedergabe der AR-Sequenz in Abhängigkeit von den Orientierungsdaten aus. The mobile terminal has a controller with an analysis unit, which analysis unit is connected to a reference memory in which comparison patterns are stored. The image capture device is designed to recognize the AR marker displayed on the information carrier on the basis of the comparison with the comparison pattern, whereupon the analysis unit issues a trigger signal to a reproduction unit, which causes the reproduction unit to reproduce at least one AR sequence correlated to the AR marker. The AR marker has a plurality of marker elements and the analysis unit of the mobile terminal is designed to determine the orientation of the mobile terminal relative to the information carrier based on the orientation of the marker elements in the detection area of the image capture device and to generate orientation data therefrom. The reproducing unit then performs the reproduction of the AR sequence in accordance with the orientation data.
Ein derartiges AR-System ist in der
Insbesondere im Bilderbuchbereich wird jedoch bisweilen durch die AR-Sequenz eine Pseudo-3D-Umgebung geschaffen, z.B. durch 2D-PopUps, d.h. die Umgebung wird dargestellt als horizontale Basisebene und von dieser Basisebene werden unterschiedliche Elemente auf unterschiedlichen hintereinander angeordneten Ebenen präsentiert, die sich von der Basisebene nach oben erstrecken. Diese Technik ist insbesondere bei PopUp-Glückwunschkarten bekannt, wo mit dem Aufklappen der Karte unterschiedliche Bildelemente auf parallel zueinander und hintereinander angeordneten Ebenen dargestellt sind. However, especially in the storybook area, sometimes a pseudo 3D environment is created by the AR sequence, e.g. by 2D pop-ups, i. the environment is represented as a horizontal base plane and from this base plane different elements are presented on different levels arranged one after the other extending from the base plane upwards. This technique is known in particular for pop-up greeting cards, where with the unfolding of the map different pixels on parallel to each other and successively arranged levels are shown.
Für ein derartiges 2D-PopUp-3D-System ist das in der US-Patentanmeldung gezeigte System nicht verwendbar, da die reine Seitenansicht eines derartigen Systems lediglich die hauchdünnen Kanten der 2D-PopUp Ebenen zeigen würde. For such a 2D pop-up 3D system, the system shown in the U.S. patent application is not usable because the mere side view of such a system would only show the gossamer edges of the 2D pop-up planes.
Es ist daher Aufgabe der Erfindung, ein AR-System zu schaffen, das sich auch in einer AR-Umgebung realisieren lässt, die eine Pseudo 3D-Umgebung enthält, z.B. 2D-PopUp-Elemente. It is therefore an object of the invention to provide an AR system which can also be realized in an AR environment containing a pseudo 3D environment, e.g. 2D PopUp elements.
Die Aufgabe wird erfindungsgemäß durch ein AR-System mit den Merkmalen des Anspruches 1 und durch ein Verfahren gemäß Anspruch 15 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der zugeordneten abhängigen Ansprüche. The object is achieved by an AR system with the features of
Erfindungsgemäß verändert die Wiedergabeeinheit zusätzlich die Darstellung zumindest eines Teils der AR-Sequenz auf dem Display in Abhängigkeit von den Orientierungsdaten derart, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. According to the invention, the reproduction unit additionally modifies the representation of at least part of the AR sequence on the display in dependence on the orientation data such that it deviates from a representation of the AR sequence that is orientation-correlated with respect to the orientation data.
In anderen Worten: Die Darstellung, insbesondere translatorische Lage, die Skalierung und/oder Orientierung, der AR-Sequenz auf dem Display des Endgeräts weicht von der Orientierung des Endgeräts zum AR-Marker (entspricht den Orientierungsdaten) ab. Dies hat den Vorteil, dass für beliebige Orientierungen des Endgeräts relativ zum AR-Marker unterschiedliche Darstellungsvarianten der AR-Sequenz und/oder zusätzliche Animationen im Display dargestellt werden können, die zum einen eine möglichst plastische Darstellung der AR-Sequenz auch bei 2D-PopUp Elementen ermöglichen und zum anderen zusätzliche orientierungsabhängige Animationen ermöglicht, die sich nicht ein einer reinen Orientierungskorrelation der Anzeige der AR-Sequenz im Display relativ zu den Orientierungsdaten widerspiegelt. Wenn z.B. ein AR-Marker von dem Endgerät, d.h. von dessen Bilderfassungseinrichtung direkt von der Seite betrachtet wird, kann z.B. die AR-Sequenz um 45 Grad gedreht auf dem Display, z.B. Touchscreen angezeigt werden, so dass die PopUp-Ebenen von schräg vorne sichtbar sind, was bei einer exakten Seitenansicht nicht mehr der Fall wäre. Zudem können Teile der AR-Sequenz, z.B. animierte Elemente zusätzlich in der gesamten AR-Sequenz relativ zu ihrer AR-Umgebung gedreht werden. Vorzugsweise können bei bestimmten Orientierungen zusätzliche Animationen in der AR-Sequenz freigeschaltet werden, die speziell für die aktuelle Lage des Endgeräts relativ zum Informationsträger geeignet ist, wie z.B. die Bewegung von Elementen in der AR-Sequenz. Diese Technik erlaubt somit eine in Abhängigkeit von den Orientierungsdaten unterschiedliche Orientierung von Elementen der AR-Sequenz relativ zueinander. Dies ist insbesondere bei 2D-PopUp Elementen vorteilhaft, weil diese unabhängig von der tatsächlichen Orientierung des Endgeräts relativ zum AR-Marker immer für einen dreidimensionalen Eindruck vorteilhaft präsentiert werden können. Zudem können auf diese Weise Animationen in bestimmten Stellungen des Endgeräts relativ zum Informationsträger freigeschaltet werden, z.B. Animationen, die durch Beführen des Touchscreens des Endgeräts aktiviert werden. In other words, the representation, in particular the translational position, the scaling and / or orientation, of the AR sequence on the display of the terminal differs from the orientation of the terminal to the AR marker (corresponds to the orientation data). This has the advantage that for any orientation of the terminal relative to the AR marker different display variants of the AR sequence and / or additional animations can be displayed, which on the one hand as vivid as possible representation of the AR sequence in 2D PopUp elements and, second, allows additional orientation-dependent animations that are not reflective of a pure orientation correlation of the display of the AR sequence in the display relative to the orientation data. If, for example, an AR marker is viewed directly from the side of the terminal, ie its image capture device, then the AR sequence can be displayed rotated by 45 degrees on the display, eg touchscreen, so that the pop-up levels are visible from diagonally forward are what would no longer be the case with a precise side view. Additionally, portions of the AR sequence, eg, animated elements, may additionally be rotated throughout the AR sequence relative to its AR environment. Preferably, at certain orientations, additional animations may be enabled in the AR sequence that is specifically suited for the current location of the terminal relative to the information carrier, such as the movement of elements in the AR sequence. This technique thus allows an in Depending on the orientation data different orientation of elements of the AR sequence relative to each other. This is particularly advantageous in the case of 2D pop-up elements, because they can always be advantageously presented for a three-dimensional impression independently of the actual orientation of the terminal relative to the AR marker. In addition, animations can be released in certain positions of the terminal relative to the information carrier in this way, for example, animations that are activated by moving the touch screen of the terminal.
Vorzugsweise sind für einen AR-Marker mehrere Darstellungsvarianten für zumindest einen Teil der AR-Sequenz vorgesehen, z.B. abgespeichert. Die Darstellungsvariante der AR-Sequenz wird dann in Abhängigkeit von den Orientierungsdaten ausgewählt. Auf diese Weise können für schwierige Betrachtungswinkel, z.B. direkt von oben, direkt von der Seite und direkt von hinten vordefinierte Darstellungsvarianten der AR-Sequenz wiedergegeben werden, die eine realistische oder Pseudo 3D-Darstellung erlauben. Preferably, for an AR marker, several display variants are provided for at least part of the AR sequence, e.g. stored. The representation variant of the AR sequence is then selected as a function of the orientation data. In this way, for difficult viewing angles, e.g. directly from above, directly from the side and directly from behind predefined display variants of the AR sequence are reproduced, which allow a realistic or pseudo 3D representation.
Die Analyseeinheit ist konzipiert, die Orientierungsdaten über einen zeitlichen Bereich, z.B. 05, bis 2 s, zu erfassen und daraus Dynamikdaten zu berechnen, die quasi die Bewegung des Endgeräts relativ zum Informationsträger wiederspiegeln. In Abhängigkeit von den Dynamikdaten können dann zumindest Teile der AR-Sequenz animiert werden. Die erlaubt es, auch die Dynamik der Orientierung des Endgeräts in die Darstellung der AR-Sequenz mit einfließen zu lassen. So können z.B. bei Bilderbüchern Tiere oder Personen in Abhängigkeit von der Bewegung des Endgeräts bewegt oder anderweitig animiert werden. The analysis unit is designed to store the orientation data over a temporal range, e.g. 05, to 2 s, and to calculate therefrom dynamic data, which reflect, as it were, the movement of the terminal relative to the information carrier. Depending on the dynamic data, at least parts of the AR sequence can then be animated. This makes it possible to incorporate the dynamics of the orientation of the terminal in the representation of the AR sequence. Thus, e.g. in picture books animals or persons are moved or otherwise animated depending on the movement of the terminal.
So können sich animierte Elemente der AR-Sequenz z.B. in einer Betrachtung von vorne von der horizontalen Ebene in etwa senkrecht nach oben bewegen. In der Betrachtung von oben wird die Bewegungsrichtung und Ausrichtung des animierten Elements dann z.B. nach hinten gekippt, z.B. 45 Grad zur Horizontalen, so dass das die Bewegung des animierten Elements auch bei Betrachtung direkt von oben in einer – natürlich stark geneigten – Frontansicht sichtbar ist. Ein 2D PopUp Element als auch dessen Bewegungsrichtung können somit durch die Erfindung bei allen Betrachtungswinkeln, d.h. Orientierungen des Endgeräts relativ zum Informationsträger oder AR-Marker optimal dargestellt werden. Thus, animated elements of the AR sequence may e.g. in a view from the front of the horizontal plane to move approximately vertically upwards. When viewed from above, the direction of movement and orientation of the animated element will then be e.g. tilted back, e.g. 45 degrees to the horizontal, so that the movement of the animated element is visible even when viewed directly from above in a - of course strongly inclined - front view. A 2D PopUp element as well as its direction of movement can thus by the invention at all viewing angles, i. Orientations of the terminal relative to the information carrier or AR marker can be displayed optimally.
Vorzugsweise sind die Darstellungsvarianten in einem mit der Wiedergabeeinheit verbundenen Speicher abgelegt, was eine schnelle Darstellung der Varianten ohne Rechenaufwand ermöglicht. Alternativ ist es möglich, jede Darstellungsvariante aus Basisdaten der AR-Sequenz zu errechnen. Hier dauert zwar der Bildaufbau länger, was sich jedoch bei den leistungsfähigen Prozessoren der modernen Endgeräte nicht wirklich bemerkbar machen sollte. Bei dieser Lösung wird auf jeden Fall Speicherplatz gespart. Preferably, the presentation variants are stored in a memory connected to the playback unit, which allows a quick representation of the variants without any computational effort. Alternatively, it is possible to calculate each representation variant from base data of the AR sequence. Although the image build-up takes longer, which should not really be noticeable in the powerful processors of modern devices. In any case, this solution saves storage space.
In einer vorteilhaften Weiterbildung der Erfindung ist für jede Darstellungsvariante einer AR-Sequenz ein zulässiger Bereich der Orientierungsdaten definiert, der zur Wiedergabe der entsprechenden Darstellungsvariante führt. So kann z.B. für die Frontansicht eine erste Darstellungsvariante vorgesehen sein, und weitere Darstellungsvarianten für die Ansicht von oben, für die beiden Seitenansichten und die Ansicht von hinten. Die Darstellung der AR-Sequenz kann somit für jeden Betrachtungswinkelbereich optimiert werden, was insbesondere bei Pseudo 3D-Darstellungen, z.B. 2D-PopUp Elementen vorteilhaft ist. In an advantageous development of the invention, a permissible region of the orientation data is defined for each representation variant of an AR sequence, which leads to the reproduction of the corresponding representation variant. Thus, e.g. be provided for the front view, a first display variant, and further display variants for the view from above, for the two side views and the view from behind. The representation of the AR sequence can thus be optimized for each viewing angle range, which is especially true for pseudo 3D representations, e.g. 2D PopUp elements is beneficial.
Vorzugsweise hat der zulässige Bereich für die Wiedergabe einer Darstellungsvariante einen horizontalen Winkelbereich (um eine vertikale Achse) von 60 bis 180 Grad und/oder einen vertikalen Winkelbereich (um eine horizontale Achse) von 90 Grad. Am besten werden die unterschiedlichen zulässigen Bereiche für unterschiedliche Darstellungsvarianten der AR-Sequenz durch Winkelbereiche von +–30 bis 90 Grad um die relevanten Vorzugsrichtungen des Informationsträgers definiert, welche Vorzugsrichtungen vorzugsweise zum einen in der horizontalen Ebene die Vorderansicht, die Rückansicht und die beiden Seitenansichten und zum anderen die Ansicht von senkrecht oben sind. Preferably, the allowable range for reproduction of a display variant has a horizontal angle range (about a vertical axis) of 60 to 180 degrees and / or a vertical angle range (about a horizontal axis) of 90 degrees. The different permissible ranges for different representation variants of the AR sequence are best defined by angle ranges of + -30 to 90 degrees about the relevant preferred directions of the information carrier, which preferential directions preferably on the one hand in the horizontal plane the front view, the rear view and the two side views and the other is the view from vertically above.
Vorzugsweise umfasst die AR-Sequenz wenigstens ein in einer AR-Umgebung animiertes Element, welches unabhängig von den Orientierungsdaten immer in einer maximalen Winkelabweichung von +/–60°, insbesondere von maximal +/–45° von der Frontalansicht dargestellt wird. Die Winkelabweichung wird dann aus den Orientierungsdaten ermittelt. Dies hat bei 2D-PopUp-Elementen den Vorteil, dass unabhängig von der Anordnung bzw. Orientierung des mobilen Endgerätes relativ zum Informationsträger bzw. AR-Marker das animierte Element immer weitgehend frontal zu sehen ist (mit einer maximalen Winkelabweichung von 60°). Das Problem von 2D-PopUp-Elementen besteht darin, dass sie nur über einen definierten Winkelbereich in der Gesamtumgebung als Pseudo 3D wahrgenommen werden. Wenn ein derartiges 2D-PopUp-Element zu sehr von der Seite betrachtet wird, erscheint es lediglich als die Seitenansicht einer Ebene, d.h. als Strich. Daher wird die Darstellung eines Elements in dem erfindungsgemäßen AR-System so gesteuert, dass sie einen von den Orientierungsdaten unabhängigen Anteil hat, nämlich immer in dem erlaubten Frontalbereich inklusive der zulässigen Winkelabweichung verbleibt. Selbst wenn somit das mobile Endgerät relativ zum Informationsträger zur Seite hin um 75° oder 80° oder gar 90º verschwenkt ist (Verschwenkung um die vertikale Achse), wird maximal die zulässige Winkelabweichung bei der Darstellung des animierten Elements wiedergegeben, und damit immer eine (geneigte bzw. gedrehte)Frontaldarstellung. Somit erscheint das animierte Element zwar entsprechend der aktuellen Position des Endgeräts relativ zum Informationsträger leicht geneigt bzw. gedreht, welche Verkippung/Verdrehung jedoch dazu z.B. reduziert ist, so dass unabhängig von der Orientierung des mobilen Endgeräts relativ zum Informationsträger, z.B. Bilderbuch, das animierte Element im Wesentlichen immer entsprechend den Orientierungsdaten mehr oder weniger frontal gesehen wird. The AR sequence preferably comprises at least one element animated in an AR environment, which is always displayed independently of the orientation data in a maximum angular deviation of +/- 60 °, in particular of at most +/- 45 ° from the frontal view. The angular deviation is then determined from the orientation data. This has the advantage in 2D pop-up elements that regardless of the arrangement or orientation of the mobile terminal relative to the information carrier or AR marker, the animated element is always to see largely frontal (with a maximum angular deviation of 60 °). The problem with 2D PopUp elements is that they are perceived as pseudo 3D only over a defined angular range in the overall environment. If such a 2D PopUp element is viewed too much from the side, it only appears as the side view of a plane, ie as a stroke. Therefore, the representation of an element in the AR system according to the invention is controlled so that it has an independent of the orientation data proportion, namely always in the allowed frontal area including the allowable angular deviation remains. Even if thus the mobile terminal relative to the information carrier to the side by 75 ° or 80 ° or even 90 ° is pivoted (pivoting about the vertical axis), the maximum allowed deviation in the representation of the animated element is reproduced, and thus always a (tilted or rotated) frontal representation. Thus, the animated element appears to be slightly inclined or rotated relative to the information carrier according to the current position of the terminal, but which tilt / rotation is reduced, for example, so that regardless of the orientation of the mobile terminal relative to the information carrier, eg picture book, the animated element essentially always according to the orientation data is seen more or less head-on.
In einer ganz einfachen Ausführungsform könnte z.B. die aktuelle Orientierung des mobilen Endgeräts relativ zum Informationsträger erfasst werden und die Darstellung derart gewählt werden, dass die entsprechende Orientierung des animierten Elements nur um den halben Winkel geneigt ist. Wenn z.B. das mobile Endgerät um 80° seitlich relativ zur Frontalen des Informationsträgers gedreht ist, so kann die das animierte Element mit einer seitlichen Drehung von 40° dargestellt werden. Dies ist auf jeden Fall eine so starke Verringerung der Orientierung, dass das animierte Element auch in dieser recht extremen Seitenansicht im Wesentlichen frontal wahrgenommen wird. In a very simple embodiment, e.g. the current orientation of the mobile terminal relative to the information carrier are detected and the representation are chosen such that the corresponding orientation of the animated element is inclined only by half the angle. If e.g. the mobile terminal is rotated by 80 ° laterally relative to the front of the information carrier, so the animated element can be displayed with a lateral rotation of 40 °. In any case, this is so much a reduction in orientation that the animated element is essentially perceived head-on even in this rather extreme side view.
Auf diese Weise lässt sich das erfindungsgemäße AR-System in optimaler Weise für 2D-PopUp-3D-Umgebungen verwenden. In this way, the AR system according to the invention can be optimally used for 2D pop-up 3D environments.
In einer optionalen Ausgestaltung der Erfindung wird die Wiedergabe der AR-Sequenz in dem Display relativ zur Orientierung des Endgeräts zum Informationsträger gedreht, so dass der Betrachtungswinkel im Display von der Orientierung des Endgeräts relativ zum Informationsträger oder AR-Marker abweicht. Wenn z.B. das Bild eines Bilderbuchs exakt von der Seite oder sogar von hinten betrachtet wird, kann die Szene unabhängig davon immer von vorne innerhalb der zulässigen Winkelabweichung dargestellt werden. Die AR-Sequenz wird damit gestartet und richtig von vorne dargestellt, selbst wenn das Endgerät von hinten auf das Bild gerichtet wird, d.h. als ob das Buch über Kopf gelesen würde. In an optional embodiment of the invention, the reproduction of the AR sequence in the display is rotated relative to the orientation of the terminal to the information carrier so that the viewing angle in the display deviates from the orientation of the terminal relative to the information carrier or AR marker. If e.g. the image of a picture book is viewed exactly from the side or even from behind, the scene can always be viewed from the front within the allowable angle deviation independently. The AR sequence is thus started and displayed correctly from the front, even if the terminal is pointed at the image from the rear, i. as if the book were read over head.
Anhand von Markerelementen des AR-Markers im Informationsträger, z.B. im Bild eines Bilderbuches, errechnet eine erste Recheneinheit der Analyseeinheit die exakte Orientierung des mobilen Endgeräts relativ zum Bild des Bilderbuchs (oder AR-Marker) sowohl translatorisch als auch rotativ vorzugsweise in allen Raumrichtungen und berücksichtigt diese Daten bei der Darstellung der AR-Sequenz bzw. des zumindest eines animierten Elements der AR-Sequenz, vorzugsweise der gesamten AR-Umgebungsdarstellung. Based on marker elements of the AR marker in the information carrier, e.g. In the image of a picture book, a first computing unit of the analysis unit calculates the exact orientation of the mobile terminal relative to the image of the picture book (or AR marker) both translationally and rotationally preferably in all spatial directions and takes this data into account in the representation of the AR sequence or the at least one animated element of the AR sequence, preferably the entire AR environment representation.
Vorzugsweise korreliert der Orientierungswinkel der Darstellung des animierten Elements in der Umgebungsdarstellung der AR-Sequenz mit einem korrespondierenden Orientierungswinkel in den Orientierungsdaten. Dies führt zu einer realistischen Darstellung des Elements in der AR-Sequenz. Wenn z.B. das mobile Endgerät das Bild von seitlich rechts sieht, so wird auch in der Umgebungsdarstellung der AR-Sequenz das animierte Element von seitlich rechts gesehen, wenngleich auch evtl. der Orientierungswinkel reduziert ist. Preferably, the orientation angle of the representation of the animated element in the environmental representation of the AR sequence correlates to a corresponding orientation angle in the orientation data. This leads to a realistic representation of the element in the AR sequence. If e.g. the mobile terminal sees the image from the right side, the animated element is also seen from the right side in the surrounding representation of the AR sequence, although the orientation angle may also be reduced.
In einer vorteilhaften Weiterbildung der Erfindung ist der Informationsträger ein Bilderbuch, das Bilder aufweist, in denen AR-Marker zum Triggern der Sequenz angeordnet, vorzugsweise integriert sind. Die Verwendung einer 2D-PopUp-3D-Räumlichkeit in Verbindung mit Bilderbüchern ist für Kinder leicht begreifbar und wirkt sehr ansprechend. In an advantageous development of the invention, the information carrier is a picture book which has pictures in which AR markers for triggering the sequence are arranged, preferably integrated. The use of a 2D PopUp 3D space in conjunction with picture books is easy for children to understand and looks very appealing.
Vorzugsweise enthält die Analyseeinheit eine erste Recheneinheit, die basierend auf der Anordnung der Markerelemente des AR-Markers im Erfassungsbereich der Bilderfassungseinrichtung die Orientierungsdaten berechnet. Für die Wiedergabe der AR-Sequenz wesentlich ist die Verkippung des Endgeräts um eine horizontale Achse (z.B. zwischen Betrachtung von vorne und Betrachtung von oben) und/oder um eine vertikale Achse (zwischen Betrachtung von rechts und Betrachtung von links), weil dies diejenigen Betrachtungswinkel sind, mit denen üblicherweise ein Bild angeschaut wird. Diese üblichen Betrachtungswinkel werden natürlich auch bei der Orientierung des Endgeräts relativ zum Bild häufig verwendet. The analysis unit preferably contains a first computing unit which calculates the orientation data based on the arrangement of the marker elements of the AR marker in the detection area of the image capture device. Essential for the reproduction of the AR sequence is the tilting of the terminal about a horizontal axis (eg between viewing from the front and viewing from above) and / or around a vertical axis (between viewing from the right and viewing from the left), because these are the viewing angles are with whom a picture is usually viewed. Of course, these common viewing angles are also commonly used in the orientation of the terminal relative to the image.
Vorzugsweise berechnet die erste Recheneinheit basierend auf den von der Analyseeinheit errechneten Orientierungsdaten die Darstellung eines animierten Elements in der Umgebungsdarstellung der AR-Sequenz. Sie kann optional ebenfalls auch die Umgebungsdarstellung der AR-Sequenz berechnen, so dass auch die Umgebung immer von vorne, allerdings in einem zulässigen Betrachtungswinkel von der Seite und von oben dargestellt wird. Die relative Orientierung des animierten Elements in seiner AR-Umgebungsdarstellung kann von der Orientierung der AR-Umgebungsdarstellung abweichen und in Abhängigkeit von den Orientierungsdaten berechnet werden. The first computing unit preferably calculates the representation of an animated element in the environment representation of the AR sequence on the basis of the orientation data calculated by the analysis unit. Optionally, it can also calculate the environmental representation of the AR sequence, so that the environment is always displayed from the front, but at a permissible viewing angle from the side and from above. The relative orientation of the animated element in its AR environment representation may differ from the orientation of the AR environment representation and be calculated in dependence on the orientation data.
Die Berechnung der Lage des Endgeräts relativ zum Bild (AR-Marker) verläuft vorzugsweise wie folgt: Die Recheneinheit wertet die Anordnung der Markerelemente in der Ebene des Erfassungsbereichs aus. Erfasst werden hierbei z.B. die rotative Anordnung der Markerelemente im Erfassungsbereich, d.h. wie stark die Markerelemente relativ zu einer Referenzachse, in der Regel die Vorderansicht eines Bildes gedreht ist, als auch der gegenseitige Abstand der Markerelemente zur Bestimmung eines Kippwinkels des mobilen Endgeräts relativ zum Informationsträger um eine horizontale Achse. Mit dem Kippen um eine horizontale Achse verändert sich der gegenseitige Abstand der Markerelemente. Aufgrund dieser Veränderung des gegenseitigen Abstandes kann auch der Verkippungswinkel und die Kipprichtung geschlossen werden. Je mehr das Mobilendgerät seitlich oder nach vorne gekippt ist, desto geringer wird der gegenseitige Abstand der Markerelemente in der entsprechenden Kipprichtung. Der gegenseitige Abstand der Markerelemente ist am größten, wenn der Informationsträger, z.B. das Bild eines Bilderbuchs direkt von oben erfasst wird. The calculation of the position of the terminal relative to the image (AR marker) preferably proceeds as follows: The arithmetic unit evaluates the arrangement of the marker elements in the plane of the detection area. In this case, for example, the rotational arrangement of the marker elements in the detection area is recorded, ie how much the marker elements are rotated relative to a reference axis, as a rule the front view of an image, and also the mutual Distance of the marker elements for determining a tilt angle of the mobile terminal relative to the information carrier about a horizontal axis. By tilting about a horizontal axis, the mutual distance of the marker elements changes. Due to this change in the mutual distance, the tilt angle and the tilt direction can be closed. The more the mobile terminal is tilted laterally or forward, the smaller the mutual distance of the marker elements in the corresponding tilting direction. The mutual distance of the marker elements is greatest when the information carrier, such as the image of a picture book is detected directly from above.
Die Erfindung betrifft ebenfalls ein Verfahren zur Darstellung einer AR-Sequenz auf einem Display eines mobilen Endgeräts, bei welchem Verfahren die Orientierung des mobilen Endgeräts relativ zu einem Informationsträger in Form von Orientierungsdaten erfasst wird, und bei welchem die Orientierungsdaten bei der Wiedergabe der AR-Sequenz auf dem Display berücksichtigt werden. Die Wiedergabe zumindest eines Teils der AR-Sequenz auf dem Display erfolgt dann in Abhängigkeit von den Orientierungsdaten derart, dass zumindest ein Teil der AR-Sequenz auf dem Display in Abhängigkeit von den Orientierungsdaten derart verändert dargestellt wird, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. Beispiel: Die AR-Sequenz ist ein PopUp-Auto, welches in der Mitte des AR Markers erscheint bei einem Betrachtungswinkel β1 von 45°. Wenn nun das Gerät gekippt wird auf einen Betrachtungswinkel β2 von 80°, dann wird dadurch z.B. das Auto nicht nur gekippt (bleibt damit gut sichtbar), sondern es verändert auch seine Position auf dem AR-Marker, z.B. ist es durch den Kippvorgang nach rechts gefahren. Wird wieder zurück auf 45° gekippt, so fährt das Auto wieder in die Mitte auf die Ursprungsposition zurück.. Auf diese Weise wird zwar bei der Wiedergabe des animierten Elements die Betrachtungsposition des mobilen Endgeräts in der Darstellung des animierten Elements in der Umgebungsdarstellung der AR-Sequenz simuliert, zusätzlich können aber noch die Lage und Rotation und Größe der AR-Sequenzen im Verhältnis zum AR-Target animiert werden. Weitere Eigenschaften und Vorteile des Verfahrens sind im Zusammenhang mit der Beschreibung des erfindungsgemäßen Systems beschrieben. Das animierte Element ist insbesondere ein 2D-PopUp-Element in einer 2D-PopUp 3D-Umgebung, die in der Regel durch eine horizontale Basisebene und aus der Basisebene hervorstehende 2D-Elemente gekennzeichnet ist, die hintereinander angeordnet sind. The invention also relates to a method for displaying an AR sequence on a display of a mobile terminal, in which method the orientation of the mobile terminal relative to an information carrier in the form of orientation data is detected, and in which the orientation data in the reproduction of the AR sequence be considered on the display. The reproduction of at least a part of the AR sequence on the display then takes place as a function of the orientation data such that at least a part of the AR sequence is displayed on the display in dependence on the orientation data changed from one with respect to the Orientation data orientation-correlated representation of the AR sequence deviates. Example: The AR sequence is a pop-up car, which appears in the middle of the AR marker at a viewing angle β1 of 45 °. Now, if the device is tilted to a viewing angle β2 of 80 °, then e.g. not only tilting the car (thus keeping it well visible) but also changing its position on the AR marker, e.g. it drove to the right due to the tipping process. If the car is tilted back to 45 °, the car returns to the center position. In this way, while the animated element is playing, the viewing position of the mobile device in the animated element's representation in the environment representation of the mobile device is displayed. In addition, the position and rotation and size of the AR sequences in relation to the AR target can be animated. Further properties and advantages of the method are described in connection with the description of the system according to the invention. In particular, the animated element is a 2D PopUp element in a 2D PopUp 3D environment, typically characterized by a horizontal base plane and 2D plane protruding 2D elements arranged one behind the other.
Vorzugsweise werden die Orientierungsdaten über einen zeitlichen Bereich, z.B. 05, bis 2 s, erfasst und daraus Dynamikdaten berechnet werden, die quasi die Bewegung des Endgeräts relativ zum Informationsträger wiederspiegeln. In Abhängigkeit von den Dynamikdaten können dann zumindest Teile der AR-Sequenz animiert werden. Die erlaubt es, auch die Dynamik der Orientierung des Endgeräts in die Darstellung der AR-Sequenz mit einfließen zu lassen. Dies erweitert den Spielraum für die Darstellung von AR-Sequenzen beträchtlich. Preferably, the orientation data is spread over a temporal range, e.g. 05, to 2 s, and from this dynamic data are calculated, which more or less reflect the movement of the terminal relative to the information carrier. Depending on the dynamic data, at least parts of the AR sequence can then be animated. This makes it possible to incorporate the dynamics of the orientation of the terminal in the representation of the AR sequence. This considerably expands the scope for rendering AR sequences.
Es ist für den Fachmann offensichtlich, dass die o.g. Ausführungsformen der Erfindung beliebig miteinander kombinierbar sind. Es ist weiterhin für den Fachmann selbstverständlich, dass durch ein AR-Marker mehrere AR-Sequenzen ausgelöst werden können, oder dass mehrere AR-Sequenzen simultan vorgesehen werden können, so kann z.B. die AR-Sequenz zum einen das Bild in einer 2D-PopUp-3D-Räumlichkeit zeigen und zusätzlich können Elemente in dieser Sequenz durch Berühren des Touch-Screens animiert werden, so dass sie z.B. Geräusche von sich geben und/oder sich bewegen. It is obvious to a person skilled in the art that the o.g. Embodiments of the invention can be combined with each other as desired. It is further understood by those skilled in the art that multiple AR sequences can be triggered by an AR marker, or that multiple AR sequences can be provided simultaneously, e.g. the AR sequence, on the one hand, show the image in a 2D PopUp 3D spatiality and, in addition, elements in that sequence can be animated by touching the touch screen, e.g. Make sounds and / or move.
Technische Komponenten des AR-Systems wie z.B. AR-Steuerung, Analyseeinheit, Wiedergabeeinheit, Speicher und Recheneinheiten können als separate Komponenten realisiert oder miteinander integriert ausgebildet sein. Vorzugsweise können diese Komponenten in Form einer App auf dem Prozessor des Endgeräts implementiert werden. Technical components of the AR system, e.g. AR control, analysis unit, playback unit, memory and computing units can be realized as separate components or integrated with each other. Preferably, these components may be implemented in the form of an app on the processor of the terminal.
Die Orientierung wird vorzugsweise mit Bezug zu einer Bezugsrichtung G ermittelt, welche vorzugsweise mit Bezug auf den Informationsträger (Bild) die horizontale Gerade nach vorne darstellt. Folgende Ausdrücke werden synonym verwendet: Bild-Informationsträger-AR-Marker; Steuerung-AR-Steuerung The orientation is preferably determined with reference to a reference direction G, which preferably represents the horizontal straight line with respect to the information carrier (image). The following expressions are used synonymously: image information carrier AR markers; Control-AR control
Die Erfindung wird nachfolgend beispielsweise anhand der schematischen Zeichnung beschrieben. In dieser zeigen: The invention will be described below by way of example with reference to the schematic drawing. In this show:
An der Unterseite des Tablets
Des Weiteren hat die AR-Steuerung
Die
In
In
Die
Die
Die von dem aktuellen Betrachtungswinkel (Orientierung des Tablets
Die
In
In
Die
Schließlich zeigen
Es ist damit zusammenzufassen, dass die vorliegende Erfindung die Wiedergabe von AR-Sequenzen insbesondere bei Pseudo 3D-Darstellungen, vorzugsweise bei 2D-PopUp-3D-Darstellungen sehr realitätsnah erscheinen lässt und orientierungsabhängig zusätzliche Animationen ermöglicht. It should be summarized that the present invention makes the reproduction of AR sequences appear very realistic in particular in pseudo 3D representations, preferably in 2D pop-up 3D representations, and allows orientation-dependent additional animations.
Die Erfindung ist nicht auf das dargestellte Ausführungsbeispiel beschränkt, sondern kann innerhalb des Schutzbereichs der nachfolgenden Ansprüche beliebig variiert werden. The invention is not limited to the illustrated embodiment, but may be varied as desired within the scope of the following claims.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
- 10 10
- AR (Augmented Reality) System AR (augmented reality) system
- 12 12
- Endgerät (Tablet) Terminal (tablet)
- 14 14
- Display (Touchscreen) Display (touch screen)
- 16 16
- Informationsträger (Bild) Information carrier (picture)
- 18 18
- AR-Marker AR marker
- 20 20
- erster AR-Markerpunkt first AR marker point
- 22 22
- zweiter AR-Markerpunkt second AR marker point
- 24 24
- dritter AR-Markerpunkt third AR marker point
- 26 26
- Bilderfassungseinrichtung (Kamera) Image capture device (camera)
- 28 28
- Bilderfassungsbereich Image capture area
- 30 30
- AR-Sequenz AR sequence
- 32 32
- Basisebene base level
- 34 34
- hintere 2D-PopUp Darstellungsebene rear 2D pop-up display layer
- 36 36
- mittlere 2D-PopUp Darstellungsebene middle 2D PopUp presentation plane
- 38 38
- animiertes 2D-PopUp Element (Nilpferd) animated 2D-Popup element (hippopotamus)
- 40 40
- AR-Steuerung AR control
- 42 42
- Analyseeinheit analysis unit
- 44 44
- Vergleichsspeicher Compare memory
- 46 46
- Wiedergabeeinheit Playback unit
- 50 50
- vorderer Punkt der AR-Umgebung front point of the AR environment
- 52 52
- hintere Punkte der AR-Umgebung rear points of the AR environment
- 54 54
- erste Umgebungsdarstellung für Vorne und Hinten first environment representation for front and back
- 56 56
- zweite Umgebungsdarstellung für Rechts second environment representation for right
- 58 58
- dritte Umgebungsdarstellung für Links third environment representation for links
- 60 60
- vierte Umgebungsdarstellung für flach bzw. frontal fourth environment representation for flat or frontal
- 62 62
- fünfte Umgebungsdarstellung für steil bzw. Aufsicht fifth environment representation for steep or supervision
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2015/0248785 A1 [0003] US 2015/0248785 A1 [0003]
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015119753.7A DE102015119753A1 (en) | 2015-11-16 | 2015-11-16 | Augmented reality system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015119753.7A DE102015119753A1 (en) | 2015-11-16 | 2015-11-16 | Augmented reality system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015119753A1 true DE102015119753A1 (en) | 2017-05-18 |
Family
ID=58640098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015119753.7A Withdrawn DE102015119753A1 (en) | 2015-11-16 | 2015-11-16 | Augmented reality system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015119753A1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110148935A1 (en) * | 2009-12-17 | 2011-06-23 | Nokia Corporation | Method and apparatus for providing control over a device display based on device orientation |
US8226011B2 (en) * | 2005-04-06 | 2012-07-24 | Eidgenoessische Technische Hochshcule Zuerich | Method of executing an application in a mobile device |
US20120256956A1 (en) * | 2011-04-08 | 2012-10-11 | Shunichi Kasahara | Display control device, display control method, and program |
US20130207894A1 (en) * | 2012-02-10 | 2013-08-15 | Sony Corporation | Information processing device, information processing method and program |
US20130222426A1 (en) * | 2012-02-28 | 2013-08-29 | Research In Motion Limited | Method and device for providing augmented reality output |
US8542906B1 (en) * | 2008-05-21 | 2013-09-24 | Sprint Communications Company L.P. | Augmented reality image offset and overlay |
US20130314441A1 (en) * | 2012-05-23 | 2013-11-28 | Qualcomm Incorporated | Image-driven view management for annotations |
US20140002491A1 (en) * | 2012-06-29 | 2014-01-02 | Mathew J. Lamb | Deep augmented reality tags for head mounted displays |
US20150248785A1 (en) | 2014-03-03 | 2015-09-03 | Yahoo! Inc. | 3-dimensional augmented reality markers |
-
2015
- 2015-11-16 DE DE102015119753.7A patent/DE102015119753A1/en not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8226011B2 (en) * | 2005-04-06 | 2012-07-24 | Eidgenoessische Technische Hochshcule Zuerich | Method of executing an application in a mobile device |
US8542906B1 (en) * | 2008-05-21 | 2013-09-24 | Sprint Communications Company L.P. | Augmented reality image offset and overlay |
US20110148935A1 (en) * | 2009-12-17 | 2011-06-23 | Nokia Corporation | Method and apparatus for providing control over a device display based on device orientation |
US20120256956A1 (en) * | 2011-04-08 | 2012-10-11 | Shunichi Kasahara | Display control device, display control method, and program |
US20130207894A1 (en) * | 2012-02-10 | 2013-08-15 | Sony Corporation | Information processing device, information processing method and program |
US20130222426A1 (en) * | 2012-02-28 | 2013-08-29 | Research In Motion Limited | Method and device for providing augmented reality output |
US20130314441A1 (en) * | 2012-05-23 | 2013-11-28 | Qualcomm Incorporated | Image-driven view management for annotations |
US20140002491A1 (en) * | 2012-06-29 | 2014-01-02 | Mathew J. Lamb | Deep augmented reality tags for head mounted displays |
US20150248785A1 (en) | 2014-03-03 | 2015-09-03 | Yahoo! Inc. | 3-dimensional augmented reality markers |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112014004305B4 (en) | Image generating device; Image display system; Image generation method and image display method | |
DE69816688T2 (en) | Perspective control for video game images | |
DE112014002804T5 (en) | Interior display device for vehicles and program product | |
DE102010042026B4 (en) | Method for generating an image of at least one object in the surroundings of a vehicle | |
DE102008061988A1 (en) | Method and device for displaying information | |
EP2464098A2 (en) | Vicinity presentation device, a vehicle with such a vicinity presentation device and method for displaying a panorama image | |
EP2795401B1 (en) | Motion picture presentation device and method for presenting a motion picture | |
DE102006059922A1 (en) | Method for displaying a map section in a navigation system and navigation system | |
EP3420539B1 (en) | Method for operating a display device and system for displaying actual image contents of an actual environment overlayed with virtual image contents | |
DE102016124978A1 (en) | Virtual representation of an environment of a motor vehicle in a driver assistance system with a plurality of projection surfaces | |
DE102014115363A1 (en) | Virtual character in real environment | |
DE102018216409A1 (en) | Method, device and means of transportation for a kinetose-avoiding representation of a liquid in a display in a means of transportation | |
DE102014009701B4 (en) | Method for operating virtual reality glasses and system with virtual reality glasses | |
DE102009054214A1 (en) | A method for generating a representation of an environment | |
DE112017001556T5 (en) | Navigation system and navigation program | |
DE102019212601A1 (en) | Generating a display of an augmented reality head-up display for a motor vehicle | |
WO2015062750A1 (en) | Infortainment system for a vehicle | |
DE102015119753A1 (en) | Augmented reality system | |
WO2019048643A1 (en) | Equipment and method for audio/visual recording and reproduction of images/films | |
DE102016226299B4 (en) | Method and device for displaying an environment of a vehicle | |
WO2019072466A1 (en) | Method for displaying images of a camera system of a vehicle | |
DE102015201642B4 (en) | Device and method for displaying the surroundings of a vehicle | |
DE102019211415B3 (en) | Method for generating a light-based assistance function in a vehicle | |
DE102012010799A1 (en) | Method for the spatial visualization of virtual objects | |
DE102020109789A1 (en) | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |