[go: up one dir, main page]

DE102015119753A1 - Augmented reality system - Google Patents

Augmented reality system Download PDF

Info

Publication number
DE102015119753A1
DE102015119753A1 DE102015119753.7A DE102015119753A DE102015119753A1 DE 102015119753 A1 DE102015119753 A1 DE 102015119753A1 DE 102015119753 A DE102015119753 A DE 102015119753A DE 102015119753 A1 DE102015119753 A1 DE 102015119753A1
Authority
DE
Germany
Prior art keywords
sequence
orientation
representation
orientation data
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015119753.7A
Other languages
German (de)
Inventor
Andreas Freiherr von Lepel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Storydocks GmbH
Original Assignee
Storydocks GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Storydocks GmbH filed Critical Storydocks GmbH
Priority to DE102015119753.7A priority Critical patent/DE102015119753A1/en
Publication of DE102015119753A1 publication Critical patent/DE102015119753A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein Augmented Reality(AR)-System (10), umfassend wenigstens ein mobiles Endgerät (12) mit folgenden Merkmalen – einer Bilderfassungseinrichtung (26), – einem Display (14) zur Wiedergabe einer Videosequenz, – einer AR-Steuerung (40), welches AR-System (10) weiterhin wenigstens einen Informationsträger (16) aufweist, auf welchem wenigstens ein AR-Marker (18) abgebildet ist, welche AR-Steuerung (40) eine Analyseeinheit (42) umfasst, die mit einem Vergleichsspeicher (44) verbunden ist, in dem Vergleichsmuster abgelegt sind, wobei die Analyseeinheit (42) konzipiert ist, einen in den Erfassungsbereich der Bilderfassungseinrichtung (26) geratenden auf dem Informationsträger (16) wiedergegebenen AR-Marker (18) aufgrund des Vergleichs mit den Vergleichsmustern zu erkennen und ein Triggersignal an eine Wiedergabeeinheit (46) abzugeben, welche die Wiedergabe wenigstens einer zu dem erkannten AR-Marker (18) korrelierten AR-Sequenz (30) veranlasst, wobei der AR-Marker (18) mehrere Markerelemente (20, 22, 24) aufweist und die Analyseeinheit (42) konzipiert ist, anhand der Orientierung der Markerelemente (20, 22, 24) im Erfassungsbereich der Bilderfassungseinrichtung (26) die Orientierung des mobilen Endgeräts (12) relativ zu dem Informationsträger (16) zu bestimmen und entsprechende Orientierungsdaten zu erzeugen, wobei die Wiedergabeeinheit (46) die Darstellung der AR-Sequenz (30) in Abhängigkeit von den Orientierungsdaten ausführt. Die Wiedergabeeinheit (46) verändert die Darstellung zumindest eines Teils der AR-Sequenz (30) auf dem Display (14) in Abhängigkeit von den Orientierungsdaten derart, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht.The invention relates to an augmented reality (AR) system (10) comprising at least one mobile terminal (12) having the following features: - an image acquisition device (26), - a display (14) for reproducing a video sequence, - an AR control ( 40), which AR system (10) further comprises at least one information carrier (16) on which at least one AR marker (18) is mapped, which AR controller (40) comprises an analysis unit (42) provided with a comparison memory (44) are stored in the comparison pattern, wherein the analysis unit (42) is designed, a in the detection range of the image capture device (26) raten on the information carrier (16) reproduced AR marker (18) due to the comparison with the comparison patterns and to issue a trigger signal to a playback unit (46) which causes the playback of at least one AR sequence (30) correlated to the detected AR marker (18), the AR flag r (18) has a plurality of marker elements (20, 22, 24) and the analysis unit (42) is designed, based on the orientation of the marker elements (20, 22, 24) in the detection range of the image capture device (26), the orientation of the mobile terminal (12) relative to the information carrier (16) to determine and generate corresponding orientation data, wherein the display unit (46) performs the representation of the AR sequence (30) in dependence on the orientation data. The display unit (46) changes the representation of at least part of the AR sequence (30) on the display (14) in dependence on the orientation data in such a way that it deviates from a representation of the AR sequence that is orientation-correlated with respect to the orientation data.

Description

Die vorliegende Erfindung betrifft ein Augmented Reality System (AR-System), umfassend wenigstens ein mobiles Endgerät mit einer Bilderfassungseinrichtung, mit einem Display zur Wiedergabe einer Videosequenz und einer AR-Steuerung. Weiterhin enthält das AR-System wenigstens einen Informationsträger, auf welchem wenigstens ein AR-Marker zum Triggern der Wiedergabe einer AR-Sequenz in das mobile Endgerät angeordnet ist. The present invention relates to an Augmented Reality System (AR system), comprising at least one mobile terminal with an image capture device, with a display for reproducing a video sequence and an AR control. Furthermore, the AR system contains at least one information carrier on which at least one AR marker for triggering the reproduction of an AR sequence is arranged in the mobile terminal.

Das mobile Endgerät hat eine Steuerung mit einer Analyseeinheit, welche Analyseeinheit mit einem Vergleichsspeicher verbunden ist, in welchem Vergleichsmuster abgelegt sind. Die Bilderfassungseinrichtung ist konzipiert, den auf dem Informationsträger wiedergegebenen AR-Marker aufgrund des Vergleichs mit dem Vergleichsmuster zu erkennen, worauf die Analyseeinheit ein Triggersignal an eine Wiedergabeeinheit abgibt, welches die Wiedergabeeinheit zur Wiedergabe wenigstens einer zu dem AR-Marker korrelierten AR-Sequenz veranlasst. Der AR-Marker hat mehrere Markerelemente und die Analyseeinheit des mobilen Endgerätes ist konzipiert, anhand der Orientierung der Markerelemente im Erfassungsbereich der Bilderfassungseinrichtung die Orientierung des mobilen Endgeräts relativ zu dem Informationsträger zu bestimmen und daraus Orientierungsdaten zu erzeugen. Die Wiedergabeeinheit führt dann die Wiedergabe der AR-Sequenz in Abhängigkeit von den Orientierungsdaten aus. The mobile terminal has a controller with an analysis unit, which analysis unit is connected to a reference memory in which comparison patterns are stored. The image capture device is designed to recognize the AR marker displayed on the information carrier on the basis of the comparison with the comparison pattern, whereupon the analysis unit issues a trigger signal to a reproduction unit, which causes the reproduction unit to reproduce at least one AR sequence correlated to the AR marker. The AR marker has a plurality of marker elements and the analysis unit of the mobile terminal is designed to determine the orientation of the mobile terminal relative to the information carrier based on the orientation of the marker elements in the detection area of the image capture device and to generate orientation data therefrom. The reproducing unit then performs the reproduction of the AR sequence in accordance with the orientation data.

Ein derartiges AR-System ist in der US 2015/0248785 A1 gezeigt. Dort lässt sich ein AR-Marker in Form eines abstrahierten Icons von unterschiedlichen Seiten betrachten, wobei auf dem mobilen Endgerät getriggert durch das Icon ein Haus dreidimensional dargestellt wird, und zwar entsprechend dem Betrachtungswinkel des mobilen Endgeräts relativ zu dem auf dem Informationsträger befindlichen Icon. Das heißt: Die Orientierung der AR-Sequenz auf dem Display entspricht immer der Orientierung des Endgeräts relativ zum Informationsträger. Ein derartiges AR-System mag vergleichsweise gut funktionieren für dreidimensionale Objekte, die von allen Seiten betrachtet werden sollen. Such an AR system is in the US 2015/0248785 A1 shown. There, an AR marker in the form of an abstracted icon can be viewed from different sides, whereby a house is displayed three-dimensionally on the mobile terminal triggered by the icon, corresponding to the viewing angle of the mobile terminal relative to the icon located on the information carrier. This means that the orientation of the AR sequence on the display always corresponds to the orientation of the terminal relative to the information carrier. Such an AR system may work comparatively well for three-dimensional objects to be viewed from all sides.

Insbesondere im Bilderbuchbereich wird jedoch bisweilen durch die AR-Sequenz eine Pseudo-3D-Umgebung geschaffen, z.B. durch 2D-PopUps, d.h. die Umgebung wird dargestellt als horizontale Basisebene und von dieser Basisebene werden unterschiedliche Elemente auf unterschiedlichen hintereinander angeordneten Ebenen präsentiert, die sich von der Basisebene nach oben erstrecken. Diese Technik ist insbesondere bei PopUp-Glückwunschkarten bekannt, wo mit dem Aufklappen der Karte unterschiedliche Bildelemente auf parallel zueinander und hintereinander angeordneten Ebenen dargestellt sind. However, especially in the storybook area, sometimes a pseudo 3D environment is created by the AR sequence, e.g. by 2D pop-ups, i. the environment is represented as a horizontal base plane and from this base plane different elements are presented on different levels arranged one after the other extending from the base plane upwards. This technique is known in particular for pop-up greeting cards, where with the unfolding of the map different pixels on parallel to each other and successively arranged levels are shown.

Für ein derartiges 2D-PopUp-3D-System ist das in der US-Patentanmeldung gezeigte System nicht verwendbar, da die reine Seitenansicht eines derartigen Systems lediglich die hauchdünnen Kanten der 2D-PopUp Ebenen zeigen würde. For such a 2D pop-up 3D system, the system shown in the U.S. patent application is not usable because the mere side view of such a system would only show the gossamer edges of the 2D pop-up planes.

Es ist daher Aufgabe der Erfindung, ein AR-System zu schaffen, das sich auch in einer AR-Umgebung realisieren lässt, die eine Pseudo 3D-Umgebung enthält, z.B. 2D-PopUp-Elemente. It is therefore an object of the invention to provide an AR system which can also be realized in an AR environment containing a pseudo 3D environment, e.g. 2D PopUp elements.

Die Aufgabe wird erfindungsgemäß durch ein AR-System mit den Merkmalen des Anspruches 1 und durch ein Verfahren gemäß Anspruch 15 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der zugeordneten abhängigen Ansprüche. The object is achieved by an AR system with the features of claim 1 and by a method according to claim 15. Advantageous developments of the invention are the subject of the associated dependent claims.

Erfindungsgemäß verändert die Wiedergabeeinheit zusätzlich die Darstellung zumindest eines Teils der AR-Sequenz auf dem Display in Abhängigkeit von den Orientierungsdaten derart, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. According to the invention, the reproduction unit additionally modifies the representation of at least part of the AR sequence on the display in dependence on the orientation data such that it deviates from a representation of the AR sequence that is orientation-correlated with respect to the orientation data.

In anderen Worten: Die Darstellung, insbesondere translatorische Lage, die Skalierung und/oder Orientierung, der AR-Sequenz auf dem Display des Endgeräts weicht von der Orientierung des Endgeräts zum AR-Marker (entspricht den Orientierungsdaten) ab. Dies hat den Vorteil, dass für beliebige Orientierungen des Endgeräts relativ zum AR-Marker unterschiedliche Darstellungsvarianten der AR-Sequenz und/oder zusätzliche Animationen im Display dargestellt werden können, die zum einen eine möglichst plastische Darstellung der AR-Sequenz auch bei 2D-PopUp Elementen ermöglichen und zum anderen zusätzliche orientierungsabhängige Animationen ermöglicht, die sich nicht ein einer reinen Orientierungskorrelation der Anzeige der AR-Sequenz im Display relativ zu den Orientierungsdaten widerspiegelt. Wenn z.B. ein AR-Marker von dem Endgerät, d.h. von dessen Bilderfassungseinrichtung direkt von der Seite betrachtet wird, kann z.B. die AR-Sequenz um 45 Grad gedreht auf dem Display, z.B. Touchscreen angezeigt werden, so dass die PopUp-Ebenen von schräg vorne sichtbar sind, was bei einer exakten Seitenansicht nicht mehr der Fall wäre. Zudem können Teile der AR-Sequenz, z.B. animierte Elemente zusätzlich in der gesamten AR-Sequenz relativ zu ihrer AR-Umgebung gedreht werden. Vorzugsweise können bei bestimmten Orientierungen zusätzliche Animationen in der AR-Sequenz freigeschaltet werden, die speziell für die aktuelle Lage des Endgeräts relativ zum Informationsträger geeignet ist, wie z.B. die Bewegung von Elementen in der AR-Sequenz. Diese Technik erlaubt somit eine in Abhängigkeit von den Orientierungsdaten unterschiedliche Orientierung von Elementen der AR-Sequenz relativ zueinander. Dies ist insbesondere bei 2D-PopUp Elementen vorteilhaft, weil diese unabhängig von der tatsächlichen Orientierung des Endgeräts relativ zum AR-Marker immer für einen dreidimensionalen Eindruck vorteilhaft präsentiert werden können. Zudem können auf diese Weise Animationen in bestimmten Stellungen des Endgeräts relativ zum Informationsträger freigeschaltet werden, z.B. Animationen, die durch Beführen des Touchscreens des Endgeräts aktiviert werden. In other words, the representation, in particular the translational position, the scaling and / or orientation, of the AR sequence on the display of the terminal differs from the orientation of the terminal to the AR marker (corresponds to the orientation data). This has the advantage that for any orientation of the terminal relative to the AR marker different display variants of the AR sequence and / or additional animations can be displayed, which on the one hand as vivid as possible representation of the AR sequence in 2D PopUp elements and, second, allows additional orientation-dependent animations that are not reflective of a pure orientation correlation of the display of the AR sequence in the display relative to the orientation data. If, for example, an AR marker is viewed directly from the side of the terminal, ie its image capture device, then the AR sequence can be displayed rotated by 45 degrees on the display, eg touchscreen, so that the pop-up levels are visible from diagonally forward are what would no longer be the case with a precise side view. Additionally, portions of the AR sequence, eg, animated elements, may additionally be rotated throughout the AR sequence relative to its AR environment. Preferably, at certain orientations, additional animations may be enabled in the AR sequence that is specifically suited for the current location of the terminal relative to the information carrier, such as the movement of elements in the AR sequence. This technique thus allows an in Depending on the orientation data different orientation of elements of the AR sequence relative to each other. This is particularly advantageous in the case of 2D pop-up elements, because they can always be advantageously presented for a three-dimensional impression independently of the actual orientation of the terminal relative to the AR marker. In addition, animations can be released in certain positions of the terminal relative to the information carrier in this way, for example, animations that are activated by moving the touch screen of the terminal.

Vorzugsweise sind für einen AR-Marker mehrere Darstellungsvarianten für zumindest einen Teil der AR-Sequenz vorgesehen, z.B. abgespeichert. Die Darstellungsvariante der AR-Sequenz wird dann in Abhängigkeit von den Orientierungsdaten ausgewählt. Auf diese Weise können für schwierige Betrachtungswinkel, z.B. direkt von oben, direkt von der Seite und direkt von hinten vordefinierte Darstellungsvarianten der AR-Sequenz wiedergegeben werden, die eine realistische oder Pseudo 3D-Darstellung erlauben. Preferably, for an AR marker, several display variants are provided for at least part of the AR sequence, e.g. stored. The representation variant of the AR sequence is then selected as a function of the orientation data. In this way, for difficult viewing angles, e.g. directly from above, directly from the side and directly from behind predefined display variants of the AR sequence are reproduced, which allow a realistic or pseudo 3D representation.

Die Analyseeinheit ist konzipiert, die Orientierungsdaten über einen zeitlichen Bereich, z.B. 05, bis 2 s, zu erfassen und daraus Dynamikdaten zu berechnen, die quasi die Bewegung des Endgeräts relativ zum Informationsträger wiederspiegeln. In Abhängigkeit von den Dynamikdaten können dann zumindest Teile der AR-Sequenz animiert werden. Die erlaubt es, auch die Dynamik der Orientierung des Endgeräts in die Darstellung der AR-Sequenz mit einfließen zu lassen. So können z.B. bei Bilderbüchern Tiere oder Personen in Abhängigkeit von der Bewegung des Endgeräts bewegt oder anderweitig animiert werden. The analysis unit is designed to store the orientation data over a temporal range, e.g. 05, to 2 s, and to calculate therefrom dynamic data, which reflect, as it were, the movement of the terminal relative to the information carrier. Depending on the dynamic data, at least parts of the AR sequence can then be animated. This makes it possible to incorporate the dynamics of the orientation of the terminal in the representation of the AR sequence. Thus, e.g. in picture books animals or persons are moved or otherwise animated depending on the movement of the terminal.

So können sich animierte Elemente der AR-Sequenz z.B. in einer Betrachtung von vorne von der horizontalen Ebene in etwa senkrecht nach oben bewegen. In der Betrachtung von oben wird die Bewegungsrichtung und Ausrichtung des animierten Elements dann z.B. nach hinten gekippt, z.B. 45 Grad zur Horizontalen, so dass das die Bewegung des animierten Elements auch bei Betrachtung direkt von oben in einer – natürlich stark geneigten – Frontansicht sichtbar ist. Ein 2D PopUp Element als auch dessen Bewegungsrichtung können somit durch die Erfindung bei allen Betrachtungswinkeln, d.h. Orientierungen des Endgeräts relativ zum Informationsträger oder AR-Marker optimal dargestellt werden. Thus, animated elements of the AR sequence may e.g. in a view from the front of the horizontal plane to move approximately vertically upwards. When viewed from above, the direction of movement and orientation of the animated element will then be e.g. tilted back, e.g. 45 degrees to the horizontal, so that the movement of the animated element is visible even when viewed directly from above in a - of course strongly inclined - front view. A 2D PopUp element as well as its direction of movement can thus by the invention at all viewing angles, i. Orientations of the terminal relative to the information carrier or AR marker can be displayed optimally.

Vorzugsweise sind die Darstellungsvarianten in einem mit der Wiedergabeeinheit verbundenen Speicher abgelegt, was eine schnelle Darstellung der Varianten ohne Rechenaufwand ermöglicht. Alternativ ist es möglich, jede Darstellungsvariante aus Basisdaten der AR-Sequenz zu errechnen. Hier dauert zwar der Bildaufbau länger, was sich jedoch bei den leistungsfähigen Prozessoren der modernen Endgeräte nicht wirklich bemerkbar machen sollte. Bei dieser Lösung wird auf jeden Fall Speicherplatz gespart. Preferably, the presentation variants are stored in a memory connected to the playback unit, which allows a quick representation of the variants without any computational effort. Alternatively, it is possible to calculate each representation variant from base data of the AR sequence. Although the image build-up takes longer, which should not really be noticeable in the powerful processors of modern devices. In any case, this solution saves storage space.

In einer vorteilhaften Weiterbildung der Erfindung ist für jede Darstellungsvariante einer AR-Sequenz ein zulässiger Bereich der Orientierungsdaten definiert, der zur Wiedergabe der entsprechenden Darstellungsvariante führt. So kann z.B. für die Frontansicht eine erste Darstellungsvariante vorgesehen sein, und weitere Darstellungsvarianten für die Ansicht von oben, für die beiden Seitenansichten und die Ansicht von hinten. Die Darstellung der AR-Sequenz kann somit für jeden Betrachtungswinkelbereich optimiert werden, was insbesondere bei Pseudo 3D-Darstellungen, z.B. 2D-PopUp Elementen vorteilhaft ist. In an advantageous development of the invention, a permissible region of the orientation data is defined for each representation variant of an AR sequence, which leads to the reproduction of the corresponding representation variant. Thus, e.g. be provided for the front view, a first display variant, and further display variants for the view from above, for the two side views and the view from behind. The representation of the AR sequence can thus be optimized for each viewing angle range, which is especially true for pseudo 3D representations, e.g. 2D PopUp elements is beneficial.

Vorzugsweise hat der zulässige Bereich für die Wiedergabe einer Darstellungsvariante einen horizontalen Winkelbereich (um eine vertikale Achse) von 60 bis 180 Grad und/oder einen vertikalen Winkelbereich (um eine horizontale Achse) von 90 Grad. Am besten werden die unterschiedlichen zulässigen Bereiche für unterschiedliche Darstellungsvarianten der AR-Sequenz durch Winkelbereiche von +–30 bis 90 Grad um die relevanten Vorzugsrichtungen des Informationsträgers definiert, welche Vorzugsrichtungen vorzugsweise zum einen in der horizontalen Ebene die Vorderansicht, die Rückansicht und die beiden Seitenansichten und zum anderen die Ansicht von senkrecht oben sind. Preferably, the allowable range for reproduction of a display variant has a horizontal angle range (about a vertical axis) of 60 to 180 degrees and / or a vertical angle range (about a horizontal axis) of 90 degrees. The different permissible ranges for different representation variants of the AR sequence are best defined by angle ranges of + -30 to 90 degrees about the relevant preferred directions of the information carrier, which preferential directions preferably on the one hand in the horizontal plane the front view, the rear view and the two side views and the other is the view from vertically above.

Vorzugsweise umfasst die AR-Sequenz wenigstens ein in einer AR-Umgebung animiertes Element, welches unabhängig von den Orientierungsdaten immer in einer maximalen Winkelabweichung von +/–60°, insbesondere von maximal +/–45° von der Frontalansicht dargestellt wird. Die Winkelabweichung wird dann aus den Orientierungsdaten ermittelt. Dies hat bei 2D-PopUp-Elementen den Vorteil, dass unabhängig von der Anordnung bzw. Orientierung des mobilen Endgerätes relativ zum Informationsträger bzw. AR-Marker das animierte Element immer weitgehend frontal zu sehen ist (mit einer maximalen Winkelabweichung von 60°). Das Problem von 2D-PopUp-Elementen besteht darin, dass sie nur über einen definierten Winkelbereich in der Gesamtumgebung als Pseudo 3D wahrgenommen werden. Wenn ein derartiges 2D-PopUp-Element zu sehr von der Seite betrachtet wird, erscheint es lediglich als die Seitenansicht einer Ebene, d.h. als Strich. Daher wird die Darstellung eines Elements in dem erfindungsgemäßen AR-System so gesteuert, dass sie einen von den Orientierungsdaten unabhängigen Anteil hat, nämlich immer in dem erlaubten Frontalbereich inklusive der zulässigen Winkelabweichung verbleibt. Selbst wenn somit das mobile Endgerät relativ zum Informationsträger zur Seite hin um 75° oder 80° oder gar 90º verschwenkt ist (Verschwenkung um die vertikale Achse), wird maximal die zulässige Winkelabweichung bei der Darstellung des animierten Elements wiedergegeben, und damit immer eine (geneigte bzw. gedrehte)Frontaldarstellung. Somit erscheint das animierte Element zwar entsprechend der aktuellen Position des Endgeräts relativ zum Informationsträger leicht geneigt bzw. gedreht, welche Verkippung/Verdrehung jedoch dazu z.B. reduziert ist, so dass unabhängig von der Orientierung des mobilen Endgeräts relativ zum Informationsträger, z.B. Bilderbuch, das animierte Element im Wesentlichen immer entsprechend den Orientierungsdaten mehr oder weniger frontal gesehen wird. The AR sequence preferably comprises at least one element animated in an AR environment, which is always displayed independently of the orientation data in a maximum angular deviation of +/- 60 °, in particular of at most +/- 45 ° from the frontal view. The angular deviation is then determined from the orientation data. This has the advantage in 2D pop-up elements that regardless of the arrangement or orientation of the mobile terminal relative to the information carrier or AR marker, the animated element is always to see largely frontal (with a maximum angular deviation of 60 °). The problem with 2D PopUp elements is that they are perceived as pseudo 3D only over a defined angular range in the overall environment. If such a 2D PopUp element is viewed too much from the side, it only appears as the side view of a plane, ie as a stroke. Therefore, the representation of an element in the AR system according to the invention is controlled so that it has an independent of the orientation data proportion, namely always in the allowed frontal area including the allowable angular deviation remains. Even if thus the mobile terminal relative to the information carrier to the side by 75 ° or 80 ° or even 90 ° is pivoted (pivoting about the vertical axis), the maximum allowed deviation in the representation of the animated element is reproduced, and thus always a (tilted or rotated) frontal representation. Thus, the animated element appears to be slightly inclined or rotated relative to the information carrier according to the current position of the terminal, but which tilt / rotation is reduced, for example, so that regardless of the orientation of the mobile terminal relative to the information carrier, eg picture book, the animated element essentially always according to the orientation data is seen more or less head-on.

In einer ganz einfachen Ausführungsform könnte z.B. die aktuelle Orientierung des mobilen Endgeräts relativ zum Informationsträger erfasst werden und die Darstellung derart gewählt werden, dass die entsprechende Orientierung des animierten Elements nur um den halben Winkel geneigt ist. Wenn z.B. das mobile Endgerät um 80° seitlich relativ zur Frontalen des Informationsträgers gedreht ist, so kann die das animierte Element mit einer seitlichen Drehung von 40° dargestellt werden. Dies ist auf jeden Fall eine so starke Verringerung der Orientierung, dass das animierte Element auch in dieser recht extremen Seitenansicht im Wesentlichen frontal wahrgenommen wird. In a very simple embodiment, e.g. the current orientation of the mobile terminal relative to the information carrier are detected and the representation are chosen such that the corresponding orientation of the animated element is inclined only by half the angle. If e.g. the mobile terminal is rotated by 80 ° laterally relative to the front of the information carrier, so the animated element can be displayed with a lateral rotation of 40 °. In any case, this is so much a reduction in orientation that the animated element is essentially perceived head-on even in this rather extreme side view.

Auf diese Weise lässt sich das erfindungsgemäße AR-System in optimaler Weise für 2D-PopUp-3D-Umgebungen verwenden. In this way, the AR system according to the invention can be optimally used for 2D pop-up 3D environments.

In einer optionalen Ausgestaltung der Erfindung wird die Wiedergabe der AR-Sequenz in dem Display relativ zur Orientierung des Endgeräts zum Informationsträger gedreht, so dass der Betrachtungswinkel im Display von der Orientierung des Endgeräts relativ zum Informationsträger oder AR-Marker abweicht. Wenn z.B. das Bild eines Bilderbuchs exakt von der Seite oder sogar von hinten betrachtet wird, kann die Szene unabhängig davon immer von vorne innerhalb der zulässigen Winkelabweichung dargestellt werden. Die AR-Sequenz wird damit gestartet und richtig von vorne dargestellt, selbst wenn das Endgerät von hinten auf das Bild gerichtet wird, d.h. als ob das Buch über Kopf gelesen würde. In an optional embodiment of the invention, the reproduction of the AR sequence in the display is rotated relative to the orientation of the terminal to the information carrier so that the viewing angle in the display deviates from the orientation of the terminal relative to the information carrier or AR marker. If e.g. the image of a picture book is viewed exactly from the side or even from behind, the scene can always be viewed from the front within the allowable angle deviation independently. The AR sequence is thus started and displayed correctly from the front, even if the terminal is pointed at the image from the rear, i. as if the book were read over head.

Anhand von Markerelementen des AR-Markers im Informationsträger, z.B. im Bild eines Bilderbuches, errechnet eine erste Recheneinheit der Analyseeinheit die exakte Orientierung des mobilen Endgeräts relativ zum Bild des Bilderbuchs (oder AR-Marker) sowohl translatorisch als auch rotativ vorzugsweise in allen Raumrichtungen und berücksichtigt diese Daten bei der Darstellung der AR-Sequenz bzw. des zumindest eines animierten Elements der AR-Sequenz, vorzugsweise der gesamten AR-Umgebungsdarstellung. Based on marker elements of the AR marker in the information carrier, e.g. In the image of a picture book, a first computing unit of the analysis unit calculates the exact orientation of the mobile terminal relative to the image of the picture book (or AR marker) both translationally and rotationally preferably in all spatial directions and takes this data into account in the representation of the AR sequence or the at least one animated element of the AR sequence, preferably the entire AR environment representation.

Vorzugsweise korreliert der Orientierungswinkel der Darstellung des animierten Elements in der Umgebungsdarstellung der AR-Sequenz mit einem korrespondierenden Orientierungswinkel in den Orientierungsdaten. Dies führt zu einer realistischen Darstellung des Elements in der AR-Sequenz. Wenn z.B. das mobile Endgerät das Bild von seitlich rechts sieht, so wird auch in der Umgebungsdarstellung der AR-Sequenz das animierte Element von seitlich rechts gesehen, wenngleich auch evtl. der Orientierungswinkel reduziert ist. Preferably, the orientation angle of the representation of the animated element in the environmental representation of the AR sequence correlates to a corresponding orientation angle in the orientation data. This leads to a realistic representation of the element in the AR sequence. If e.g. the mobile terminal sees the image from the right side, the animated element is also seen from the right side in the surrounding representation of the AR sequence, although the orientation angle may also be reduced.

In einer vorteilhaften Weiterbildung der Erfindung ist der Informationsträger ein Bilderbuch, das Bilder aufweist, in denen AR-Marker zum Triggern der Sequenz angeordnet, vorzugsweise integriert sind. Die Verwendung einer 2D-PopUp-3D-Räumlichkeit in Verbindung mit Bilderbüchern ist für Kinder leicht begreifbar und wirkt sehr ansprechend. In an advantageous development of the invention, the information carrier is a picture book which has pictures in which AR markers for triggering the sequence are arranged, preferably integrated. The use of a 2D PopUp 3D space in conjunction with picture books is easy for children to understand and looks very appealing.

Vorzugsweise enthält die Analyseeinheit eine erste Recheneinheit, die basierend auf der Anordnung der Markerelemente des AR-Markers im Erfassungsbereich der Bilderfassungseinrichtung die Orientierungsdaten berechnet. Für die Wiedergabe der AR-Sequenz wesentlich ist die Verkippung des Endgeräts um eine horizontale Achse (z.B. zwischen Betrachtung von vorne und Betrachtung von oben) und/oder um eine vertikale Achse (zwischen Betrachtung von rechts und Betrachtung von links), weil dies diejenigen Betrachtungswinkel sind, mit denen üblicherweise ein Bild angeschaut wird. Diese üblichen Betrachtungswinkel werden natürlich auch bei der Orientierung des Endgeräts relativ zum Bild häufig verwendet. The analysis unit preferably contains a first computing unit which calculates the orientation data based on the arrangement of the marker elements of the AR marker in the detection area of the image capture device. Essential for the reproduction of the AR sequence is the tilting of the terminal about a horizontal axis (eg between viewing from the front and viewing from above) and / or around a vertical axis (between viewing from the right and viewing from the left), because these are the viewing angles are with whom a picture is usually viewed. Of course, these common viewing angles are also commonly used in the orientation of the terminal relative to the image.

Vorzugsweise berechnet die erste Recheneinheit basierend auf den von der Analyseeinheit errechneten Orientierungsdaten die Darstellung eines animierten Elements in der Umgebungsdarstellung der AR-Sequenz. Sie kann optional ebenfalls auch die Umgebungsdarstellung der AR-Sequenz berechnen, so dass auch die Umgebung immer von vorne, allerdings in einem zulässigen Betrachtungswinkel von der Seite und von oben dargestellt wird. Die relative Orientierung des animierten Elements in seiner AR-Umgebungsdarstellung kann von der Orientierung der AR-Umgebungsdarstellung abweichen und in Abhängigkeit von den Orientierungsdaten berechnet werden. The first computing unit preferably calculates the representation of an animated element in the environment representation of the AR sequence on the basis of the orientation data calculated by the analysis unit. Optionally, it can also calculate the environmental representation of the AR sequence, so that the environment is always displayed from the front, but at a permissible viewing angle from the side and from above. The relative orientation of the animated element in its AR environment representation may differ from the orientation of the AR environment representation and be calculated in dependence on the orientation data.

Die Berechnung der Lage des Endgeräts relativ zum Bild (AR-Marker) verläuft vorzugsweise wie folgt: Die Recheneinheit wertet die Anordnung der Markerelemente in der Ebene des Erfassungsbereichs aus. Erfasst werden hierbei z.B. die rotative Anordnung der Markerelemente im Erfassungsbereich, d.h. wie stark die Markerelemente relativ zu einer Referenzachse, in der Regel die Vorderansicht eines Bildes gedreht ist, als auch der gegenseitige Abstand der Markerelemente zur Bestimmung eines Kippwinkels des mobilen Endgeräts relativ zum Informationsträger um eine horizontale Achse. Mit dem Kippen um eine horizontale Achse verändert sich der gegenseitige Abstand der Markerelemente. Aufgrund dieser Veränderung des gegenseitigen Abstandes kann auch der Verkippungswinkel und die Kipprichtung geschlossen werden. Je mehr das Mobilendgerät seitlich oder nach vorne gekippt ist, desto geringer wird der gegenseitige Abstand der Markerelemente in der entsprechenden Kipprichtung. Der gegenseitige Abstand der Markerelemente ist am größten, wenn der Informationsträger, z.B. das Bild eines Bilderbuchs direkt von oben erfasst wird. The calculation of the position of the terminal relative to the image (AR marker) preferably proceeds as follows: The arithmetic unit evaluates the arrangement of the marker elements in the plane of the detection area. In this case, for example, the rotational arrangement of the marker elements in the detection area is recorded, ie how much the marker elements are rotated relative to a reference axis, as a rule the front view of an image, and also the mutual Distance of the marker elements for determining a tilt angle of the mobile terminal relative to the information carrier about a horizontal axis. By tilting about a horizontal axis, the mutual distance of the marker elements changes. Due to this change in the mutual distance, the tilt angle and the tilt direction can be closed. The more the mobile terminal is tilted laterally or forward, the smaller the mutual distance of the marker elements in the corresponding tilting direction. The mutual distance of the marker elements is greatest when the information carrier, such as the image of a picture book is detected directly from above.

Die Erfindung betrifft ebenfalls ein Verfahren zur Darstellung einer AR-Sequenz auf einem Display eines mobilen Endgeräts, bei welchem Verfahren die Orientierung des mobilen Endgeräts relativ zu einem Informationsträger in Form von Orientierungsdaten erfasst wird, und bei welchem die Orientierungsdaten bei der Wiedergabe der AR-Sequenz auf dem Display berücksichtigt werden. Die Wiedergabe zumindest eines Teils der AR-Sequenz auf dem Display erfolgt dann in Abhängigkeit von den Orientierungsdaten derart, dass zumindest ein Teil der AR-Sequenz auf dem Display in Abhängigkeit von den Orientierungsdaten derart verändert dargestellt wird, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. Beispiel: Die AR-Sequenz ist ein PopUp-Auto, welches in der Mitte des AR Markers erscheint bei einem Betrachtungswinkel β1 von 45°. Wenn nun das Gerät gekippt wird auf einen Betrachtungswinkel β2 von 80°, dann wird dadurch z.B. das Auto nicht nur gekippt (bleibt damit gut sichtbar), sondern es verändert auch seine Position auf dem AR-Marker, z.B. ist es durch den Kippvorgang nach rechts gefahren. Wird wieder zurück auf 45° gekippt, so fährt das Auto wieder in die Mitte auf die Ursprungsposition zurück.. Auf diese Weise wird zwar bei der Wiedergabe des animierten Elements die Betrachtungsposition des mobilen Endgeräts in der Darstellung des animierten Elements in der Umgebungsdarstellung der AR-Sequenz simuliert, zusätzlich können aber noch die Lage und Rotation und Größe der AR-Sequenzen im Verhältnis zum AR-Target animiert werden. Weitere Eigenschaften und Vorteile des Verfahrens sind im Zusammenhang mit der Beschreibung des erfindungsgemäßen Systems beschrieben. Das animierte Element ist insbesondere ein 2D-PopUp-Element in einer 2D-PopUp 3D-Umgebung, die in der Regel durch eine horizontale Basisebene und aus der Basisebene hervorstehende 2D-Elemente gekennzeichnet ist, die hintereinander angeordnet sind. The invention also relates to a method for displaying an AR sequence on a display of a mobile terminal, in which method the orientation of the mobile terminal relative to an information carrier in the form of orientation data is detected, and in which the orientation data in the reproduction of the AR sequence be considered on the display. The reproduction of at least a part of the AR sequence on the display then takes place as a function of the orientation data such that at least a part of the AR sequence is displayed on the display in dependence on the orientation data changed from one with respect to the Orientation data orientation-correlated representation of the AR sequence deviates. Example: The AR sequence is a pop-up car, which appears in the middle of the AR marker at a viewing angle β1 of 45 °. Now, if the device is tilted to a viewing angle β2 of 80 °, then e.g. not only tilting the car (thus keeping it well visible) but also changing its position on the AR marker, e.g. it drove to the right due to the tipping process. If the car is tilted back to 45 °, the car returns to the center position. In this way, while the animated element is playing, the viewing position of the mobile device in the animated element's representation in the environment representation of the mobile device is displayed. In addition, the position and rotation and size of the AR sequences in relation to the AR target can be animated. Further properties and advantages of the method are described in connection with the description of the system according to the invention. In particular, the animated element is a 2D PopUp element in a 2D PopUp 3D environment, typically characterized by a horizontal base plane and 2D plane protruding 2D elements arranged one behind the other.

Vorzugsweise werden die Orientierungsdaten über einen zeitlichen Bereich, z.B. 05, bis 2 s, erfasst und daraus Dynamikdaten berechnet werden, die quasi die Bewegung des Endgeräts relativ zum Informationsträger wiederspiegeln. In Abhängigkeit von den Dynamikdaten können dann zumindest Teile der AR-Sequenz animiert werden. Die erlaubt es, auch die Dynamik der Orientierung des Endgeräts in die Darstellung der AR-Sequenz mit einfließen zu lassen. Dies erweitert den Spielraum für die Darstellung von AR-Sequenzen beträchtlich. Preferably, the orientation data is spread over a temporal range, e.g. 05, to 2 s, and from this dynamic data are calculated, which more or less reflect the movement of the terminal relative to the information carrier. Depending on the dynamic data, at least parts of the AR sequence can then be animated. This makes it possible to incorporate the dynamics of the orientation of the terminal in the representation of the AR sequence. This considerably expands the scope for rendering AR sequences.

Es ist für den Fachmann offensichtlich, dass die o.g. Ausführungsformen der Erfindung beliebig miteinander kombinierbar sind. Es ist weiterhin für den Fachmann selbstverständlich, dass durch ein AR-Marker mehrere AR-Sequenzen ausgelöst werden können, oder dass mehrere AR-Sequenzen simultan vorgesehen werden können, so kann z.B. die AR-Sequenz zum einen das Bild in einer 2D-PopUp-3D-Räumlichkeit zeigen und zusätzlich können Elemente in dieser Sequenz durch Berühren des Touch-Screens animiert werden, so dass sie z.B. Geräusche von sich geben und/oder sich bewegen. It is obvious to a person skilled in the art that the o.g. Embodiments of the invention can be combined with each other as desired. It is further understood by those skilled in the art that multiple AR sequences can be triggered by an AR marker, or that multiple AR sequences can be provided simultaneously, e.g. the AR sequence, on the one hand, show the image in a 2D PopUp 3D spatiality and, in addition, elements in that sequence can be animated by touching the touch screen, e.g. Make sounds and / or move.

Technische Komponenten des AR-Systems wie z.B. AR-Steuerung, Analyseeinheit, Wiedergabeeinheit, Speicher und Recheneinheiten können als separate Komponenten realisiert oder miteinander integriert ausgebildet sein. Vorzugsweise können diese Komponenten in Form einer App auf dem Prozessor des Endgeräts implementiert werden. Technical components of the AR system, e.g. AR control, analysis unit, playback unit, memory and computing units can be realized as separate components or integrated with each other. Preferably, these components may be implemented in the form of an app on the processor of the terminal.

Die Orientierung wird vorzugsweise mit Bezug zu einer Bezugsrichtung G ermittelt, welche vorzugsweise mit Bezug auf den Informationsträger (Bild) die horizontale Gerade nach vorne darstellt. Folgende Ausdrücke werden synonym verwendet: Bild-Informationsträger-AR-Marker; Steuerung-AR-Steuerung The orientation is preferably determined with reference to a reference direction G, which preferably represents the horizontal straight line with respect to the information carrier (image). The following expressions are used synonymously: image information carrier AR markers; Control-AR control

Die Erfindung wird nachfolgend beispielsweise anhand der schematischen Zeichnung beschrieben. In dieser zeigen: The invention will be described below by way of example with reference to the schematic drawing. In this show:

1 die Darstellung eines mobilen Endgeräts über einem Informationsträger mit einem AR-Marker, der drei Markerpunkte enthält; 1 the representation of a mobile terminal over an information carrier with an AR marker containing three marker points;

2 die Kenngrößen der Markerpunkte bei der Ermittlung der translatorischen und rotativen Lage des mobilen Endgeräts relativ zum Informationsträger; 2 the characteristics of the marker points in determining the translational and rotational position of the mobile terminal relative to the information carrier;

3 eine Darstellung eines animierten 2D-PopUp-Elementes in einer 2D-PopUp-3D-Umgebung; 3 a representation of an animated 2D PopUp element in a 2D PopUp 3D environment;

4 die schematische Darstellung der für die AR-Anwendung maßgeblichen technischen Komponenten; 4 the schematic representation of relevant for the AR application technical components;

5a–e die schematische Darstellung von voreingestellten AR-Umgebungsdarstellungen für vier unterschiedliche rotative Betrachtungsbereiche in Form von Sektoren um eine vertikale Achse; 5a -E the schematic representation of pre-set AR environment representations for four different rotational viewing areas in the form of sectors about a vertical axis;

6a–c die schematische Darstellung von voreingestellten AR-Umgebungsdarstellungen für drei unterschiedliche Kipp-Betrachtungsbereiche um eine horizontale Achse; 6a -C is a schematic representation of preset AR environment representations for three different tilt viewing areas about a horizontal axis;

716 die Darstellung von 2D PopUp 3D AR-Sequenzen basierend auf den Bildern eines Bilderbuchs. 7 - 16 the presentation of 2D PopUp 3D AR sequences based on the images of a picture book.

1 zeigt ein AR-System 10 umfassend ein mobiles Endgerät in Form eines Tablets 12, welches einen Touch-Screen 14 aufweist, als auch einen in der horizontalen Ebene liegenden Informationsträger 16, z.B. das Bild eines Bilderbuches. Der Informationsträger 16 hat wenigstens einen AR-Marker 18, bestehend beispielsweise aus drei AR-Markerelementen, insbesondere Markerpunkten 20, 22, 24. Es können aber auch andere gängige Markerelemente verwendet werden, die vorzugsweise in dem Bild des Bilderbuches integriert sind, z.B. Linien oder zweidimensionale Elemente. 1 shows an AR system 10 comprising a mobile terminal in the form of a tablet 12 which has a touch screen 14 has, as well as lying in the horizontal plane information carrier 16 , eg the picture of a picture book. The information carrier 16 has at least one AR marker 18 consisting for example of three AR marker elements, in particular marker points 20 . 22 . 24 , However, it is also possible to use other conventional marker elements which are preferably integrated in the image of the picture book, for example lines or two-dimensional elements.

An der Unterseite des Tablets 12 ist eine Bilderfassungseinrichtung in Form einer Kamera 26 angeordnet, deren Erfassungsbereich 28 in Form eines Erfassungskegels 28 dargestellt ist. At the bottom of the tablet 12 is an image capture device in the form of a camera 26 arranged, their coverage area 28 in the form of a detection cone 28 is shown.

2 zeigt den Erfassungsbereich 28 der Kamera 26 aus 1, nämlich den im Erfassungskegel liegenden kreisförmigen Bereich des Bildes 16, in welchem die drei Markerpunkte 20, 22, 24 des AR-Markers 18 dargestellt sind. Die XY-Koordinaten der drei Markerpunkte 20, 22, 24 in dem Erfassungsbereich 28 geben Auskunft über die translatorische Position des Tablets 12 in einer zum Informationsträger 16 parallelen Ebene. Der gegenseitige Abstand der drei Markerpunkte 20, 22, 24 gibt Aufschluss über den Abstand des Tablets 12 von dem Bild 16. Die rotative Lage gemäß dem Rotationspfeil R zeigt an, inwiefern bzw. inwieweit das Tablet 12 relativ zu dem Bild um eine senkrechte Achse z gedreht ist. Eine Ermittlung der Kippung (1: grauer Pfeil) um eine horizontale Achse x, ist möglich, indem der gegenseitige Abstand der drei Markerpunkte 20, 22, 24 zueinander ausgewertet wird, wobei bei einer Verkippung der gegenseitige Abstand in einer Raumrichtung abnimmt, während er in einer anderen Raumrichtung konstant bleibt. So ist z.B. beim Verkippen des Tablets 12 um die horizontale X-Achse der gegenseitige Abstand der drei Markerpunkte 20, 22, 24 in X-Richtung unverändert, während er sich in Y-Richtung ändert. Auf diese Weise ist eine Recheneinheit der Analyseeinheit der AR-Steuerung in der Lage, die tatsächliche Position des Tablets 12 relativ zu dem Bild 18 des Bilderbuchs zu bestimmen. 2 shows the detection area 28 the camera 26 out 1 namely, the circular area of the image lying in the detection cone 16 in which the three marker points 20 . 22 . 24 of the AR marker 18 are shown. The XY coordinates of the three marker points 20 . 22 . 24 in the detection area 28 provide information about the translatory position of the tablet 12 in one to the information carrier 16 parallel plane. The mutual distance of the three marker points 20 . 22 . 24 provides information about the distance of the tablet 12 from the picture 16 , The rotational position according to the rotation arrow R indicates to what extent or to what extent the tablet 12 is rotated relative to the image about a vertical axis z. A determination of the tilt ( 1 : gray arrow) around a horizontal axis x, is possible by the mutual distance of the three marker points 20 . 22 . 24 is evaluated to each other, wherein in a tilting the mutual distance decreases in one spatial direction, while it remains constant in another spatial direction. For example, when tilting the tablet 12 around the horizontal X-axis the mutual distance of the three marker points 20 . 22 . 24 unchanged in the X direction while changing in the Y direction. In this way, an arithmetic unit of the analysis unit of the AR control is capable of the actual position of the tablet 12 relative to the picture 18 to determine the picture book.

3 zeigt den Aufbau einer AR-Sequenz 30 in Form einer 2D-PopUp Pseudo 3D Darstellung. Eine derartige 2D-PopUp AR-Sequenz 30 umfasst in der Regel eine horizontale Basisebene 32, von der aus sich mehrere 2D-Darstellungsebenen 34, 36 schräg nach oben erstrecken, vorzugsweise in einem Winkel von 60°–90° zur Basisebene 32. Die 2D-PopUp AR-Sequenz 30 enthält weiterhin ein animiertes Element 38, welches ebenfalls eine 2D-Darstellung ist, die in einem Winkel α vorzugsweise 50°–90° relativ zur Basisebene 32 angeordnet ist. Das animierte Element 38 bewegt sich bei Animation in Richtung des Pfeiles M in seiner Darstellungsebene, wie das z.B. in den nachstehenden 713 gezeigt ist (Ein Nilpferd hüpft aus dem Wasser). Zumindest das animierte Element 38 wird gemäß der Erfindung unabhängig vom Betrachtungswinkel des Endgeräts relativ zum Informationsträger 18 immer in Frontalansicht gezeigt, wobei ein leichter Verkippungswinkel β von der Frontalansicht G um die vertikale z-Achse als auch um die horizontale x-Achse in Abhängigkeit von den Orientierungsdaten, d.h. der tatsächlichen Orientierung des Endgeräts 12 relativ zum Informationsträger 18, gestattet wird. Der Verkippungswinkel in der Darstellung ist dabei abhängig von der tatsächlichen Position und Orientierung des Tablets 12 über dem Bild 16 des Bilderbuchs, so dass die Orientierung der 2D-PopUp-3D-Räumlichkeit der AR-Sequenz 30 die Orientierung des Tablets 12 relativ zum Bild 16 wiederspiegelt. So kann die 2D-PopUp-3D-Umgebung der AR-Sequenz 30 immer realitätsnah wiedergegeben werden. 3 shows the structure of an AR sequence 30 in the form of a 2D PopUp Pseudo 3D representation. Such a 2D PopUp AR sequence 30 usually includes a horizontal base plane 32 , from which there are several 2D representation levels 34 . 36 extend obliquely upward, preferably at an angle of 60 ° -90 ° to the base plane 32 , The 2D PopUp AR sequence 30 also contains an animated element 38 , which is also a 2D representation, at an angle α preferably 50 ° -90 ° relative to the base plane 32 is arranged. The animated element 38 moves in animation in the direction of the arrow M in its presentation plane, as in the example below 7 - 13 is shown (A hippo hops out of the water). At least the animated element 38 becomes independent of the viewing angle of the terminal relative to the information carrier according to the invention 18 always shown in a frontal view, wherein a slight tilt angle β from the front view G about the vertical z-axis and the horizontal x-axis depending on the orientation data, ie the actual orientation of the terminal 12 relative to the information carrier 18 , is allowed. The tilt angle in the illustration depends on the actual position and orientation of the tablet 12 above the picture 16 of the picture book, so that the orientation of the 2D PopUp 3D spatiality of the AR sequence 30 the orientation of the tablet 12 relative to the picture 16 reflects. So, the 2D PopUp 3D environment allows the AR sequence 30 always be reproduced realistically.

4 zeigt den Aufbau einer AR-Steuerung 40, die in dem Tablet 12 implementiert ist. Die AR-Steuerung 40 hat eine Analyseeinheit 42, die wiederum mit der Kamera 26 als auch mit einem Vergleichsspeicher 44 verbunden ist. In der Analyseeinheit 42 wird der von der Kamera 26 erfasste Erfassungsbereich 28 auf das Auftreten von AR-Markern 18 untersucht, welche durch den Vergleich mit in den Vergleichsspeicher 44 abgelegten Vergleichsmustern ermittelt werden. 4 shows the structure of an AR control 40 that in the tablet 12 is implemented. The AR control 40 has an analysis unit 42 , in turn, with the camera 26 as well as with a comparison memory 44 connected is. In the analysis unit 42 will be the one from the camera 26 recorded coverage area 28 on the appearance of AR markers 18 examined, which by comparing with in the comparison memory 44 stored comparison patterns are determined.

Des Weiteren hat die AR-Steuerung 40 eine Wiedergabeeinheit 46, die mit dem Touch-Screen 14, d.h. dem Display des Tablets 12 verbunden ist. Wird ein AR-Marker bei dem o.g. Vergleich erkannt, gibt die Analyseeinheit 42 ein Triggersignal an die Wiedergabeeinheit 46, mit welchem diese zur Wiedergabe wenigstens einer zugeordneten AR-Sequenz 30 veranlasst wird. In der Analyseeinheit 42 ist darüber mit einer ersten Recheneinheit verbunden, die bei dem Detektieren eines AR-Markers die Lage und gegenseitige Anordnung der Markerpunkte 20, 22, 24 des AR-Markers auswertet und daraus die aktuelle Orientierung des Tablets 12 relativ zum Bild 16 in Form von Orientierungsdaten berechnet. Die Wiedergabeeinheit 46 ist mit einer zweiten Recheneinheit verknüpft, die aus den Orientierungsdaten einen angepassten Darstellungswinkel des animierten Elementes 38 in der AR-Sequenz 30 und eventuell der gesamten Umgebungsdarstellung der AR-Sequenz errechnet. In einer einfachen Ausführungsform könnte somit der Rotationswinkel des Tablets um die senkrechte Achse z relativ zur Frontalgeraden G einfach halbiert werden, was das animierte Element im Wesentlichen immer in (direkter oder leicht seitlich geneigter) Frontalansicht erscheinen lässt mit nur einer leichten Winkelabweichung entsprechend der aktuellen Verdrehung des Tablets 12 relativ zum Bild 16. Furthermore, the AR control has 40 a playback unit 46 that with the touch screen 14 ie the display of the tablet 12 connected is. If an AR marker is detected in the above comparison, the analysis unit returns 42 a trigger signal to the playback unit 46 with which this for reproducing at least one associated AR sequence 30 is initiated. In the analysis unit 42 is connected to a first arithmetic unit, which detects the position and mutual arrangement of the marker points when detecting an AR marker 20 . 22 . 24 of the AR marker and from this the current orientation of the tablet 12 relative to the picture 16 calculated in the form of orientation data. The playback unit 46 is linked to a second arithmetic unit, which consists of the orientation data a customized view angle of the animated element 38 in the AR sequence 30 and possibly the total environmental representation of the AR sequence. Thus, in a simple embodiment, the rotation angle of the tablet about the vertical axis z relative to the frontal straight G could simply be halved, leaving the animated element essentially always in (direct or slightly laterally inclined) frontal view with only a slight angular deviation corresponding to the current twist of the tablet 12 relative to the picture 16 ,

Die 5b bis 5e zeigen eine Ausführungsform der AR-Sequenz 30 aus 3 bei welcher in Abhängigkeit von der Rotationsstellung des Tablets 12 relativ zum Bild 16 (zur Frontalgeraden G) vier verschiedene Umgebungsdarstellungen für die Wiedergabe der AR-Sequenz 30 im Display 14 wiedergegeben werden. 5a zeigt, welche Orientierungswinkel des Tablets 12 zum Bild 18 zu den verschiedenen Umgebungsdarstellungen der 5b bis 5e führen. The 5b to 5e show an embodiment of the AR sequence 30 out 3 at which depending on the rotational position of the tablet 12 relative to the picture 16 (to the frontal line G) four different environment representations for the playback of the AR sequence 30 in the display 14 be reproduced. 5a shows what orientation angle of the tablet 12 to the picture 18 to the different environment representations of the 5b to 5e to lead.

In 5a ist die Vorderseite des Bildes 18 durch einen vorderen Punkt 50 markiert, während die Rückseite durch zwei nebeneinander liegende hintere Punkte 52 markiert ist. Diese Punkte werden dazu benutzt, die Ausrichtung der Umgebung im Display 14 des Endgeräts 12 in den vier verschiedenen Umgebungsdarstellungen der 5b bis 5e zu kennzeichnen. In 5a ist ebenfalls die Ausrichtung des animierten Element 38 dargestellt, welches in der AR-Sequenz 30 animiert wird. 5a definiert vier verschiedene Winkelbereiche α1 bis α4 (um eine vertikale Achse) in welchen das Endgerät 12 (das heißt, dessen Kamera 26) relativ zum Bild 16 orientiert ist. Für jeden der Winkelbereiche α1 bis α4 ist eine Umgebungsdarstellung gemäß den 5b bis 5e definiert, welche eine für die 2D PopUp-Sequenz 30 eine angepasste Darstellung bereitstellt, die die Räumlichkeit der 2D PopUp Darstellung unter Berücksichtigung des jeweiligen Winkelbereichs α1 bis α4 am besten zum Ausdruck bringt. Dem Winkelbereich α1 (von Vorne) ist dabei die Umgebungsdarstellung 54 der 5b zugeordnet. Dem Winkelbereich α2 (von rechts) ist die Umgebungsdarstellung 56 der 5c zugeordnet. Dem Winkelbereich α3 (von links) ist die Umgebungsdarstellung 58 der 5d zugeordnet und dem Winkelbereich α4 (von hinten) ist die Umgebungsdarstellung 60 der 5e zugeordnet. In 5a is the front of the picture 18 through a front point 50 marked, while the back by two adjacent rear points 52 is marked. These points are used to indicate the orientation of the environment in the display 14 of the terminal 12 in the four different environment representations of the 5b to 5e to mark. In 5a is also the orientation of the animated element 38 which is shown in the AR sequence 30 is animated. 5a defines four different angular ranges α1 to α4 (about a vertical axis) in which the terminal 12 (that is, its camera 26 ) relative to the picture 16 is oriented. For each of the angular ranges α1 to α4 is an environmental representation according to the 5b to 5e defines which one for the 2D PopUp sequence 30 provides a customized representation that best expresses the spatiality of the 2D PopUp representation, taking into account the respective angular range α1 to α4. The angular range α1 (from the front) is the environmental representation 54 of the 5b assigned. The angle range α2 (from the right) is the environmental representation 56 of the 5c assigned. The angle range α3 (from left) is the environmental representation 58 of the 5d and the angle range α4 (from the back) is the environment representation 60 of the 5e assigned.

In 5b ist die Darstellung der AR-Sequenz wiedergegeben, die von der Wiedergabeeinheit im Display 14 des Tablets 12 angezeigt wird, wenn das Tablet 12 im Winkelbereich α1 relativ zum Bild 16 orientiert ist. Während der Betrachtungswinkel α1 in etwa 120 Grad beträgt, wird die Umgebung der AR-Sequenz in Abhängigkeit von genauen Betrachtungswinkel (von den Orientierungsdaten) nur in einem Winkelbereich ∆u angezeigt der etwa 25 Grad beträgt. Hingegen ist der Winkelbereich der Drehung ∆e des animierten Elements in Abhängigkeit von den Orientierungsdaten stärker. Dieser Winkelbereich ∆e des animierten Elements 38 beträgt etwa 90 Grad zentriert um die Frontalgerade G. Dies hat zur Folge, dass die Umgebung in Abhängigkeit vom Betrachtungswinkel gemäß dem Winkelbereich ∆u leicht gedreht wird, aber weitgehend frontal verbleibt. Hingegen wird das animierte Element 38 gemäß dem Winkelbereich ∆e stärker gedreht, so dass es bei der Wiedergabe im Display 14 mehr zum Betrachter hingewendet erscheint. In 5b is the representation of the AR sequence reproduced by the playback unit in the display 14 of the tablet 12 is displayed when the tablet 12 in the angular range α1 relative to the image 16 is oriented. While the viewing angle α1 is about 120 degrees, depending on the accurate viewing angle (of the orientation data), the vicinity of the AR sequence is displayed only in an angle range Δu which is about 25 degrees. On the other hand, the angular range of the rotation Δe of the animated element is stronger depending on the orientation data. This angular range Δe of the animated element 38 is about 90 degrees centered around the frontal line G. As a result, the environment is slightly rotated depending on the viewing angle according to the angle range Δu, but remains largely frontal. On the other hand, the animated element 38 rotated according to the angular range .DELTA.e stronger, so that when playing in the display 14 more turned towards the viewer seems.

Die 5c und 5d zeigen die beiden vordefinierten Umgebungsdarstellungen 56, 58 entsprechend den Blickwinkeln α2 und α3 aus 5a. Wie es anhand der Punkte 50, 52 ersichtlich ist, ist bei diesen Umgebungsdarstellungen 56, 58 die Basisorientierung der Umgebung 32, 34 entsprechend dem Blickwinkel gedreht, allerdings bei weitem nicht so stark wie die tatsächliche Orientierung des Endgeräts 12 relativ zum Bild 16 entsprechend den Blickwinkeln α2 und α3. Die Winkelbereiche ∆u und ∆e zeigen wiederum , wie stark die Umgebung bzw. das animierte Element 38 in Abhängigkeit von dem tatsächlichen Blickwinkel innerhalb des entsprechenden Blickwinkels α2 und α3, d.h. in Abhängigkeit von den Orientierungsdaten gedreht wird. The 5c and 5d show the two predefined environment representations 56 . 58 according to the angles α2 and α3 5a , As it is based on the points 50 . 52 is apparent in these environmental representations 56 . 58 the basic orientation of the environment 32 . 34 rotated according to the angle, but by far not as strong as the actual orientation of the terminal 12 relative to the picture 16 according to the angles α2 and α3. The angular ranges Δu and Δe again show how strong the environment or the animated element 38 is rotated in response to the actual viewing angle within the corresponding viewing angle α2 and α3, that is, in response to the orientation data.

5e zeigt die Darstellung 60 für den Fall, dass das Bild von der Kamera 26 des Tablets 12 von hinten (Blickwinkel α4), d.h. über Kopf betrachtet wird. In diesem Fall wird die gesamte AR-Umgebung um etwa 180 Grad gedreht, so dass die AR-Sequenz 30 wie in der Umgebungsdarstellung 54 von vorne (5b) wiedergegeben wird. Es wird damit unabhängig von der Rotationsstellung des Tablets 12 relativ zum Bild 18 immer eine ansprechende 2D PopUp Umgebung 30 wiedergegeben, die eine realitätsnahe Pseudo 3D Realität wiederspiegelt. 5e shows the presentation 60 in the event that the picture from the camera 26 of the tablet 12 from behind (viewing angle α4), ie viewed overhead. In this case, the entire AR environment is rotated about 180 degrees, leaving the AR sequence 30 as in the environment representation 54 from the front ( 5b ) is reproduced. It thus becomes independent of the rotational position of the tablet 12 relative to the picture 18 always an appealing 2D PopUp environment 30 reproduced, which reflects a realistic pseudo 3D reality.

Die 6a bis 6c zeigen weiterhin zwei Umgebungsdarstellungen 60, 62 gemäß den 6b und 6c, die für zwei unterschiedliche Kippwinkelbereiche β1 und β2 des Tablets definiert sind, in welchen das Tablet 12 um eine horizontale Achse x,y gegenüber dem Bild 18 gekippt ist. Es wir hier unterschieden zwischen dem Frontalwinkelbereich von etwa 0 bis 50 Grad zur Horizontalen und dem Aufsichtbereich von 50 Grad bis 90 Grad. Im Bereich von 0 bis 50 Grad wird die AR-Sequenz 30 weitgehend in Frontansicht dargestellt, wie das in der Umgebungsdarstellung 60 der 6b gezeigt ist. Die Neigungswinkel γ1 und γ2 mit welchen die 2D PopUp Ebenen des animierten Elements 38 und des Hintergrunds 34 sich relativ zur Basisebene 32 erstrecken liegen vorzugsweise abhängig vom Betrachtungswinkel β zwischen 75 Grad und 90 Grad, ragen daher von der Basisebene 32 in etwa senkrecht nach oben. In der Aufsicht bzw. Vogelperspektive gemäß dem Betrachtungswinkel β2 werden gemäß 6c die Neigungswinkel γ1 und γ2 stark reduziert, etwa auf Werte zwischen 30 Grad und 75 Grad, abhängig vom tatsächlichen Betrachtungswinkel (Orientierungsdaten). In dieser Vogelperspektive schaut man daher nicht auf die oberen Kanten der 2D PopUp Elemente 34, 38 sondern durch die Änderung der Neigungswinkel in diesem Betrachtungsbereich β2 erscheinen auch diese Elemente in einer gekippten Frontansicht. Natürlich werden vorzugsweise die voreingestellten Umgebungsdarstellungen 54, 56, 58 der 5b bis 5e für den Rotationswinkel mit den Umgebungsdarstellungen 60, 62 der 6b und 6c für den Kippwinkel um eine horizontaler Achse kombiniert bzw. integriert, wodurch die Umgebungsdarstellung sowohl für die rotative Orientierung als auch für die Kippstellung optimiert ist. The 6a to 6c still show two environment representations 60 . 62 according to the 6b and 6c , which are defined for two different tilt angle ranges β1 and β2 of the tablet in which the tablet 12 around a horizontal axis x, y opposite the picture 18 is tilted. Here we differentiated between the front angle range of about 0 to 50 degrees to the horizontal and the supervision range of 50 degrees to 90 degrees. In the range of 0 to 50 degrees, the AR sequence becomes 30 largely in front view, like in the environment view 60 of the 6b is shown. The inclination angles γ1 and γ2 with which the 2D PopUp levels of the animated element 38 and the background 34 relative to the base plane 32 extend preferably depending on the viewing angle β between 75 degrees and 90 degrees, therefore protrude from the base level 32 in about vertical upward. In the bird's-eye view according to the viewing angle β2, according to FIG 6c the inclination angles γ1 and γ2 are greatly reduced, for example to values between 30 degrees and 75 degrees, depending on the actual viewing angle (orientation data). In this bird's-eye view you do not look at the upper edges of the 2D PopUp elements 34 . 38 but by changing the inclination angle in this viewing area β2, these elements also appear in a tilted front view. Of course, preferably the default environment representations 54 . 56 . 58 of the 5b to 5e for the rotation angle with the environment representations 60 . 62 of the 6b and 6c is combined or integrated for the tilt angle about a horizontal axis, whereby the environment representation is optimized for both the rotational orientation and the tilt position.

Die von dem aktuellen Betrachtungswinkel (Orientierung des Tablets 12 zum Bild 16) abweichende Darstellung der AR-Szene 30 im Display 14 ermöglicht somit eine ansprechende Pseudo 3D-Darstellung einer AR-Szene, auch wenn diese 2D PopUp Elemente beinhaltet. The from the current viewing angle (orientation of the tablet 12 to the picture 16 ) different representation of the AR scene 30 in the display 14 thus allows an appealing pseudo 3D representation of an AR scene, even if it contains 2D PopUp elements.

Die 7 bis 10 zeigen eine AR-Sequenz 30a, die gestartet wird, wenn das Tablet 12 in einer räumlichen Beziehung zum Bilderbuch 16a gehalten wird. Das Bilderbuch 16a zeigt ein Bild mit einer Szene, bei der ein Nilpferd aus dem Wasser springt. Gemäß 7 wird das Tablet 12 recht frontal vor dem Bilderbuch gehalten, was die Darstellung der auf dem Touchscreen 14 des Tablets 12 dargestellte AR-Sequenz 30a von vorne veranlasst. Gut zu sehen in dieser Szene ist das animierte Nilpferd 38a in Form einer 2D PopUp-Darstellung, das aus einem Gewässer springt, welches die Basisebene der 2D-PopUp Umgebung bildet. Im Hintergrund ist eine zur Basisebene geneigte weitere 2D-PopUp Ebene 34a mit den Hintergrund bildenden Pflanzenabbildungen dargestellt. In dieser Orientierungslage des Tablets 12 relativ zum Bilderbuch 16a kann das animierte Element (Nilpferd) 38a derart aktiviert sein, dass es beim Berühren des Touchscreens 14 nach oben springt, bzw. wieder im Wasser 32a verschwindet, so dass es nur noch mit dem Kopf heraus schaut. Der Betrachtungswinkel β ist hier mit circa 10° sehr gering, dafür ist der Winkel γ zwischen dem Nilpferd und der Bodenebene mit ca. 80° sehr groß, das Nilpferd ragt fast senkrecht aus der Bodenebene heraus. The 7 to 10 show an AR sequence 30a that starts when the tablet 12 in a spatial relationship to the picture book 16a is held. The picture book 16a shows a picture with a scene where a hippopotamus jumps out of the water. According to 7 becomes the tablet 12 held right frontally in front of the picture book, reflecting the appearance of the on the touch screen 14 of the tablet 12 represented AR sequence 30a arranged from the front. Good to see in this scene is the animated hippopotamus 38a in the form of a 2D PopUp representation that jumps from a body of water that forms the base level of the 2D PopUp environment. In the background is an inclined to the base level further 2D PopUp level 34a represented with the background forming plant pictures. In this orientation of the tablet 12 relative to the picture book 16a can the animated element (hippopotamus) 38a be activated in such a way that it touches the touch screen 14 jumps up, or again in the water 32a disappears, so that it only looks out with his head. The viewing angle β is very low here at about 10 °, but the angle γ between the hippopotamus and the ground plane is very large at about 80 °, the hippopotamus protrudes almost vertically out of the ground plane.

In 8 ist dies sehr gut zu erkennen, da das Tablet 12 relativ zum Bilderbuch um ca. 80 Grad zur Seite verschwenkt ist. Das Nilpferd 38a steht nahezu senkrecht auf der Basisebene. In 8th This is very easy to recognize because the tablet 12 relative to the picture book is pivoted by about 80 degrees to the side. The hippopotamus 38a is almost perpendicular to the base plane.

In 9 und 10 ist nun die selbe Szene nahezu aus der Vogelperspektive zu sehen, der Betrachtungswinkel β ist hier mit circa 80° sehr groß. In der bekannten AR-Darstellung wäre nun das Nilpferd fast nur noch als schmaler Strich zu erkennen, da das 2D-Bild fast von oben betrachtet wird. Durch die hier beschriebene Erfindung kann aber bei der Veränderung des Betrachtungswinkels β auch beispielsweise der Neigungswinkel γ des Nilpferdes angepasst werden, wie hier in dem Beispiel auf ca. 45°. Und dadurch ist das Nilpferd selbst aus der Vogelperspektive noch gut zu erkennen (in diesem Beispiel wurde der Neigungswinkel γ des Nilpferdes um 35°, also um die Hälfte der Änderung des Betrachtungswinkels β um 70° verändert). In 9 and 10 Now you can see the same scene almost from a bird's-eye view, the viewing angle β is very large here at about 80 °. In the well-known AR representation, the hippopotamus would now be almost only recognizable as a narrow line, since the 2D image is viewed almost from above. By means of the invention described here, however, the angle of inclination γ of the hippopotamus can also be adjusted, for example, when the viewing angle β is changed, as in the example in this case to approximately 45 °. And thus, the hippopotamus is still clearly visible even from a bird's-eye view (in this example, the inclination angle γ of the hippopotamus was changed by 35 °, ie by half the change of the viewing angle β by 70 °).

Die 11 und 12 zeigen eine weitere AR-Sequenz aus einem anderen Bild 16b. Wenn das Tablet relativ zum Bild gekippt wird, fängt der animierte Eisbär 38a an zu schaukeln, entsprechend der Kippung des Tablets 12 (roter Drehpfeil). Die Orientierung bzw. die Dynamik der Orientierung (Bewegung oder Drehung des Tablets) kann somit zum Starten von Animationen der AR-Sequenz verwendet werden. The 11 and 12 show another AR sequence from another image 16b , When the tablet is tilted relative to the image, the animated polar bear catches 38a to swing, according to the tilt of the tablet 12 (red rotary arrow). The orientation or dynamics of the orientation (movement or rotation of the tablet) can thus be used to start animations of the AR sequence.

13 und 14 zeigen eine weitere AR-Sequenz 30c des Eisbären, der auf einen Baum klettert. In der dargestellten Orientierung des Tablets 12 relativ zum Bilderbuch 16c kann ein auf einem Nilpferd sitzendes Chamäleon derart animiert werden, dass es beim Berühren des Touchscreens 14 auf einem Ast des dargestellten Baumes auftaucht. Auch diese Animation ist abhängig von den Orientierungsdaten. 13 and 14 show another AR sequence 30c Polar bear climbing on a tree. In the illustrated orientation of the tablet 12 relative to the picture book 16c For example, a chameleon sitting on a hippopotamus can be animated such that it touches the touch screen 14 appears on a branch of the tree shown. This animation also depends on the orientation data.

Schließlich zeigen 15 und 16 eine vierte AR-Sequenz des kleinen Eisbären, der auf einem Fass durch die Wellen treibt. Wird das Tablet relativ zum Bild nach rechtsbewegt, führt das dazu, dass sich auch der Eisbär auf der Tonne im Wasser nach rechts bewegt und vice versa. Es kann somit auch die Dynamik der Orientierung des Tablets relativ zum Bilderbuch für die Animation von Elementen der AR-Szene 30d herangezogen werden. Finally show 15 and 16 a fourth AR sequence of the little polar bear floating on a barrel through the waves. Moving the tablet to the right relative to the image will cause the polar bear on the barrel to move to the right in the water and vice versa. It can thus also the dynamics of the orientation of the tablet relative to the picture book for the animation of elements of the AR scene 30d be used.

Es ist damit zusammenzufassen, dass die vorliegende Erfindung die Wiedergabe von AR-Sequenzen insbesondere bei Pseudo 3D-Darstellungen, vorzugsweise bei 2D-PopUp-3D-Darstellungen sehr realitätsnah erscheinen lässt und orientierungsabhängig zusätzliche Animationen ermöglicht. It should be summarized that the present invention makes the reproduction of AR sequences appear very realistic in particular in pseudo 3D representations, preferably in 2D pop-up 3D representations, and allows orientation-dependent additional animations.

Die Erfindung ist nicht auf das dargestellte Ausführungsbeispiel beschränkt, sondern kann innerhalb des Schutzbereichs der nachfolgenden Ansprüche beliebig variiert werden. The invention is not limited to the illustrated embodiment, but may be varied as desired within the scope of the following claims.

Bezugszeichenliste LIST OF REFERENCE NUMBERS

10 10
AR (Augmented Reality) System AR (augmented reality) system
12 12
Endgerät (Tablet) Terminal (tablet)
14 14
Display (Touchscreen) Display (touch screen)
16 16
Informationsträger (Bild) Information carrier (picture)
18 18
AR-Marker AR marker
20 20
erster AR-Markerpunkt first AR marker point
22 22
zweiter AR-Markerpunkt second AR marker point
24 24
dritter AR-Markerpunkt third AR marker point
26 26
Bilderfassungseinrichtung (Kamera) Image capture device (camera)
28 28
Bilderfassungsbereich Image capture area
30 30
AR-Sequenz AR sequence
32 32
Basisebene base level
34 34
hintere 2D-PopUp Darstellungsebene rear 2D pop-up display layer
36 36
mittlere 2D-PopUp Darstellungsebene middle 2D PopUp presentation plane
38 38
animiertes 2D-PopUp Element (Nilpferd) animated 2D-Popup element (hippopotamus)
40 40
AR-Steuerung AR control
42 42
Analyseeinheit analysis unit
44 44
Vergleichsspeicher Compare memory
46 46
Wiedergabeeinheit Playback unit
50 50
vorderer Punkt der AR-Umgebung front point of the AR environment
52 52
hintere Punkte der AR-Umgebung rear points of the AR environment
54 54
erste Umgebungsdarstellung für Vorne und Hinten first environment representation for front and back
56 56
zweite Umgebungsdarstellung für Rechts second environment representation for right
58 58
dritte Umgebungsdarstellung für Links third environment representation for links
60 60
vierte Umgebungsdarstellung für flach bzw. frontal fourth environment representation for flat or frontal
62 62
fünfte Umgebungsdarstellung für steil bzw. Aufsicht fifth environment representation for steep or supervision

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2015/0248785 A1 [0003] US 2015/0248785 A1 [0003]

Claims (20)

AR-System (10), umfassend wenigstens ein mobiles Endgerät (12) mit folgenden Merkmalen – einer Bilderfassungseinrichtung (26), – einem Display (14) zur Wiedergabe einer Videosequenz, – einer AR-Steuerung (40), welches AR-System (10) weiterhin wenigstens einen Informationsträger (16) aufweist, auf welchem wenigstens ein AR-Marker (18) abgebildet ist, welche AR-Steuerung (40) eine Analyseeinheit (42) umfasst, die mit einem Vergleichsspeicher (44) verbunden ist, in dem Vergleichsmuster abgelegt sind, wobei die Analyseeinheit (42) konzipiert ist, einen in den Erfassungsbereich der Bilderfassungseinrichtung (26) geratenden auf dem Informationsträger (16) wiedergegebenen AR-Marker (18) aufgrund des Vergleichs mit den Vergleichsmustern zu erkennen und ein Triggersignal an eine Wiedergabeeinheit (46) abzugeben, welche die Wiedergabe wenigstens einer zu dem erkannten AR-Marker (18) korrelierten AR-Sequenz (30) veranlasst, wobei der AR-Marker (18) mehrere Markerelemente (20, 22, 24) aufweist und die Analyseeinheit (42) konzipiert ist, anhand der Orientierung der Markerelemente (20, 22, 24) im Erfassungsbereich der Bilderfassungseinrichtung (26) die Orientierung des mobilen Endgeräts (12) relativ zu dem Informationsträger (16) zu bestimmen und entsprechende Orientierungsdaten zu erzeugen, wobei die Wiedergabeeinheit (46) die Darstellung der AR-Sequenz (30) in Abhängigkeit von den Orientierungsdaten ausführt, dadurch gekennzeichnet, – dass die Wiedergabeeinheit (46) zusätzlich die Darstellung zumindest eines Teils der AR-Sequenz (30) auf dem Display (14) in Abhängigkeit von den Orientierungsdaten derart verändert, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. AR system ( 10 ) comprising at least one mobile terminal ( 12 ) with the following features - an image capture device ( 26 ), - a display ( 14 ) for playback of a video sequence, - an AR control ( 40 ), which AR system ( 10 ) at least one information carrier ( 16 ), on which at least one AR marker ( 18 ), which AR control ( 40 ) an analysis unit ( 42 ) with a reference memory ( 44 ) are stored in the comparison pattern, wherein the analysis unit ( 42 ) is placed in the detection area of the image capture device ( 26 ) on the information carrier ( 16 ) AR markers ( 18 ) due to the comparison with the comparison patterns and a trigger signal to a playback unit ( 46 ) rendering at least one of the detected AR markers ( 18 ) correlated AR sequence ( 30 ), the AR marker ( 18 ) several marker elements ( 20 . 22 . 24 ) and the analysis unit ( 42 ), based on the orientation of the marker elements ( 20 . 22 . 24 ) in the detection area of the image capture device ( 26 ) the orientation of the mobile terminal ( 12 ) relative to the information carrier ( 16 ) and to generate corresponding orientation data, wherein the playback unit ( 46 ) the representation of the AR sequence ( 30 ) depending on the orientation data, characterized in that - the playback unit ( 46 ) additionally the representation of at least part of the AR sequence ( 30 ) on the display ( 14 ) is changed depending on the orientation data so as to deviate from an orientation-correlated representation of the AR sequence with respect to the orientation data. AR-System (10) nach Anspruch 1, dadurch gekennzeichnet, dass für einen AR-Marker (18) mehrere Darstellungsvarianten (5462) zumindest eines Teils der AR-Sequenz (30) existieren, und dass die Darstellungsvariante (5462) der AR-Sequenz (30) in Abhängigkeit von den Orientierungsdaten gewählt wird. AR system ( 10 ) according to claim 1, characterized in that for an AR marker ( 18 ) several display variants ( 54 - 62 ) at least part of the AR sequence ( 30 ) exist, and that the representation variant ( 54 - 62 ) of the AR sequence ( 30 ) depending on the orientation data. AR-System (10) nach Anspruch 2, dadurch gekennzeichnet, dass die Darstellungsvarianten (5462) in einem mit der Wiedergabeeinheit (46) verbundenen Speicher abgelegt sind oder jede Darstellungsvariante (5462) aus Basisdaten der AR-Sequenz (30) errechnet wird. AR system ( 10 ) according to claim 2, characterized in that the representation variants ( 54 - 62 ) in one with the playback unit ( 46 ) associated storage or any representation variant ( 54 - 62 ) from base data of the AR sequence ( 30 ) is calculated. AR-System (10) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass für jede Darstellungsvariante (5462) einer AR-Sequenz (30) ein zulässiger Bereich der Orientierungsdaten (α1–4, β1–2) definiert ist, der zur Wiedergabe der entsprechenden Darstellungsvariante (5462) führt. AR system ( 10 ) according to claim 2 or 3, characterized in that for each representation variant ( 54 - 62 ) of an AR sequence ( 30 ) a permissible region of the orientation data (α1-4, β1-2) is defined, which is used to reproduce the corresponding representation variant ( 54 - 62 ) leads. AR-System (10) nach Anspruch 4, dadurch gekennzeichnet, dass der zulässige Bereich für die Wiedergabe einer Darstellungsvariante (5462) einen horizontalen Betrachtungsbereich (α1–4) um eine vertikale Achse von 60 bis 180 Grad und/oder einen vertikalen Betrachtungsbereich (β1–2) um eine horizontale Achse von 90 Grad umfasst. AR system ( 10 ) according to claim 4, characterized in that the permissible range for the reproduction of a representation variant ( 54 - 62 ) comprises a horizontal viewing area (α1-4) about a vertical axis of 60 to 180 degrees and / or a vertical viewing area (β1-2) about a horizontal axis of 90 degrees. AR-System (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, die AR-Sequenz (30) wenigstens ein in einer AR-Umgebung animiertes Element (38) umfasst, und dass das animierte Element (38) unabhängig von den Orientierungsdaten immer in einer maximalen Winkelabweichung (∆u, ∆e) von +–60 Grad, insbesondere +–45 Grad von einer Frontalansicht dargestellt wird, und die Winkelabweichung (∆u, ∆e) aus den Orientierungsdaten berechnet wird. AR system ( 10 ) according to one of the preceding claims, characterized in that the AR sequence ( 30 ) at least one element animated in an AR environment ( 38 ) and that the animated element ( 38 ) is always represented in a maximum angular deviation (Δu, Δe) of + -60 degrees, more preferably + -45 degrees from a frontal view regardless of the orientation data, and the angular deviation (Δu, Δe) is calculated from the orientation data. AR-System (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die AR-Steuerung konzipiert ist, in Abhängigkeit von den Orientierungsdaten Animationen der AR-Sequenz freizuschalten. AR system ( 10 ) according to one of the preceding claims, characterized in that the AR control is designed to enable animations of the AR sequence as a function of the orientation data. AR-System (10) nach Anspruch 7, dadurch gekennzeichnet, dass die AR-Sequenz (30) eine Darstellung des animierten 2D PopUp Elements (38) in einer 2D PopUp 3D Umgebungsdarstellung (32, 34) beinhaltet. AR system ( 10 ) according to claim 7, characterized in that the AR sequence ( 30 ) a representation of the animated 2D PopUp element ( 38 ) in a 2D PopUp 3D environment representation ( 32 . 34 ) includes. AR-System (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Wiedergabeeinheit (46) die Orientierung unterschiedlicher Elemente (32, 34, 38) der AR-Sequenz (30) relativ zueinander in Abhängigkeit von den Orientierungsdaten ändert. AR system ( 10 ) according to one of the preceding claims, characterized in that the reproduction unit ( 46 ) the orientation of different elements ( 32 . 34 . 38 ) of the AR sequence ( 30 ) relative to each other depending on the orientation data. AR-System (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Analyseeinheit (42) eine erste Recheneinheit aufweist, die basierend auf der Anordnung der Markerelemente (20, 22, 24) des AR-Markers (18) im Erfassungsbereich der Bilderfassungseinrichtung (26) die Orientierungsdaten berechnet. AR system ( 10 ) according to one of the preceding claims, characterized in that the analysis unit ( 42 ) has a first computing unit based on the arrangement of the marker elements ( 20 . 22 . 24 ) of the AR marker ( 18 ) in the detection area of the image capture device ( 26 ) calculates the orientation data. AR-System (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Wiedergabeeinheit (46) eine zweite Recheneinheit aufweist, die basierend auf den Orientierungsdaten die Darstellung der AR-Sequenz (30) bzw. eines animierten Elements (38) in der AR-Sequenz (30) berechnet. AR system ( 10 ) according to one of the preceding claims, characterized in that the reproduction unit ( 46 ) has a second arithmetic unit which based on the orientation data, the representation of the AR sequence ( 30 ) or an animated element ( 38 ) in the AR sequence ( 30 ). AR-System (10) nach Anspruch 11, dadurch gekennzeichnet, dass die erste Recheneinheit die translatorische Anordnung der Markerelemente (20, 22, 24) in dem Bilderfassungsbereich (28) für die Erfassung der Position des mobilen Endgeräts (12) relativ zum Informationsträger (16) in einer Ebene parallel zur Ebene des Informationsträgers (16) verwendet. AR system ( 10 ) According to claim 11, characterized, in that the first computing unit, the translational arrangement of the marker elements ( 20 . 22 . 24 ) in the image capture area ( 28 ) for detecting the position of the mobile terminal ( 12 ) relative to the information carrier ( 16 ) in a plane parallel to the information carrier plane ( 16 ) used. AR-System (10) nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die erste Recheneinheit die rotative Anordnung der Markerelemente (20, 22, 24) in dem Bilderfassungsbereich (28) für die Erfassung der Rotation des mobilen Endgeräts (12) relativ zu einer Bezugsseite des Informationsträgers (16) verwendet. AR system ( 10 ) according to claim 11 or 12, characterized in that the first arithmetic unit, the rotary arrangement of the marker elements ( 20 . 22 . 24 ) in the image capture area ( 28 ) for detecting the rotation of the mobile terminal ( 12 ) relative to a reference side of the information carrier ( 16 ) used. AR-System (10) nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die erste Recheneinheit den wechselseitigen Abstand der Markerelemente (20, 22, 24) in dem Bilderfassungsbereich (28) für die Erfassung der Kippstellung des mobilen Endgeräts (12) relativ zur Ebene des Informationsträgers (16) verwendet. AR system ( 10 ) according to one of claims 11 to 13, characterized in that the first arithmetic unit the mutual distance of the marker elements ( 20 . 22 . 24 ) in the image capture area ( 28 ) for detecting the tilting position of the mobile terminal ( 12 ) relative to the information carrier plane ( 16 ) used. Verfahren zur Darstellung einer AR-Sequenz (30) auf einem Display (14) eines mobilen Endgeräts (12), bei welchem Verfahren die Orientierung des mobilen Endgeräts (12) relativ zu einem Informationsträger (16) in Form von Orientierungsdaten erfasst wird, und bei welchem die Orientierungsdaten bei der Darstellung der AR-Sequenz (30) auf dem Display (14) berücksichtigt werden, dadurch gekennzeichnet, dass zumindest ein Teil der AR-Sequenz (30) auf dem Display (14) in Abhängigkeit von den Orientierungsdaten derart verändert dargestellt wird, dass sie von einer mit Bezug auf die Orientierungsdaten orientierungskorrelierten Darstellung der AR-Sequenz abweicht. Method of representing an AR sequence ( 30 ) on a display ( 14 ) of a mobile terminal ( 12 ), in which method the orientation of the mobile terminal ( 12 ) relative to an information carrier ( 16 ) in the form of orientation data, and in which the orientation data in the representation of the AR sequence ( 30 ) on the display ( 14 ), characterized in that at least part of the AR sequence ( 30 ) on the display ( 14 ) is represented as being different in dependence on the orientation data such that it deviates from a representation of the AR sequence that is orientation-correlated with respect to the orientation data. Verfahren nach Anspruch 15, ausgeführt unter Verwendung eines Systems nach einem der Ansprüche 1 bis 14. A method according to claim 15, carried out using a system according to any one of claims 1 to 14. Verfahren nach Anspruch 15 oder 16, bei welchem die AR-Sequenz (30) wenigstens ein animiertes Element (38) in einer AR-Umgebung (32, 34) aufweist, welches animierte Element (38) in Abhängigkeit von den Orientierungsdaten in einem Winkelbereich (∆e) von maximal +/–60 Grad, insbesondere +/–45 Grad abweichend von der Frontalansicht in der A-Umgebung dargestellt wird. The method of claim 15 or 16, wherein the AR sequence ( 30 ) at least one animated element ( 38 ) in an AR environment ( 32 . 34 ), which animated element ( 38 ) is displayed as a function of the orientation data in an angular range (Δe) of at most +/- 60 degrees, in particular +/- 45 degrees, deviating from the frontal view in the A-environment. Verfahren nach einem der Ansprüche 15 bis 17, bei welchem als animiertes Element (38) ein 2D PopUp Element in einer 2D PopUp 3D-Umgebung (32, 34) dargestellt wird. Method according to one of claims 15 to 17, wherein as an animated element ( 38 ) a 2D PopUp element in a 2D PopUp 3D environment ( 32 . 34 ) is pictured. Verfahren nach einem der Ansprüche 15 bis 18, bei welchem in Abhängigkeit von den Orientierungsdaten Animationen der AR-Sequenz freigeschaltet werden. Method according to one of Claims 15 to 18, in which animations of the AR sequence are released as a function of the orientation data. Verfahren nach einem der Ansprüche 15 bis 19, bei welchem die Orientierungsdaten über einen zeitlichen Bereich erfasst und die Dynamikdaten aus den Orientierungsdaten berechnet werden, und dass in Abhängigkeit von den Dynamikdaten zumindest Teile der AR-Sequenz animiert werden. Method according to one of Claims 15 to 19, in which the orientation data are recorded over a time range and the dynamic data are calculated from the orientation data, and in that at least parts of the AR sequence are animated in dependence on the dynamic data.
DE102015119753.7A 2015-11-16 2015-11-16 Augmented reality system Withdrawn DE102015119753A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015119753.7A DE102015119753A1 (en) 2015-11-16 2015-11-16 Augmented reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015119753.7A DE102015119753A1 (en) 2015-11-16 2015-11-16 Augmented reality system

Publications (1)

Publication Number Publication Date
DE102015119753A1 true DE102015119753A1 (en) 2017-05-18

Family

ID=58640098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015119753.7A Withdrawn DE102015119753A1 (en) 2015-11-16 2015-11-16 Augmented reality system

Country Status (1)

Country Link
DE (1) DE102015119753A1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110148935A1 (en) * 2009-12-17 2011-06-23 Nokia Corporation Method and apparatus for providing control over a device display based on device orientation
US8226011B2 (en) * 2005-04-06 2012-07-24 Eidgenoessische Technische Hochshcule Zuerich Method of executing an application in a mobile device
US20120256956A1 (en) * 2011-04-08 2012-10-11 Shunichi Kasahara Display control device, display control method, and program
US20130207894A1 (en) * 2012-02-10 2013-08-15 Sony Corporation Information processing device, information processing method and program
US20130222426A1 (en) * 2012-02-28 2013-08-29 Research In Motion Limited Method and device for providing augmented reality output
US8542906B1 (en) * 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
US20130314441A1 (en) * 2012-05-23 2013-11-28 Qualcomm Incorporated Image-driven view management for annotations
US20140002491A1 (en) * 2012-06-29 2014-01-02 Mathew J. Lamb Deep augmented reality tags for head mounted displays
US20150248785A1 (en) 2014-03-03 2015-09-03 Yahoo! Inc. 3-dimensional augmented reality markers

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8226011B2 (en) * 2005-04-06 2012-07-24 Eidgenoessische Technische Hochshcule Zuerich Method of executing an application in a mobile device
US8542906B1 (en) * 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
US20110148935A1 (en) * 2009-12-17 2011-06-23 Nokia Corporation Method and apparatus for providing control over a device display based on device orientation
US20120256956A1 (en) * 2011-04-08 2012-10-11 Shunichi Kasahara Display control device, display control method, and program
US20130207894A1 (en) * 2012-02-10 2013-08-15 Sony Corporation Information processing device, information processing method and program
US20130222426A1 (en) * 2012-02-28 2013-08-29 Research In Motion Limited Method and device for providing augmented reality output
US20130314441A1 (en) * 2012-05-23 2013-11-28 Qualcomm Incorporated Image-driven view management for annotations
US20140002491A1 (en) * 2012-06-29 2014-01-02 Mathew J. Lamb Deep augmented reality tags for head mounted displays
US20150248785A1 (en) 2014-03-03 2015-09-03 Yahoo! Inc. 3-dimensional augmented reality markers

Similar Documents

Publication Publication Date Title
DE112014004305B4 (en) Image generating device; Image display system; Image generation method and image display method
DE69816688T2 (en) Perspective control for video game images
DE112014002804T5 (en) Interior display device for vehicles and program product
DE102010042026B4 (en) Method for generating an image of at least one object in the surroundings of a vehicle
DE102008061988A1 (en) Method and device for displaying information
EP2464098A2 (en) Vicinity presentation device, a vehicle with such a vicinity presentation device and method for displaying a panorama image
EP2795401B1 (en) Motion picture presentation device and method for presenting a motion picture
DE102006059922A1 (en) Method for displaying a map section in a navigation system and navigation system
EP3420539B1 (en) Method for operating a display device and system for displaying actual image contents of an actual environment overlayed with virtual image contents
DE102016124978A1 (en) Virtual representation of an environment of a motor vehicle in a driver assistance system with a plurality of projection surfaces
DE102014115363A1 (en) Virtual character in real environment
DE102018216409A1 (en) Method, device and means of transportation for a kinetose-avoiding representation of a liquid in a display in a means of transportation
DE102014009701B4 (en) Method for operating virtual reality glasses and system with virtual reality glasses
DE102009054214A1 (en) A method for generating a representation of an environment
DE112017001556T5 (en) Navigation system and navigation program
DE102019212601A1 (en) Generating a display of an augmented reality head-up display for a motor vehicle
WO2015062750A1 (en) Infortainment system for a vehicle
DE102015119753A1 (en) Augmented reality system
WO2019048643A1 (en) Equipment and method for audio/visual recording and reproduction of images/films
DE102016226299B4 (en) Method and device for displaying an environment of a vehicle
WO2019072466A1 (en) Method for displaying images of a camera system of a vehicle
DE102015201642B4 (en) Device and method for displaying the surroundings of a vehicle
DE102019211415B3 (en) Method for generating a light-based assistance function in a vehicle
DE102012010799A1 (en) Method for the spatial visualization of virtual objects
DE102020109789A1 (en) Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee