WO2009062492A2 - Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum - Google Patents
Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum Download PDFInfo
- Publication number
- WO2009062492A2 WO2009062492A2 PCT/DE2008/001881 DE2008001881W WO2009062492A2 WO 2009062492 A2 WO2009062492 A2 WO 2009062492A2 DE 2008001881 W DE2008001881 W DE 2008001881W WO 2009062492 A2 WO2009062492 A2 WO 2009062492A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- virtual
- image
- objects
- viewer
- viewing direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Definitions
- the invention relates to a method for displaying image objects in a virtual three-dimensional image space, in particular for generating a virtual reality in the sense of a simulation.
- VR virtual reality
- Edutainment In the most diverse areas an attempt is increasingly being made to map, carry out or test processes in virtual realities, since in particular specific working conditions can be purposefully simulated there.
- the term "virtual reality” (VR) refers to the representation and simultaneous perception of reality and its physical properties in a mostly real-time computer-generated interactive-virtual environment.
- VR virtual reality
- Examples include their use in aircraft simulators in the training of pilots, in the creation of virtual prototypes in industry, in the performance of ergonomic tests, in the visualization of buildings, as well as in medical diagnostics, in the simulation of operations, in virtual visits difficult to reach places, referred to Edutainment or the like.
- two views of an object are generated and displayed from slightly different positions (stereo projection). tion).
- the distance between the two positions should be equal to the distance of the viewer's eyes.
- the two views must be fed to the respective eye.
- the active methods include, for example, shutter glasses, which can be switched transparent and dark at high speed. These are used in conjunction with a monitor that alternately displays an image for the left eye and an image for the right eye. When the glasses are synchronized with the monitor, the correct image is transmitted to each eye.
- Passive techniques include the anaglyph and polarization techniques, in which two views of a small spaced image are superimposed in an image. Using color or polarized filter glasses, these image views can be separated again.
- autostereoscopic monitors are known in practice, which allow the user a perception of spatial depth of the objects shown without the use of special aids such as glasses or the like.
- An autostereoscopic monitor has a very fine image matrix in front of which an optical means, usually in the form of lenticular or parallax barrier systems, is directly attached.
- the optical means Due to the special geometry of the optical means is achieved that certain pixels of the image matrix are emitted in a defined spatial direction.
- images for the left and the right eye can be displayed simultaneously and independently of each other.
- the quality of the three-dimensional impression is the higher, the better the two views can be perceived separately. This can be achieved by limiting the solid angle in which a three-dimensional perception is possible.
- tracking systems are used, which continuously detect the position of the viewer.
- the pixels on the image matrix or the position of the optical means become readjusted by slight displacement, so that the spatially very narrow viewing angle is tracked to the viewer.
- a special feature of autostereoscopic monitors is that all image objects - regardless of their apparent spatial distance from the viewer - are displayed in the monitor plane, and thus the eyes of the beholder always remain focused on this monitor level (must) contrary to the natural accommodation on different distances of viewed objects ,
- the naturalness of the perception of virtual reality suffers due to the above-described restrictions on accommodation.
- a viewer of a three-dimensional object not only wants to look at an object of a complex scene as naturally as possible, but also other objects that appear to be at different distances to the viewer and to other objects.
- the present invention is therefore based on the object of designing and further developing a method of the generic type in such a way that the representation of image objects in a virtual image space that is as realistic as possible, in particular in the case of several image objects in complex scenes, is possible.
- the above object is solved by the features of claim 1.
- the method in question is characterized in that the viewing direction of a viewer of the image object is detected and taken into account for the representation of the image objects and for interactions with the image objects.
- the doctrine also refers to several viewers on one or more displays, although from now on - for the sake of simplicity - is always talked about by the viewer.
- the viewing direction can also be advantageously used as the sole means of interaction.
- this requires only suitable software and is therefore an advantageous "input device" in many respects you use this information to interact with the object.
- the viewing direction of both eyes is detected independently of one another in order to represent the virtual reality in order to be able to determine a convergence point in real as well as in virtual space and to be able to take account accordingly.
- This is of particular advantage, for example in the presentation of semi- transparent objects, such as tissue, fluids or in the representation of convex (patchy, holey) objects that can occur in a complex scene.
- the real and the virtual space have two different coordinate systems that need to be calibrated to each other.
- eye gestures such as single or multiple eyelid closure
- eye gestures should also be able to flow in a further advantageous manner in order to allow sole or combined interaction with the image content without further aids.
- Manipulation e.g., moving, zooming, performing contextual actions such as texture or lighting changes
- a viewer uses a tool to interact with the image object, for example in the form of a selection operation in the virtual image space, it is expected that exactly the image object with which it is interacting, i. on which the viewer directs both his gaze and the tool is sharply displayed, while other image objects that are in apparent distance to the viewer, are perceived out of focus in front of or behind it.
- This is not necessarily the case with autostereoscopic displays.
- This viewing direction or viewing direction change transmitted into the virtual space is used to control at least one virtual camera, wherein a virtual camera corresponds to a view displayed to the viewer.
- at least two virtual cameras are to be provided, which generate the views for one eye each of the observer.
- the imaging characteristics of the virtual cameras in the virtual space correspond to the imaging properties of the viewer's eyes.
- the viewer For a viewing direction detection, the viewer must be detected with a camera, advantageously a stereo camera system.
- the current viewing direction of the observer is determined and converted into a position on the display device, which in turn can be associated with an image object in the scene shown.
- the views of the viewer of the scene shown can be determined very easily and directly.
- the presentation should then be perceived as particularly realistic if the views of the viewer are calculated in real time. There may be a hard or soft real time. Especially with fast sight changes For the viewer, a soft real time should be sufficient, since missing intermediate images, for example, are not perceived too clearly here.
- the views of the image object could be recalculated when the viewer's viewing direction changes.
- the viewing direction changes are detected, assigned to a viewed object in the virtual image space and used to control one or more virtual cameras.
- the views of the scene for the viewer can be displayed in a realistic manner.
- the recalculation of the views could be a spatial frequency filtering of selected areas of the views of the scene.
- the spatial frequency plays an essential role in the perception of sharpness in an image. Pictures with low spatial frequency are blurred and flat, pictures with high spatial frequency are rich in detail and contrast and with accented outlines.
- Corresponding algorithms for local frequency filtering e.g. Fourier transformation is known in practice.
- the image sharpness also has a continuous transition when calculating the views of the image objects.
- information about the three-dimensional nature of the object is necessary for the calculation of the new image information.
- a three-dimensional model of the image object could be present. This three-dimensional model could be realized in many different ways. For example, if the image object is generated as a virtual object, then the three-dimensional information will most likely already be in a simple manner.
- Known rendering filters can be used here to display the views in the desired quality.
- the performance of the processors used can be achieved relatively quickly.
- it may be advantageous to use precalculated sub-sections of the views of the picture object, the photographs or the video sequences for subimages processed with different spatial frequency filters. store different accommodation conditions in a memory. These data could then be read out of the memory as a function of the current viewing direction of the viewer and displayed appropriately on the display device.
- intermediate images between the stored views could be calculated in a suitable manner, for example by morphing. Such types of calculation are also known in practice.
- the method according to the invention is preferably used in connection with the representation on an autostereoscopic display device. It is advantageous if, in addition to the calculation of the views as a function of the viewing direction and of the position or the movement of the viewer in addition an accurate control of the viewing angle is made. This is done - as described above - by suitably driving the luminous dots behind the optical means of the autostereoscopic display device.
- the adaptation can be carried out as a control loop in parallel or sequentially to the recalculation of the views. It is important to consider that in the readjustment only in a small range pixels are moved. A complete recreation of views of the image object is not done here.
- the inventive method is not necessarily seen in conjunction with display devices for three-dimensional representation. It is thus also possible to use a standard monitor and monosize the views of the image object. All you have to do is create a virtual view that just creates a view of the image object.
- the method may also be used in conjunction with a selector that allows interaction with the image object or parts thereof.
- This selection device is preferably freely movable in the image space. With this selection device, the image object or parts thereof can be selected, marked, moved, edited, rotated or otherwise influenced.
- the selection device could be formed by any object, its three-dimensional position and optionally orientation by means of a suitable object System is determined.
- a stereoscopically operating camera system could be used, with which the object is detected.
- the object to be tracked could be realized by a pen, any tool with which the viewer interacts with the image object, or the like.
- the viewer could also use a finger as a selector. This can be interacted naturally with individual areas of the image object.
- the illustrated image object appears to float in front of the display device. If a viewer selects a point of the image object, one can assume that he is also looking at this point. When selecting a point of the image object, therefore, it can be determined which image areas the observer sees lying behind the selection device. These image areas also correspond to the areas covered by the current viewing direction. This has the consequence that in addition to the inclusion of the viewing direction of the viewer and the position of the viewer and the position of the selector can be used as information to control the recalculation of views of the image object.
- FIG. 1 to 3 exemplary arrangements for applying the method according to the invention.
- the display device 1 comprises an autostereoscopic display device, in which the image object 2a appears to float at least partially in front of the display device, while the image object 2b is at least partially perceived in the background behind the display device.
- a viewer whose eyes 3 are indicated in the figures views the image object 2 displayed on the display device 1.
- a position detection in the form of a stereoscopically operating camera system continuously determines the position of the eyes 3 of the observer in all three spatial directions and his viewing direction.
- two views of the image object are appropriately displayed with a corresponding offset, so that a virtual three-dimensional image space is spanned in front of the display device 1.
- the image object 2a is apparently at least partially in front of Display device displayed while the image object 2b is at least partially behind the display device.
- the viewing direction of the eyes 3 of the observer determined by the position and visual angle detection is transmitted into the virtual image space. Since a representation of the image objects 2a and 2b which is as realistic as possible is to be achieved on the display device 1, this viewing direction in FIG. 1 corresponds to an accommodation of the eyes 3 on the image object 2a. This image object is displayed in sharp focus, while the seemingly farther away image object 2b appears out of focus. A change of the viewing direction of the eyes 3 to the right towards the image object 2b - shown in FIG. 2 - is recognized by the system and the views are adjusted.
- the representation takes place according to an accommodation on image object 2b.
- the image object 2b is displayed sharply while the seemingly closer image object 2a appears out of focus.
- the views generated by the two virtual cameras are in turn converted into images suitable for the display device and displayed on the display device 1.
- FIG. 3 shows the case where an image object 2a is marked by means of a selector 4.
- the selector 4 is formed here by a finger of the hand of the observer.
- the viewer has in the virtual image space marked in Fig. 3 marked with a circle area 5. It is assumed that the viewer directs his gaze to the selection device and also to the marked area 5.
- a detection unit for detecting the position of the selector 4 first determines the position of the selector with respect to the display 1. Using virtual cameras, it can be determined which point 5 in the virtual image space is marked by the selector 4. This marked area 5 corresponds to the area to which the eyes of the observer are accommodated during the selection process. A part of the image object 2a is displayed sharply while seemingly more distant parts of the image object 2a and image object 2b appear out of focus. In the calculation of the views of the image objects 2a and 2b, therefore, not only the viewing direction of the eyes 3 of the observer is taken into account. but also the selected area 5 and the position of the eyes 3 of the observer are used as information.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
Ein Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, insbesondere zur Erzeugung einer virtuellen Realität im Sinne einer Simulation, ist dadurch gekennzeichnet, dass die Blickrichtung eines Betrachters des Bildobjekts erfasst und für die Darstellung der Bildobjekte sowie für Interaktionen mit den Bildobjekten berücksichtigt wird.
Description
VERFAHREN ZUM DARSTELLEN VON BILDOBJEKTEN IN EINEM VIRTUELLEN DREIDIMENSIONALEN BILDRAUM
Die Erfindung betrifft ein Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, insbesondere zur Erzeugung einer virtuellen Realität im Sinne einer Simulation.
In den verschiedensten Bereichen wird verstärkt versucht, Vorgänge in virtuellen Realitäten abzubilden, durchzuführen oder zu erproben, da dort insbesondere spezielle Arbeitsbedingungen gezielt simuliert werden können. Der Begriff "virtuelle Realität" (VR) bezeichnet dabei die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer meist in Echtzeit computergenerierten interaktiven - virtuellen - Umgebung. Auch wenn die technischen Möglichkeiten, beispielsweise hinsichtlich einer umfassenden Wahrnehmung physikalischer Eigenschaften, derzeit noch beschränkt sind, so sind die Einsatzmöglichkeiten dennoch überaus umfangreich. Beispielhaft sei auf deren Verwendung in Flugzeugsimulatoren bei der Ausbildung von Piloten, bei der Erstellung von virtuellen Prototypen in der Industrie, bei der Durchführung von Ergonomietests, bei der Visualisierung von Gebäuden, sowie in der medizinischen Diagnostik, bei der Simulation von Operationen, bei virtuellen Besuchen schwer erreichbarer Orte, beim Edutainment oder dergleichen verwiesen.
Besonderes Augenmerk bei der Generierung und Vermittlung virtueller Realitäten gilt dem Bestreben, einem Benutzer eine möglichst umfassende Immersion, d. h. ein Eintauchen in die virtuelle Realität, zu bieten. Hierbei nimmt eine möglichst realitätsnahe visuelle Wahrnehmung der virtuellen Realität einen besonderen Stellenwert ein. Dazu werden beispielsweise HMDs (Head-Mounted Displays), Großbildleinwände oder CAVEs (Cave Automatic Virtual Environments) genutzt. Für eine besonders realitätsnahe visuelle Wahrnehmung ist eine Darstellung mit erlebbarer räumlicher Tiefe von Vorteil.
Zum Erzeugen eines räumlichen Eindrucks werden zwei Ansichten eines Objekts aus geringfügig unterschiedlichen Positionen erzeugt und dargestellt (Stereoprojek-
tion). Der Abstand zwischen den beiden Positionen sollte dem Abstand der Augen des Betrachters entsprechen. Bei der Darstellung müssen die beiden Ansichten dem jeweiligen Auge zugeführt werden. Hierzu sind wiederum eine Reihe unterschiedlicher Technologien bekannt.
Grundsätzlich kann zwischen aktiven und passiven Verfahren unterschieden werden. Zu den aktiven Verfahren gehören beispielsweise Shutter-Brillen, die mit hoher Geschwindigkeit transparent und dunkel geschaltet werden können. Diese werden zusammen mit einem Monitor eingesetzt, der wechselseitig ein Bild für das linke und ein Bild für das rechte Auge darstellt. Bei Synchronisation der Brille mit dem Monitor wird jedem Auge das korrekte Bild zugeleitet. Zu den passiven Verfahren zählen das Anaglyph- und das Polarisationsverfahren, bei denen zwei Ansichten eines Bildes mit geringfügigem Abstand zueinander in einem Bild überlagert sind. Unter Verwendung von Färb- oder Polarisationsfilterbrillen können diese Bildansichten wieder getrennt werden.
Darüber hinaus sind aus der Praxis autostereoskopische Monitore bekannt, die dem Benutzer eine Wahrnehmung räumlicher Tiefe der dargestellten Objekte ohne die Benutzung spezieller Hilfsmittel wie Brillen oder ähnliches ermöglichen. Ein autoste- reoskopischer Monitor weist eine sehr feine Bildmatrix auf, vor der unmittelbar ein optisches Mittel, meist in Form von Lentikular- oder Parallax-Barrierensystemen, angebracht ist.
Durch die spezielle Geometrie des optischen Mittels wird erreicht, dass bestimmte Bildpunkte der Bildmatrix in eine definierte Raumrichtung abgestrahlt werden. Durch gezieltes Ansteuern der Bildpunkte können gleichzeitig und unabhängig voneinander Bilder für das linke und das rechte Auge dargestellt werden. Die Qualität des dreidimensionalen Eindrucks ist umso höher, je besser getrennt die beiden Ansichten wahrgenommen werden können. Dies kann durch eine Einschränkung des Raumwinkels, in dem eine dreidimensionale Wahrnehmung möglich ist, erreicht werden. Um dennoch ein komfortables Arbeiten am Monitor mit maximaler Bewegungsfreiheit des Betrachters zu erreichen, werden Tracking-Systeme verwendet, die die Position des Betrachters kontinuierlich erfassen. In Abhängigkeit der Position des Betrachters werden die Bildpunkte auf der Bildmatrix oder die Position des optischen Mittels
durch geringfügiges Verschieben nachgesteuert, so dass der räumlich sehr enge Betrachtungswinkel dem Betrachter nachgeführt wird.
Eine Besonderheit autostereoskopischer Monitore besteht darin, dass alle Bildobjekte - unabhängig von ihrer scheinbaren räumlichen Entfernung vom Betrachter - in der Monitorebene abgebildet werden, und somit die Augen des Betrachters stets auf diese Monitorebene fokussiert bleiben (müssen) entgegen der natürlichen Akkomodation auf unterschiedliche Entfernungen betrachteter Objekte.
Zur Interaktion mit der virtuellen Realität werden bislang verschiedene Eingabegeräte verwendet. Beispielhaft sei auf die Verwendung von 3D-Mäusen, Datenhandschuhen, Joysticks oder besonderer Tastaturen hingewiesen. Allerdings ist es auch bereits bekannt, die Position realer Objekte mittels Tracking-Systemen zu erfassen und als Eingabegeräte zu benutzen. Ein derartiges System ist beispielsweise in der EP 1 025 520 B1 beschrieben.
Die bekannten Verfahren der zuvor genannten Art weisen jedoch den erheblichen Nachteil auf, dass die daraus resultierende Darstellung meist als unnatürlich und unkomfortabel empfunden wird. Derzeit liefern solche Systeme die natürlichsten Eindrücke, die die reale Welt vollständig kapseln. Dies geschieht beispielsweise bei HMDs, bei denen der Benutzer lediglich die virtuelle Realität sieht. Hier kann vollständig oder zumindest in weiten Teilen auf die Aktionen des Benutzers eingegangen werden. Allerdings sind HMDs meist schwer bzw. kompliziert anzubringen und relativ teuer. Zudem wird für die vollständige Kapselung der realen Welt eine umfangreiche Sensorik benötigt, mit der die Aktionen des Benutzers und insbesondere seine Blickrichtung erfasst werden. Andere Systeme wie Shutter-Brillen oder autostereoskopi- sche Displays kommen mit einer weit geringeren Menge an Sensorik aus und sind meist mit weit geringerem Aufwand aufzubauen. Allerdings leidet hier wiederum die Natürlichkeit der Wahrnehmung der virtuellen Realität durch die oben beschriebenen Einschränkungen bezüglich der Akkomodation. So möchte ein Betrachter eines dreidimensionalen Objekts nicht lediglich ein Objekt einer komplexen Szene möglichst natürlich betrachten, sondern auch andere Objekte, die sich in unterschiedlichen Entfernungen zum Betrachter und zu anderen Objekten zu befinden scheinen.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren der gattungsbildenden Art derart auszugestalten und weiterzubilden, dass eine möglichst realitätsnahe Darstellung von Bildobjekten in einem virtuellen Bildraum, insbesondere bei mehreren Bildobjekten in komplexen Szenen, möglich ist.
Erfindungsgemäß ist die voranstehende Aufgabe durch die Merkmale des Patentanspruches 1 gelöst. Danach ist das in Rede stehende Verfahren dadurch gekennzeichnet, dass die Blickrichtung eines Betrachters des Bildobjekts erfasst und für die Darstellung der Bildobjekte sowie für Interaktionen mit den Bildobjekten berücksichtigt wird. Dabei sei angemerkt, dass sich die Lehre auch auf mehrere Betrachter an einem oder an mehreren Displays bezieht, wenngleich fortan - der Einfachheit halber - stets von dem Betrachter die Rede ist.
In erfindungsgemäßer Weise ist zunächst erkannt worden, dass eine besonders realitätsnahe Darstellung nur dann möglich ist, wenn die Blickrichtung des Betrachters im Wesentlichen auf die Darstellung der virtuellen Realität übertragen werden kann.
Ändert ein Betrachter beispielsweise seine Blickrichtung von einem scheinbar weiter entfernten Objekt auf ein scheinbar näher liegendes Objekt, so erwartet er - analog zur realen Welt -, dass das nunmehr betrachtete Objekt schärfer abgebildet wird, während das nicht mehr betrachtete bzw. fokussierte Objekt nur noch unscharf im Hintergrund wahrgenommen wird.
Die Blickrichtung kann in vorteilhafter Weise auch als alleiniges Mittel zur Interaktion eingesetzt werden. Dies erfordert neben der Einrichtung zur Erfassung der Blickrichtung (Kamera(s)) lediglich eine geeignete Software und ist damit ein in vielerlei Hinsicht günstiges und insoweit vorteilhaftes „Eingabegerät". Wird durch die Analyse der Blickrichtung ein Objekt in einer räumlichen Szene identifiziert, so kann man diese Information nutzen, um mit dem Objekt zu interagieren.
In vorteilhafter Weise wird zur Darstellung der virtuellen Realität die Blickrichtung beider Augen unabhängig voneinander erfasst, um einen Konvergenzpunkt im realen wie im virtuellen Raum zu bestimmen und entsprechend berücksichtigen zu können. Dies ist von ganz besonderem Vorteil, beispielsweise bei der Darstellung von semi-
transparenten Objekten, wie Gewebe, Flüssigkeiten oder bei der Darstellung von konvexen (lückenhaften, löchrigen) Objekten, die in einer komplexen Szene auftreten können. Des Weiteren sei angemerkt, dass der reale und der virtuelle Raum zwei unterschiedliche Koordinatensysteme haben, die zueinander kalibriert werden müssen.
Des Weiteren soll in weiter vorteilhafter Weise auch die Auswertung von „Augen- Gesten" einfließen können, wie z.B. ein- oder mehrmaliger Lidschluss, um damit alleinige oder kombinierte Interaktion mit dem Bildinhalt ohne weitere Hilfsmittel zu ermöglichen.
Denkbar ist der Einsatz weiterer Mittel zur Interaktion, beispielsweise
• Auswahl von Objekten einschließlich bekannter Interaktionselemente wie Schalter (Buttons), Menuelemente etc.,
• Hervorhebung des betrachteten Objektes (durch Veränderung von Farbe, Markierung der Kanten, Aufblenden eines Rahmens etc.),
• Auswahl von Aktionen, die mit solchen Elemente verbunden sind,
• Veränderung des Abbildungsmaßstabes (Zoom),
• Manipulation (z.B. Verschieben, Zoom, Ausführen kontextabhängiger Aktionen wie z.B. Textur- oder Beleuchtungs-Wechsel) der ausgewählten Objekte,
• aktive, kontinuierliche Navigation (ähnlich einem Flugsimulator) in beliebigen Darstellungen: 3D-Szenen, Karten, Bilder, Videos, Text,
• Navigation zum ausgewählten Objekt hin (mit Sprung oder kontinuierlicher Darstellung bis zum Zielpunkt, relativ passiv),
• Navigation durch Links im Sinne von Verkettungen von Daten, Bildern oder Informationen,
• Einblenden von Informationen,
• Auslösen von hinterlegten Animationen, Videos etc.,
• Anbringung von Markierungen am Objekt,
• Einbringen des Blickpunkt-Pfades in die Szene (Malen mit den Augen),
• Hinzufügen neuer Objekte in die Szene am Ort des Blickpunktes, z.B. zeitgesteuert (Verweildauer oder in festen Intervallen) oder aktiv z.B. durch Blinzeln bzw. (auch temporäres) Löschen/Ausblenden von Objekten,
• die Auslösung der Interaktion in Abhängigkeit davon, wie lange der Blick des Betrachters auf einem ausgewählten Objekt ruht,
• Einsatz in kollaborativen 3D-Systemen, wobei mehrere Nutzer ggf. aus unterschiedlichen Positionen auf ein und dasselbe Objekt / ein und dieselbe Szene schauen und durch Blick auf bestimmte Bereiche Interaktionen auslösen, etc.
Beliebige Kombinationen der zuvor aufgeführten Mittel sind denkbar und je nach Bedarf von Vorteil.
An dieser Stelle sei angemerkt, dass die blickgesteuerte Interaktion in Kombination mit anderen Interaktionsprinzipien erfolgen kann. Dazu folgendes:
Verwendet ein Betrachter ein Werkzeug zur Interaktion mit dem Bildobjekt, beispielsweise in Form eines Auswahlvorgangs im virtuellen Bildraum, so wird erwartet, dass genau das Bildobjekt, mit dem interagiert wird, d.h. auf das der Betrachter sowohl seinen Blick als auch das Werkzeug richtet, scharf abgebildet wird, während andere Bildobjekte, die sich in scheinbar in anderer Entfernung zum Betrachter befinden, unscharf davor oder dahinter wahrgenommen werden. Dies ist bei autoste- reoskopischen Anzeigeeinrichtungen nicht zwangläufig gegeben. In vorteilhafter Weise ist daher erkannt worden, dass diese Problematik besonders einfach gelöst werden kann, wenn die Blickrichtung des Betrachters und/oder deren Veränderung aus der realen Welt in die virtuelle Realität abgebildet wird. Diese in den virtuellen Raum übertragene Blickrichtung oder Blickrichtungsveränderung wird dazu genutzt, zumindest eine virtuelle Kamera zu steuern, wobei eine virtuelle Kamera einer dem Betrachter dargestellten Ansicht entspricht. Im Falle einer autostereoskopischen Anzeigeeinrichtung sind mindestens zwei virtuelle Kameras vorzusehen, die die Ansichten für jeweils ein Auge des Betrachters erzeugen. Die Abbildungseigenschaften der virtuellen Kameras in dem virtuellen Raum korrespondieren mit den Abbildungseigenschaften der Augen des Betrachters.
Durch Verwendung virtueller Kameras kann besonders einfach eine Blickrichtungsänderung eines Betrachters auf ein bestimmtes Bildobjekt "virtualisiert" werden. Insbesondere lassen sich die verschiedensten Vorgänge in die virtuelle Realität übertragen. Dabei können die zuvor skizzierten Aspekte, teilweise oder insgesamt, imp-
lementiert oder einzelne Aspekte für die jeweilige Anwendung besonders vorteilhaft realisiert werden. Prinzipiell hängt es vom Aufbau und der Komplexität der Szene mit den verschiedenen Bildobjekten ab, wie die reale Blickrichtung beziehungsweise deren Veränderung mit der Darstellung des betrachteten Bildobjektes in dem virtuellen Bildraum korrespondiert. So kann bei einer Blickrichtungsänderung des Betrachters innerhalb einer Szene mit einer ausgeprägten räumlichen Staffelung vieler Bildobjekte eine sehr fein abgestimmte Anpassung der Abbildungsschärfe des momentan betrachteten Bildobjektes durchgeführt werden. In einer einfach gestalteten Szene ist eine Beschränkung auf eine grobe Anpassung der Abbildungsschärfe eines vordergründigen Bildobjektes oder des Hintergrundes denkbar.
Grundsätzlich ist es für eine möglichst realitätsnahe Abbildung der realen Verhältnisse im virtuellen Bildraum sinnvoll, die Analogien der normalen Akkomodationsvorgänge des menschlichen Auges zu berücksichtigen und dazu entsprechend abzubilden. Dabei ist es prinzipiell unerheblich, für welche Art von Bildobjekten das erfindungsgemäße Verfahren eingesetzt wird. Sie können im Zusammenhang mit computergenerierten Objekten ebenso wie mit Fotografien, Videosequenzen oder dergleichen eingesetzt werden. Vorteilhafterweise wird ein Erfassen der Blickrichtung des Betrachters beziehungsweise deren Veränderung derart erfolgen, dass die Position der Augen des Betrachters erfasst sowie die Winkel der Sehachsen vermessen wird.
Für eine Blickrichtungsdetektion muss der Betrachter mit einer Kamera, vorteilhafter Weise einem Stereo-Kamerasystem, erfasst werden. In mehreren Berechnungsschritten wird die momentane Blickrichtung des Betrachters ermittelt und in eine Position auf der Anzeigeeinrichtung umgerechnet, welcher sich wiederum ein Bildobjekt in der dargestellten Szene zuordnen lässt. Durch eine derartige Bestimmung des momentan betrachteten Bildobjektes können die Ansichten des Betrachters von der dargestellten Szene sehr einfach und direkt bestimmt werden.
Die Darstellung dürfte dann besonders realistisch empfunden werden, wenn die Ansichten des Betrachters in Echtzeit berechnet werden. Dabei kann eine harte oder eine weiche Echtzeit vorliegen. Insbesondere bei schnellen Blickrichtungsänderun-
gen des Betrachters dürfte eine weiche Echtzeit ausreichend sein, da hier beispielsweise fehlende Zwischenbilder nicht zu deutlich wahrgenommen werden.
Zum Erzielen eines möglichst realitätsnahen Eindrucks der Darstellung könnten die Ansichten des Bildobjekts bei Veränderung der Blickrichtung des Betrachters neu berechnet werden. Dabei werden die Blickrichtungsänderungen erfasst, einem betrachteten Objekt im virtuellen Bildraum zugeordnet und zur Steuerung einer oder mehrerer virtueller Kameras genutzt. Damit können die Ansichten der Szene für den Betrachter realitätsnah dargestellt werden.
Die Neuberechnung der Ansichten könnte in einer Ortsfrequenzfilterung ausgewählter Bereiche der Ansichten der Szene bestehen. Die Ortsfrequenz spielt eine wesentliche Rolle bei der Wahrnehmung von Schärfe in einem Bild. Bilder mit niedriger Ortsfrequenz sind unscharf und flächig, Bilder mit hoher Ortsfrequenz sind detail- und kontrastreich und mit betonten Umrissen. Entsprechende Algorithmen zur Ortfrequenzfilterung z.B. durch Fouriertransformation sind aus der Praxis bekannt.
Für Bildobjekte, die sich innerhalb der Szene in der Tiefe kontinuierlich erstrecken, sollte gewährleistet sein, dass auch bei der Berechnung der Ansichten der Bildobjekte die Bildschärfe einen kontinuierlichen Übergang aufweist. In vielen Fällen sind für die Berechnung der neuen Bildinformationen Informationen über die dreidimensionale Beschaffenheit des Objekts notwendig. Dazu könnte ein dreidimensionales Modell des Bildobjekts vorhanden sein. Dieses dreidimensionale Modell könnte auf die verschiedensten Arten realisiert sein. Ist das Bildobjekt beispielsweise als virtuelles Objekt generiert, so werden die dreidimensionalen Informationen sehr wahrscheinlich bereits in einfacher Art vorliegen.
Hier können bekannte Renderingfilter eingesetzt werden, um die Ansichten in der gewünschten Qualität darzustellen. Insbesondere bei besonders realitätsnahen und detailgenauen Darstellungen von Bildobjekten kann relativ schnell die Leistungsfähigkeit der eingesetzten Prozessoren erreicht sein. So kann es innerhalb einer realen Szene mit einer ausgeprägten räumlichen Staffelung vieler Bildobjekte vorteilhaft sein, vorberechnete, mit verschiedenen Ortsfrequenzfiltern bearbeitete Teilbereiche der Ansichten des Bildobjekts, der Fotografien oder der Videosequenzen für unter-
schiedliche Akkomodationsverhältnisse in einem Speicher abzulegen. Diese Daten könnten dann in Abhängigkeit von der aktuellen Blickrichtung des Betrachters aus dem Speicher ausgelesen werden und auf der Anzeigeeinrichtung geeignet dargestellt werden. Um einen flüssigen Übergang zwischen den einzelnen gespeicherten Ansichten erreichen zu können, könnten Zwischenbilder zwischen den abgespeicherten Ansichten auf geeignete Weise - beispielsweise durch Morphing - berechnet werden. Derartige Berechnungsarten sind für sich gesehen ebenfalls aus der Praxis bekannt.
Vorzugsweise kommt das erfindungsgemäße Verfahren im Zusammenhang mit der Darstellung auf einer autostereoskopischen Anzeigeeinrichtung zum Einsatz. Dabei ist es von Vorteil, wenn neben der Berechnung der Ansichten in Abhängigkeit von der Blickrichtung sowie von der Position oder der Bewegung des Betrachters zusätzlich eine genaue Steuerung des Betrachtungswinkels vorgenommen wird. Dies geschieht - wie zuvor beschrieben - durch geeignetes Ansteuern der Leuchtpunkte hinter dem optischen Mittel der autostereoskopischen Anzeigeeinrichtung. Die Anpassung kann als Regelkreis parallel oder sequentiell zu der Neuberechnung der Ansichten durchgeführt werden. Dabei ist wichtig zu berücksichtigen, dass bei der Nachregelung lediglich in einem geringen Bereich Bildpunkte verschoben werden. Eine vollkommene Neuerzeugung von Ansichten des Bildobjekts erfolgt hierbei nicht.
Das erfindungsgemäße Verfahren ist nicht zwangsläufig in Verbindung mit Anzeigeeinrichtungen zur dreidimensionalen Darstellung zu sehen. So ist es auch möglich, einen Standardmonitor zu verwenden und die Ansichten des Bildobjekts monosko- pisch darzustellen. Hier genügt eine virtuelle Ansicht, die lediglich eine Ansicht des Bildobjekts erzeugt. Nach einem anderen Aspekt der Erfindung kann das Verfahren auch zusammen mit einer Auswahleinrichtung eingesetzt werden, die eine Interaktion mit dem Bildobjekt oder Teilen davon erlaubt. Diese Auswahleinrichtung ist vorzugsweise frei im Bildraum bewegbar. Mit dieser Auswahleinrichtung kann das Bildobjekt oder Teile davon ausgewählt, markiert, verschoben, bearbeitet, gedreht oder in anderer Weise beeinflusst werden.
Die Auswahleinrichtung könnte durch ein beliebiges Objekt gebildet sein, dessen dreidimensionale Position und gegebenenfalls Orientierung mittels eines geeigneten
Systems bestimmt wird. Hier könnte beispielsweise ein stereoskopisch arbeitendes Kamerasystem verwendet werden, mit dem das Objekt erfasst wird. Das zu verfolgende Objekt könnte durch einen Stift, ein beliebiges Werkzeug, mit dem der Betrachter mit dem Bildobjekt interagiert, oder dergleichen realisiert sein. Der Betrachter könnte auch einen Finger als Auswahleinrichtung verwenden. Damit kann besonders natürlich mit einzelnen Bereichen des Bildobjekts interagiert werden.
Insbesondere bei autostereoskopischen Anzeigeeinrichtungen scheint das dargestellte Bildobjekt vor der Anzeigeeinrichtung zu schweben. Wählt ein Betrachter einen Punkt des Bildobjekts aus, kann man davon ausgehen, dass er seinen Blick auch auf diesen Punkt richtet. Bei Auswahl eines Punktes des Bildobjekts kann daher bestimmt werden, welche Bildbereiche der Betrachter hinter der Auswahleinrichtung liegend sieht. Diese Bildbereiche entsprechen auch den von der aktuellen Blickrichtung erfassten Bereichen. Dies hat zur Folge, dass zusätzlich zum Einbeziehen der Blickrichtung des Betrachters auch die Position des Betrachters und die Position der Auswahleinrichtung als Informationen zur Steuerung der Neuberechnung von Ansichten des Bildobjekts genutzt werden können.
Wegen den allgemein sehr hohen Anforderungen bei den Neuberechnungen der Ansichten könnte es sinnvoll sein, die Berechnungen nicht lediglich unter Verwendung standardmäßiger Computerprozessoren durchzuführen. Vielfach sind bei der Bilddarstellung für die Anzeigeeinrichtung hochleistungsfähige Grafikprozessoren im Einsatz. Werden die Bildansichten beispielsweise auf einem leistungsfähigen Standardrechner, beispielsweise einem Personal Computer, durchgeführt, so verfügen diese über eine Grafikkarte, die die Bilder für die Anzeigeeinrichtung in geeigneter Form darstellt. Die dort eingesetzten Grafikprozessoren verfügen bereits über geeignete Operationen, um dreidimensionale Transformationen einfacher und schneller durchführen zu können. Derartige Fähigkeiten könnten bei der Umsetzung des Verfahrens geeignet genutzt werden. Zusätzlich könnten Standard-Software- Komponenten, wie beispielsweise DirectX oder OpenGL, verwendet werden. Auch dadurch könnten die Fähigkeiten der entsprechend implementierten Software weiter verbessert und beschleunigt werden.
In Ergänzung zu den voranstellenden Ausführungen sei angemerkt, dass es in Bezug auf unmittelbare Interaktionen von ganz besonderer Bedeutung ist, wenn diese weitestgehend kabel- und gerätefrei auslösbar sind. So lassen sich entsprechende Interaktionen beispielsweise durch akustische Kommandos, Spracheingabe, örtliche und zeitliche Gesten, Blinzeln, Gesichtsausdruck, etc. initiieren.
Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die dem Patentanspruch 1 nachgeordneten Patentansprüche und andererseits auf die nachfolgende Erläuterung dreier Ausführungsbeispiele der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung der bevorzugten Ausführungsbeispiele der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigen
Fig. 1 bis 3 beispielhafte Anordnungen zur Anwendung des erfindungsgemäßen Verfahrens.
Auf einer Anzeigeeinrichtung 1 werden Bildobjekte 2a und 2b dargestellt. Die Anzeigeeinrichtung 1 umfasst eine autostereoskopische Anzeigeeinrichtung, bei der das Bildobjekt 2a zumindest teilweise vor der Anzeigeeinrichtung zu schweben scheint, während Bildobjekt 2b zumindest teilweise im Hintergrund hinter der Anzeigeeinrichtung wahrgenommen wird. Ein Betrachter, dessen Augen 3 in den Figuren angedeutet sind, betrachtet das Bildobjekt 2, das auf der Anzeigeeinrichtung 1 dargestellt wird.
Eine Positionserfassung in Form eines stereoskopisch arbeitenden Kamerasystems ermittelt kontinuierlich die Position der Augen 3 des Betrachters in allen drei Raumrichtungen und seine Blickrichtung. Auf der Anzeigeeinrichtung 1 werden zwei Ansichten des Bildobjekts mit entsprechendem Versatz geeignet dargestellt, sodass vor der Anzeigeeinrichtung 1 ein virtueller dreidimensionaler Bildraum aufgespannt ist. In dem virtuellen Bildraum wird das Bildobjekt 2a scheinbar zumindest teilweise vor der
Anzeigeeinrichtung dargestellt, während das Bildobjekt 2b zumindest teilweise hinter der Anzeigeeinrichtung dargestellt wird.
Die durch die Positions- und Sehwinkelerfassung ermittelte Blickrichtung der Augen 3 des Betrachters wird in den virtuellen Bildraum übertragen. Da eine möglichst realistische Darstellung der Bildobjekte 2a und 2b auf der Anzeigeeinrichtung 1 erzielt werden soll, entspricht diese Blickrichtung in Fig. 1 einer Akkomodation der Augen 3 auf das Bildobjekt 2a. Dieses Bildobjekt wird scharf dargestellt, während das scheinbar weiter entfernte Bildobjekt 2b unscharf erscheint. Eine Veränderung der Blickrichtung der Augen 3 nach rechts hin zum Bildobjekt 2b - dargestellt in Fig. 2 - wird vom System erkannt, und es erfolgt eine Anpassung der Ansichten.
Danach erfolgt die Darstellung entsprechend einer Akkomodation auf Bildobjekt 2b. Das Bildobjekt 2b wird scharf dargestellt während das scheinbar näher liegende Bildobjekt 2a unscharf erscheint. Die durch die beiden virtuellen Kameras erzeugten Ansichten werden wiederum in für die Anzeigeeinrichtung geeignete Bilder umgesetzt und auf der Anzeigeeinrichtung 1 dargestellt.
Fig. 3 zeigt den Fall, wonach ein Bildobjekt 2a mittels einer Auswahleinrichtung 4 markiert wird. Die Auswahleinrichtung 4 ist hier durch einen Finger der Hand des Betrachters gebildet. Der Betrachter hat in dem virtuellen Bildraum einen in Fig. 3 mit einem Kreis gekennzeichneten Bereich 5 markiert. Es wird davon ausgegangen, dass der Betrachter seinen Blick dabei auf die Auswahleinrichtung und auch auf den gekennzeichneten Bereich 5 richtet.
Eine Erfassungseinheit zum Erfassen der Position der Auswahleinrichtung 4 bestimmt zunächst die Position der Auswahleinrichtung in Bezug auf die Anzeigeeinrichtung 1. Unter Verwendung virtueller Kameras kann bestimmt werden, welcher Punkt 5 in dem virtuellen Bildraum durch die Auswahleinrichtung 4 markiert ist. Dieser markierte Bereich 5 entspricht dem Bereich, auf den die Augen des Betrachters beim Auswahlvorgang akkomodiert sind. Ein Teil des Bildobjektes 2a wird scharf dargestellt während scheinbar weiter entfernte Teile des Bildobjektes 2a sowie Bildobjekt 2b unscharf erscheinen. Bei der Berechnung der Ansichten der Bildobjekte 2a und 2b wird also nicht nur die Blickrichtung der Augen 3 des Betrachters berücksich-
tigt, sondern auch der ausgewählte Bereich 5 sowie die Position der Augen 3 des Betrachters als Information verwendet.
Hinsichtlich weiterer vorteilhafter Ausgestaltungen des erfindungsgemäßen Verfahrens wird zur Vermeidung von Wiederholungen auf den allgemeinen Teil der Beschreibung sowie auf die nachfolgenden Patentansprüche verwiesen.
Abschließend sei ganz besonders hervorgehoben, dass die zuvor beschriebenen Ausführungsbeispiele lediglich zur Erörterung der erfindungsgemäßen Lehre dienen, diese jedoch nicht auf die Ausführungsbeispiele einschränken.
Bezugszei chen l iste
1 Anzeigeeinrichtung
2a Bildobjekt
2b Bildobjekt
3 Augen des Betrachters
4 Auswahleinrichtung
5 markierter Bereich
Claims
1. Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, insbesondere zur Erzeugung einer virtuellen Realität im Sinne einer Simulation, d a d u r c h g e k e n n z e i c h n e t, dass die Blickrichtung eines Betrachters des Bildobjekts erfasst und für die Darstellung der Bildobjekte sowie für Interaktionen mit den Bildobjekten berücksichtigt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Blickrichtung des Betrachters in eine Berechnung oder Auswahl von Ansichten des Bildobjekts derart einbezogen wird, dass die reale Blickrichtung des Betrachters und/oder deren Veränderung in den virtuellen Bildraum abgebildet und zur Steuerung mindestens einer virtuellen Kamera genutzt wird, wobei je virtuelle Kamera eine dem Betrachter entsprechende Ansicht des Bildobjekts aufgenommen (gerendert) wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Darstellung der virtuellen Realität die Blickrichtung beider Augen unabhängig voneinander erfasst wird, um einen Konvergenzpunkt im realen wie auch virtuellen Raum zu bestimmen und entsprechend berücksichtigen zu können.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass Blickrichtung und/oder Konvergenzpunkt des Betrachters zur Auswahl von virtuellen Objekten innerhalb des virtuellen Bildraumes herangezogen wird/werden, indem der Schnittpunkt mit virtuellen Bildobjekten oder der Abstand des Konvergenzpunkts zu virtuellen Bildobjekten ausgewertet wird.
5. Verfahren nach einem Ansprüche 1 bis 4, dadurch gekennzeichnet, dass Blickrichtung oder Konvergenzpunkt des Betrachters als alleiniges Mittel zur Interaktion verwendet wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass neben der Blickrichtung oder dem Konvergenzpunkt des Betrachters weitere natür- liche oder technische Hilfsmittel zur Interaktion (beispielsweise Finger, Fuß, Computermaus, etc.) verwendet werden, die zusätzlich eine virtuelle Entsprechung haben können.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Lage der Hilfsmittel in Relation zum Betrachter, seinen Blickvektoren, dem Display und den virtuellen Objekten zur Darstellung der virtuellen Realität berücksichtigt wird, wobei je virtueller Kamera eine separate Darstellung erfolgen kann, ggf. bei Überschneidungen auch in Form und Farbe verändert.
8. Verfahren nach einem der Ansprüche 1 oder 7, dadurch gekennzeichnet, dass zur Darstellung der virtuellen Realität und der Interaktion ein stereoskopisches SD- Display verwendet wird.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass bei der Darstellung der virtuellen Realität die Verteilung der Schärfe der Abbildung der virtuellen Objekte entsprechend ihrer Tiefenstaffelung oder lateral zur Blickrichtung beeinflusst wird.
10. Verfahren nach einem der Ansprüche 5 bis 9, dadurch gekennzeichnet, dass einerseits virtuelle Objekte und andererseits bekannte Interaktionselemente, beispielsweise Schalter (Buttons), Menuelemente, etc., ausgewählt werden.
11. Verfahren nach einem der Ansprüche 6 bis 10, dadurch gekennzeichnet, dass das betrachtete Objekt insbesondere durch Veränderung von Farbe, Markierung der Kanten, Aufblenden eines Rahmens etc. hervorgehoben wird.
12. Verfahren nach einem der Ansprüche 6 bis 11 , dadurch gekennzeichnet, dass Aktionen zum Verbinden funktionaler Elemente bzw. von Interaktionselementen definiert werden.
13. Verfahren nach einem der Ansprüche 6 bis 12, dadurch gekennzeichnet, dass der Abbildungsmaßstab verändert wird.
14. Verfahren nach einem der Ansprüche 6 bis 13, dadurch gekennzeichnet, dass das gesamte Bild, einzelne Bereiche davon oder eines oder mehrere Objekte vergrößert oder verkleinert wird/werden.
15. Verfahren nach einem der Ansprüche 6 bis 14, dadurch gekennzeichnet, dass das gesamte Bild, Bildbereich oder einzelne Objekte manipuliert wird/werden.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Manipulation Funktionen wie Verschieben, Zoomen, Ausführen kontextabhängiger Aktionen, z.B. Textur- oder Beleuchtung-Wechsel der ausgewählten Objekte, umfasst.
17. Verfahren nach einem der Ansprüche 6 bis 16, dadurch gekennzeichnet, dass eine aktive, vorzugsweise kontinuierliche Navigation vorgenommen wird.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass die Navigation in beliebigen Darstellungen, beispielsweise in 3D-Szenen, Karten, Bildern, Videos und Text, erfolgt.
19. Verfahren nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass eine Navigation zum ausgewählten Objekt hin, beispielsweise mit Sprung oder kontinuierlicher Darstellung bis zum Ziel/Objekt, passiv oder aktiv, vorgenommen wird.
20. Verfahren nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, dass Navigation durch Links, vorzugsweise im Sinne einer Verkettung von Daten, Bildern oder sonstigen Informationen, vorgenommen wird.
21. Verfahren nach einem der Ansprüche 6 bis 20, dadurch gekennzeichnet, dass beliebige Informationen, insbesondere in Bezug auf die Objekte und/oder die Interaktionselemente, optisch eingeblendet oder akustisch mitgeteilt werden.
22. Verfahren nach einem der Ansprüche 6 bis 21 , dadurch gekennzeichnet, dass hinterlegte Animationen, Videos, etc. aktiviert bzw. ausgelöst werden.
23. Verfahren nach einem der Ansprüche 6 bis 22, dadurch gekennzeichnet, dass unmittelbar am Objekt Markierungen angebracht werden.
24. Verfahren nach einem der Ansprüche 6 bis 23, dadurch gekennzeichnet, dass ein Blickpunkt-Pfad in die jeweilige Szene, beispielsweise durch Malen bzw. Verfolgen mit den Augen, eingebracht wird.
25. Verfahren nach einem der Ansprüche 6 bis 24, dadurch gekennzeichnet, dass neue Objekte in die Gesamtszene, vorzugsweise am Ort des Blickpunktes, eingefügt werden.
26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass die Einfügung zeitgesteuert, d.h. beispielsweise mit einer vorgebbaren Verweildauer oder in festen Intervallen, erfolgt.
27. Verfahren nach Anspruch 25 oder 26, dadurch gekennzeichnet, dass die Einfügung aktiv, beispielsweise durch Blinzeln, erfolgt.
28. Verfahren nach einem der Ansprüche 6 bis 27, dadurch gekennzeichnet, dass beliebige zusätzliche Eingabeelemente aktiv, beispielsweise durch Blinzeln, realisierbar sind.
29. Verfahren nach einem der Ansprüche 6 bis 28, dadurch gekennzeichnet, dass ein zumindest temporäres Löschen/Ausblenden von Objekten möglich ist.
30. Verfahren nach einem der Ansprüche 6 bis 28, dadurch gekennzeichnet, dass die Auslösung von Interaktionen in Abhängigkeit vom Blick des Betrachters, insbesondere von der zeitabhängigen Fixierung des Blicks des Betrachters auf ein ausgewähltes Objekt, erfolgt.
31. Verfahren nach einem der Ansprüche 6 bis 30, dadurch gekennzeichnet, dass das Verfahren in kollaborativen 3D-Systemen eingesetzt wird, wobei vorzugsweise mehrere Nutzer ggf. aus unterschiedlichen Positionen auf ein und dasselbe Objekt bzw. auf ein und dieselbe Szene schauen und durch Blick auf bestimmte Bereiche oder Objekte Interaktionen auslösen können.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007054898.4 | 2007-11-15 | ||
| DE102007054898 | 2007-11-15 | ||
| DE102007057208.7 | 2007-11-26 | ||
| DE102007057208A DE102007057208A1 (de) | 2007-11-15 | 2007-11-26 | Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| WO2009062492A2 true WO2009062492A2 (de) | 2009-05-22 |
| WO2009062492A3 WO2009062492A3 (de) | 2010-04-22 |
Family
ID=40577148
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/DE2008/001881 Ceased WO2009062492A2 (de) | 2007-11-15 | 2008-11-14 | Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102007057208A1 (de) |
| WO (1) | WO2009062492A2 (de) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10372288B2 (en) | 2011-09-08 | 2019-08-06 | Airbus Defence and Space GmbH | Selection of objects in a three-dimensional virtual scene |
| CN112258612A (zh) * | 2019-08-01 | 2021-01-22 | 北京灵医灵科技有限公司 | 一种基于断层图像的虚拟解剖对象观察方法和系统 |
| WO2024032137A1 (zh) * | 2022-08-12 | 2024-02-15 | 腾讯科技(深圳)有限公司 | 虚拟场景的数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102010010002A1 (de) | 2010-03-02 | 2011-09-08 | Geuder Ag | Verfahren zur Durchführung einer virtuellen Operation zu Trainingszwecken |
| DE102010010001A1 (de) | 2010-03-02 | 2011-09-08 | Geuder Ag | Verfahren zur Entwicklung und virtuellen Erprobung eines chirurgischen Instruments |
| DE102013207528A1 (de) | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt |
| DE102013019200A1 (de) | 2013-11-15 | 2015-05-21 | Audi Ag | Verfahren zum Betreiben eines Bediensystems, Bediensystem und Vorrichtung mit einem Bediensystem |
| DE102014000876B3 (de) * | 2014-01-23 | 2015-01-08 | Heidelberger Druckmaschinen Ag | 3D Digitaler Proof |
| DE102014010309B4 (de) * | 2014-07-11 | 2017-11-23 | Audi Ag | Anzeigen von zusätzlichen Inhalten in einer virtuellen Szenerie |
| DE102016102868B4 (de) | 2016-02-18 | 2024-12-05 | Adrian Drewes | System zur Darstellung von Objekten in einem virtuellen dreidimensionalen Bildraum |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB8701288D0 (en) * | 1987-01-21 | 1987-02-25 | Waldern J D | Perception of computer-generated imagery |
| JPH0749744A (ja) * | 1993-08-04 | 1995-02-21 | Pioneer Electron Corp | 頭部搭載型表示入力装置 |
| US5689628A (en) * | 1994-04-14 | 1997-11-18 | Xerox Corporation | Coupling a display object to a viewpoint in a navigable workspace |
| JP3478606B2 (ja) * | 1994-10-12 | 2003-12-15 | キヤノン株式会社 | 立体画像表示方法および装置 |
| DE59805342D1 (de) | 1997-10-30 | 2002-10-02 | Baldeweg Ag Dr | Verfahren und vorrichtung zur bearbeitung von bildobjekten |
| WO2007097738A2 (en) * | 2005-01-26 | 2007-08-30 | Wollf Robin Q | Eye tracker/head tracker/camera tracker controlled camera/weapon positioner control system |
-
2007
- 2007-11-26 DE DE102007057208A patent/DE102007057208A1/de not_active Ceased
-
2008
- 2008-11-14 WO PCT/DE2008/001881 patent/WO2009062492A2/de not_active Ceased
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10372288B2 (en) | 2011-09-08 | 2019-08-06 | Airbus Defence and Space GmbH | Selection of objects in a three-dimensional virtual scene |
| EP2754298B1 (de) * | 2011-09-08 | 2022-05-18 | Airbus Defence and Space GmbH | Auswahl von objekten in einem dreidimensionalen virtuellen szenario |
| CN112258612A (zh) * | 2019-08-01 | 2021-01-22 | 北京灵医灵科技有限公司 | 一种基于断层图像的虚拟解剖对象观察方法和系统 |
| CN112258612B (zh) * | 2019-08-01 | 2022-04-22 | 北京灵医灵科技有限公司 | 一种基于断层图像的虚拟解剖对象观察方法和系统 |
| WO2024032137A1 (zh) * | 2022-08-12 | 2024-02-15 | 腾讯科技(深圳)有限公司 | 虚拟场景的数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102007057208A1 (de) | 2009-05-28 |
| WO2009062492A3 (de) | 2010-04-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2156410A1 (de) | Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum | |
| WO2009062492A2 (de) | Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum | |
| DE102020110662A1 (de) | Simultane positionsbestimmung und kartenerstellung (slam) für mehrere benutzer | |
| EP1763845B1 (de) | Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten | |
| EP0836332B1 (de) | Positionsadaptiver, autostereoskoper Monitor (PAM) | |
| DE69621148T2 (de) | Dreidimensionales zeichnungssystem und verfahren | |
| DE112016005343T5 (de) | Elektronische Anzeigestabilisierung unter Verwendung von Pixelgeschwindigkeiten | |
| DE112012001022T5 (de) | Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität | |
| DE112016004634T5 (de) | Produktion und Verpsackung von Entertainment-Daten für virtuelle Realität | |
| DE102017107489B3 (de) | Mikroskopanordnung zur Aufnahme und Darstellung dreidimensionaler Bilder einer Probe | |
| EP2977961B1 (de) | Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte | |
| DE102014006732A1 (de) | Bildüberlagerung von virtuellen Objekten in ein Kamerabild | |
| EP3765941B1 (de) | Verfahren und system zur steuerung einer anzeige eines augmented-reality-gerätes und computerprogramm mit instruktionen zur durchführung des verfahrens | |
| DE69837165T2 (de) | Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung | |
| DE102012009257B4 (de) | Verfahren zur Ausführung beim Betreiben eines Mikroskops und Mikroskop | |
| EP3012712A1 (de) | Virtuelles zeichnen in realer umgebung | |
| DE102020104415A1 (de) | Bewegung in einer umgebung | |
| DE102024102915A1 (de) | VORRICHTUNG UND STEUERUNGSVERFAHREN ZUR 3D-ANZEIGE FÜR DAS BLOßE AUGE UND ELEKTRONISCHE EINRICHTUNG | |
| DE102018209377A1 (de) | Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden | |
| DE112019002798T5 (de) | Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm | |
| WO2007056986A1 (de) | Verfahren und anordnung zum monoskopischen darstellen wenigstens eines bereiches eines bildes auf einer autostereoskopischen anzeigevorrichtung sowie informationswiedergabegerät mit einer solchen anordnung | |
| DE102012108249A1 (de) | Verfahren und Vorrichtung zur Verbesserung der Wiedergabe stereoskopischer Bilder | |
| DE102012209917A1 (de) | Überführung von 2D-Eyetracking-Daten in virtuelle 3D-Entwurfswerkzeuge | |
| DE102015100680B4 (de) | Verfahren und Vorrichtungen zur Umgebungsdarstellung | |
| DE102013216858A1 (de) | Verfahren zur Darstellung eines in einem Volumendatensatz abgebildeten Objektes auf einem Bildschirm |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08848787 Country of ref document: EP Kind code of ref document: A2 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 08848787 Country of ref document: EP Kind code of ref document: A2 |