-
VERWEIS AUF VERWANDTE ANMELDUNG
-
Diese Anmeldung beansprucht die Priorität der
chinesischen Patentanmeldung Nr. 202310147812.8 , eingereicht am 21. Februar 2023, deren gesamter Inhalt hiermit durch Verweis aufgenommen wird.
-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft allgemein das Gebiet der dreidimensionalen (3D) Anzeigetechnik, insbesondere eine Vorrichtung und ein Steuerungsverfahren zur 3D-Anzeige für das bloße Auge sowie eine elektronische Einrichtung.
-
TECHNISCHER HINTERGRUND
-
Eine 3D-Anzeige für das bloße Auge kann einen In-Bildschirm-Anzeigeeffekt oder einen Außerhalb-des-Bildschirms-Anzeigeeffekt erzeugen, indem sie die positive und negative Parallaxe eines Bildes mit binokularer Parallaxe anpasst. Bei dem In-Bildschirm-Anzeigeeffekt wird eine vom menschlichen Auge wahrgenommene dreidimensionale Szene hinter dem Anzeigebildschirm dargestellt, d. h., die dreidimensionale Szene und das menschliche Auge befinden sich auf verschiedenen Seiten des Bildschirms. Bei dem Außerhalb-des-Bildschirms-Anzeigeeffekt wird die vom menschlichen Auge wahrgenommene dreidimensionale Szene vor dem Anzeigebildschirm dargestellt, d. h., die dreidimensionale Szene und das menschliche Auge befinden sich auf derselben Seite des Bildschirms. Allerdings ist der derzeitige 3D-Anzeigeeffekt für das bloße Auge weiterhin nicht ideal.
-
ÜBERBLICK ÜBER DIE ERFINDUNG
-
Gemäß der vorliegenden Offenbarung wird ein Steuerungsverfahren zur 3D-Anzeige für das bloße Auge bereitgestellt, welches Erhalten von Bewegungsinformationen eines Anzeigebildschirms, Bestimmen von Lageinformationen des Anzeigebildschirms anhand der Bewegungsinformationen, Bestimmen eines Anzeigemodus und einer Anzeigeposition eines virtuellen Objekts anhand der Lageinformationen und Ausgeben eines virtuellen Bildes des virtuellen Objekts an der Anzeigeposition in dem Anzeigemodus umfasst.
-
Gemäß der vorliegenden Offenbarung wird außerdem ein elektronisches System bereitgestellt, das mindestens einen Prozessor und mindestens einen Speicher aufweist, in dem ausführbare Programmanweisungen gespeichert sind, die bei Ausführung durch den mindestens einen Prozessor den mindestens einen Prozessor dazu veranlassen, Bewegungsinformationen eines Anzeigebildschirms zu erhalten, Lageinformationen des Anzeigebildschirms anhand der Bewegungsinformationen zu bestimmen, einen Anzeigemodus und eine Anzeigeposition eines virtuellen Objekts anhand der Lageinformationen zu bestimmen und ein virtuelles Bild des virtuellen Objekts an der Anzeigeposition in dem Anzeigemodus auszugeben.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
- 1 ist ein schematisches Diagramm des Prinzips einer 3D-Anzeige für das bloße Auge gemäß der vorliegenden Offenbarung.
- 2 ist ein Flussdiagramm eines Steuerungsverfahrens zur 3D-Anzeige für das bloße Auge gemäß der vorliegenden Offenbarung.
- 3 ist ein schematisches Diagramm, das den Betrachtungseffekt vor oder nach dem Bewegen eines Anzeigebildschirms zeigt.
- 4 ist ein schematisches Diagramm, das den Effekt vor oder nach dem Bewegen eines Anzeigebildschirms gemäß der vorliegenden Offenbarung zeigt.
- 5 zeigt eine schematische Positionsbeziehung bei einer Bewegung eines Anzeigebildschirms nahe an einen Benutzer gemäß der vorliegenden Offenbarung.
- 6 zeigt eine weitere schematische Positionsbeziehung bei einer Bewegung eines Anzeigebildschirms nahe an einen Benutzer gemäß der vorliegenden Offenbarung.
- 7 ist ein Flussdiagramm eines weiteren Steuerungsverfahrens zur 3D-Anzeige für das bloße Auge gemäß der vorliegenden Offenbarung.
- 8 ist ein Flussdiagramm, das die Bestimmung von Anzeigeparametern eines virtuellen Objekts gemäß der vorliegenden Offenbarung zeigt.
- 9 ist ein weiteres Flussdiagramm, das die Bestimmung von Anzeigeparametern eines virtuellen Objekts gemäß der vorliegenden Offenbarung zeigt.
- 10 ist ein schematisches Strukturdiagramm einer Steuerungsvorrichtung zur 3D-Anzeige für das bloße Auge gemäß der vorliegenden Offenbarung.
- 11 ist ein schematisches Strukturdiagramm einer elektronischen Einrichtung gemäß der vorliegenden Offenbarung.
-
DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
Konkrete Ausführungsformen der vorliegenden Offenbarung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Die beschriebenen Ausführungsformen sind lediglich Beispiele für die vorliegende Offenbarung, die auf verschiedene Weise umgesetzt werden kann. Die hierin beschriebenen strukturellen und funktionalen Details sollen nicht einschränken, sondern lediglich als Grundlage für die Ansprüche und repräsentative Grundlage für das Lehren eines Fachmanns dienen, die vorliegende Offenbarung in im Wesentlichen jeder geeigneten detaillierten Struktur zu verwenden.
-
Verschiedene Ausführungsformen der vorliegenden Offenbarung können auf eine elektronische Einrichtung mit einer 3D-Anzeigefunktion für das bloße Auge angewendet werden. Die vorliegende Offenbarung beschränkt die Produkttypen der elektronischen Einrichtung nicht, die elektronische Einrichtung kann unter anderem ein Smartphone, ein Tablet, eine Wearable-Einrichtung, ein Personal Computer (PC) oder ein Netbook sein, die je nach den Anforderungen der Anwendung ausgewählt werden können.
-
Die vorliegende Offenbarung stellt ein Steuerungsverfahren zur 3D-Anzeige für das bloße Auge bereit. Wie in 2 gezeigt, welche ein Flussdiagramm eines Steuerungsverfahrens zur 3D-Anzeige für das bloße Auge darstellt, das von einer Ausführungsform der vorliegenden Offenbarung bereitgestellt wird, kann das Verfahren in einer Ausführungsform die Schritte S201 bis S204 umfassen.
-
In S201 werden Bewegungsinformationen eines Anzeigebildschirms erhalten.
-
Der Anzeigebildschirm kann ein 3D-Anzeigebildschirm für das bloße Auge sein. Bei der Verwendung der 3D-Anzeige für das bloße Auge können Benutzer bei langer Betrachtungszeit ermüden oder sie können aktiv die Position oder Lage des 3D-Anzeigebildschirms für das bloße Auge anpassen, um den ihrer Meinung nach komfortabelsten Betrachtungszustand zu erreichen. Während der Bewegung des Anzeigebildschirms kann es, um den Benutzern ein echteres und natürlicheres visuelles Erlebnis bereitzustellen, nötig sein, eine Verarbeitung dynamisch entsprechend der Bewegung des Anzeigebildschirms durchzuführen. Daher kann es nötig sein, zunächst die Bewegungsinformationen des Anzeigebildschirms zu erhalten.
-
In einer Ausführungsform können die Bewegungsinformationen des Anzeigebildschirms durch einen am Anzeigebildschirm installierten Sensor erhalten werden, um die Genauigkeit der erfassten Bewegungsinformationen zu gewährleisten und zuverlässige und genaue Grunddaten für nachfolgende zugehörige Verarbeitungen bereitzustellen. Der am Anzeigebildschirm installierte Sensor kann unter anderem einen Beschleunigungssensor, einen Verschiebungssensor und/oder einen Bildsensor umfassen. Der Bildsensor kann über dem Anzeigebildschirm angeordnet sein, was nicht nur für den täglichen Gebrauch praktisch ist, sondern auch das Betrachtungsfeld des Bildsensors erweitert. Somit können Algorithmen auf Objekte in aufgenommenen Bildern angewendet werden, um die Bewegungsinformationen des Anzeigebildschirms genau zu bestimmen.
-
In S202 werden Lageinformationen des Anzeigebildschirms anhand der Bewegungsinformationen bestimmt.
-
Die Bewegungsinformationen können Daten darstellen, die der Sensor während der Bewegung des Anzeigebildschirms erfasst hat. Die Lage (z. B. Position und/oder Ausrichtung) des Anzeigebildschirms kann nicht direkt anhand dieser Bewegungsinformationen bestimmt werden. Es kann nötig sein, Algorithmen zu verwenden, um die Messdaten entsprechend zu verarbeiten oder zu berechnen, um die Lageinformationen des Anzeigebildschirms zu bestimmen. Für von verschiedenen Arten von Sensoren erfasste Daten können verschiedene Verarbeitungsalgorithmen verwendet werden, das endgültige Ergebnis kann jedoch die Lageinformationen des Anzeigebildschirms sein.
-
Nachdem die Lageinformationen des Anzeigebildschirms im aktuellen Zyklus erhalten wurden, können durch Kombinieren mit den Lageinformationen des Anzeigebildschirms in einem vorherigen Zyklus die Lageveränderungsinformationen des Anzeigebildschirms bestimmt werden. Zum Beispiel können der Abstand und die Richtung, in der sich der Anzeigebildschirm in diesem Zyklus bewegt hat, bestimmt werden, um zu bestimmen, wie Anzeigemodus und Anzeigeposition eines virtuellen Objekts anzupassen sind.
-
In S203 werden ein Anzeigemodus und eine Anzeigeposition eines virtuellen Objekts anhand der Lageinformationen bestimmt.
-
In einer Ausführungsform kann der Anzeigemodus unter anderem einen In-Bildschirm-Anzeigemodus und einen Außerhalb-des-Bildschirms-Anzeigemodus umfassen. Die Anzeigeposition kann eine Anzeigeposition des virtuellen Objekts relativ zum Anzeigebildschirm darstellen, jedoch nicht die räumliche Präsentationsposition des virtuellen Objekts. In dieser Offenbarung wird die Seite des Bildschirms, auf der sich der Benutzer (das menschliche Auge) befindet, auch als äußere Seite des Bildschirms bezeichnet und die Seite des Bildschirms, die der äußeren Seite gegenüberliegt, wird auch als innere Seite des Bildschirms bezeichnet. Der In-Bildschirm-Anzeigemodus kann sich auf einen Anzeigemodus beziehen, bei dem sich das virtuelle Objekt auf der inneren Seite des Bildschirms befindet. Der Außerhalb-des-Bildschirms-Anzeigemodus kann sich auf einen Anzeigemodus beziehen, bei dem sich das virtuelle Objekt auf der äußeren Seite des Bildschirms befindet. Zum Beispiel kann die Anzeigeposition eine Position auf der inneren Seite des Anzeigebildschirms 50 Zentimeter vom Bildschirm entfernt sein. In einem anderen Beispiel kann die Anzeigeposition eine Position auf der äußeren Seite des Anzeigebildschirms 20 Zentimeter vom Bildschirm entfernt sein.
-
In einigen Beispielen sind der Anzeigemodus der auf der 3D-Anzeige für das bloße Auge dargestellten virtuellen Szene und die Anzeigeposition relativ zum Anzeigebildschirm fest. Das heißt, die virtuelle Szene ist an den Anzeigebildschirm gebunden und Veränderungen der Position des Anzeigebildschirms verursachen keine Änderung des Anzeigemodus und der Anzeigeposition des virtuellen Objekts. Daher bewegt sich die virtuelle Szene mit dem Anzeigebildschirm, wenn sich die Lage des Anzeigebildschirms verändert. Der Anzeigebildschirm kann als Fenster in einem dreidimensionalen Raum aufgefasst werden. Während der Bewegung des Fensters kann das angezeigte virtuelle Objekt bzw. die angezeigte Szene nur an einer festen Position auf einer Seite des Anzeigebildschirms dargestellt werden. Der Betrachtungseffekt vor und nach einer solchen Fensterbewegung ist in 3 dargestellt. Das dem Benutzer dargebotene Betrachtungserlebnis ist nicht echt genug und kann die natürliche Anmutung von 3D nicht widerspiegeln. Gemäß der vorliegenden Offenbarung können der Anzeigemodus und die Anzeigeposition des virtuellen Objekts oder der virtuellen Szene dynamisch anhand der Lageinformationen des Anzeigebildschirms angepasst werden. So kann während der Bewegung des Bildschirms, d. h. des Fensters, in die Richtung weg vom Betrachter die räumliche Position des virtuellen Objekts im Wesentlichen unverändert bleiben. Nur das Fenster bewegt sich rückwärts und das virtuelle Objekt kann bei diesem Prozess das Fenster „durchtreten“. Das ursprünglich hinter dem Fenster befindliche virtuelle Objekt kann sich nun vor dem Fenster befinden. Das heißt, der entsprechende Anzeigemodus kann von der ursprünglichen In-Bildschirm-Anzeige zur Außerhalb-des-Bildschirms-Anzeige wechseln. Ein solcher Betrachtungseffekt vor und nach der Bewegung des Anzeigebildschirms ist in 4 dargestellt.
-
In S204 wird ein virtuelles Bild des virtuellen Objekts an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus ausgegeben.
-
Nachdem der Anzeigemodus und die Anzeigeposition des virtuellen Objekts bestimmt wurden, kann das virtuelle Objekt direkt derart gesteuert werden, dass es an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus ausgegeben wird. Dementsprechend können während der Bewegung des Anzeigebildschirms die Außerhalb-des-Bildschirms-Anzeige oder die In-Bildschirm-Anzeige der 3D-Anzeige für das bloße Auge entsprechend den Bewegungsinformationen des Anzeigebildschirms dynamisch angepasst werden und die Anzeigeposition der angezeigten Inhalte kann sich ebenfalls ändern. Zwar kann sich die Anzeigeposition des virtuellen Objekts während der Bewegung des Anzeigebildschirms ändern und der Anzeigemodus kann sich ebenfalls ändern, die räumliche Präsentationsposition des virtuellen Objekts kann jedoch unverändert bleiben, was den Benutzern den Eindruck vermittelt, dass nur der Anzeigebildschirm sich bewegt, und den gesamten Prozess natürlicher und echter macht.
-
Um eine flüssige und kontinuierliche Anzeige der Inhalte der 3D-Anzeige für das bloße Auge zu gewährleisten, sollte der Ausführungszyklus der oben genannten Prozesse nicht zu groß sein, zum Beispiel kann er auf 0,2 Sekunden eingestellt sein. Der Ausführungszyklus kann basierend auf einer umfassenden Berücksichtigung der Leistung der Einrichtung und der Anforderungen an Anwendungsszenarien bestimmt werden. Weiterhin ist in allen Beispielen für die Bewegung des Anzeigebildschirms, die in den Ausführungsformen dieser Offenbarung angegeben sind, die Bewegungsstrecke des Anzeigebildschirms in aufeinanderfolgenden Zyklen relativ groß. Dies bedeutet nicht, dass der Anzeigebildschirm in tatsächlichen Anwendungen innerhalb eines Zyklus eine so große Strecke zurücklegt. Wenn das virtuelle Objekt sich innerhalb eines Zyklus tatsächlich um mehrere Dezimeter bewegt, kann der Anzeigeeffekt des virtuellen Objekts ruckeln. Diese Ausführungsformen dienen nur als Veranschaulichungsbeispiele der vorliegenden Offenbarung.
-
Im von der vorliegenden Offenbarung bereitgestellten Steuerungsverfahren zur 3D-Anzeige für das bloße Auge können die Lageinformationen des Anzeigebildschirms bei der Bewegung des Anzeigebildschirms bestimmt werden und die Anzeigeparameter des virtuellen Objekts können gemäß Veränderungen der Lageinformationen dynamisch angepasst werden. Daher kann der Präsentationseffekt mit den Bewegungsinformationen des Anzeigebildschirms als Ganzes stimmig sein, was das 3D-Betrachtungserlebnis des Betrachters echter und natürlicher macht und das Betrachtungserlebnis des Benutzers verbessert.
-
Es können verschiedene Verfahren zum Bestimmen des Anzeigemodus und der Anzeigeposition eines virtuellen Objekts anhand der Lageinformationen vorkommen.
-
In einer Ausführungsform kann das Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Lageinformationen umfassen: Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Lageinformationen des Anzeigebildschirms im vorherigen Zyklus und von Daten über die Veränderung der Lageinformationen im aktuellen Zyklus.
-
In der vorliegenden Ausführungsform kann die Bestimmung des Anzeigemodus und der Anzeigeposition des virtuellen Objekts lediglich auf Daten über den Unterschied zwischen den vorherigen und aktuellen Lageinformationen des Anzeigebildschirms basieren. Das allgemeine Prinzip kann darin bestehen, die räumliche Präsentationsposition und die Präsentationsgröße des virtuellen Objekts unverändert zu lassen. Nach diesem Prinzip ist es möglich, dass der Benutzer, wenn der Anzeigebildschirm sich nur in der Vorwärts- und Rückwärtsrichtung des Anzeigebildschirms bewegt, nur die Vorwärts- und Rückwärtsbewegung des Anzeigebildschirms wahrnimmt, die Position des betrachteten virtuellen Objekts im Raum jedoch unverändert bleibt.
-
Zum Beispiel kann sich der Anzeigebildschirm im vorherigen Zyklus an der ersten Position befunden haben. Im aktuellen Zyklus kann festgestellt werden, dass sich der Anzeigebildschirm 10 cm näher an die Benutzerseite bewegt hat. Dementsprechend kann die tatsächliche räumliche Präsentationsposition des virtuellen Objekts unverändert bleiben, das virtuelle Objekt kann sich jedoch relativ zum Anzeigebildschirm um ungefähr 10 cm in eine Richtung weg vom Betrachter bewegen und sich dann an der zweiten Position befinden. 5 ist ein schematisches Diagramm, das die Positionsbeziehung zeigt, wenn der Anzeigebildschirm sich näher an den Benutzer bewegt. In der in 5 gezeigten Szene kann vor der Bewegung des Anzeigebildschirms der Außerhalb-des-Bildschirms-Anzeigemodus verwendet werden. Der Abstand zwischen dem Anzeigebildschirm und dem virtuellen Objekt kann 30 cm betragen. Nachdem der Anzeigebildschirm bewegt wurde, kann weiterhin der Außerhalb-des-Bildschirms-Anzeigemodus verwendet werden, der Abstand zwischen dem Anzeigebildschirm und dem virtuellen Objekt kann jedoch kleiner werden, z. B. 20 cm betragen. Während dieses Prozesses kann die räumliche Präsentationsposition des virtuellen Objekts unverändert bleiben und nur die Position des Anzeigebildschirms sich verändern.
-
In dieser Ausführungsform können andere Einflussfaktoren, wie der Betrachter und das virtuelle Objekt, unberücksichtigt bleiben und der Anzeigemodus und die Anzeigeposition des virtuellen Objekts können nur anhand der Daten über den Positionsunterschied vor und nach Bewegung des Anzeigebildschirms bestimmt werden. Der Datenverarbeitungsaufwand insgesamt kann gering sein und die Reaktionszeit kann kurz sein. Das Verfahren kann für Anwendungen geeignet sein, die eine hohe Reaktionsgeschwindigkeit erfordern.
-
In einer anderen Ausführungsform kann das Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Lageinformationen umfassen: Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus und der Lageinformationen.
-
In der vorliegenden Ausführungsform kann das allgemeine Prinzip weiterhin darin bestehen, die räumliche Präsentationsposition und die Präsentationsgröße des virtuellen Objekts unverändert zu lassen, die Umsetzung kann sich jedoch von der vorherigen Ausführungsform unterscheiden. In der vorliegenden Ausführungsform kann die räumliche Präsentationsposition des virtuellen Objekts ausgehend von der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus durch eine Koordinatensystemumwandlung bestimmt werden. Nachdem die neuesten Lageinformationen im aktuellen Zyklus bestimmt wurden, können der Anzeigemodus und die Anzeigeposition des virtuellen Objekts anhand der räumlichen Präsentationsposition bestimmt werden.
-
Zum Beispiel kann das virtuelle Objekt im vorherigen Zyklus im In-Bildschirm-Modus angezeigt werden und die Anzeigeposition kann 10 cm vom Anzeigebildschirm entfernt sein. Die Weltkoordinaten des Anzeigebildschirms können bekannt sein und die räumliche Präsentationsposition des virtuellen Objekts kann nach einer Koordinatensystemumwandlung bestimmt werden. Dann kann sich der Anzeigebildschirm bewegen. Die tatsächliche Bewegungsbahn kann 25 cm näher an der Benutzerseite liegen. Basierend auf der relativen Beziehung zwischen den jüngsten Lageinformationen in diesem Zyklus und der räumlichen Präsentationsposition kann bestimmt werden, dass der Anzeigemodus des virtuellen Objekts zur Außerhalb-des-Bildschirms-Anzeige wechselt und die Anzeigeposition kann 15 cm vom Anzeigebildschirm entfernt sein. 6 ist ein schematisches Diagramm, das die Positionsbeziehung bei einer Bewegung eines Anzeigebildschirms näher an den Benutzer entsprechend dem obigen Beispiel zeigt. Vor und nach der Bewegung des Anzeigebildschirms kann der Anzeigemodus des virtuellen Objekts von der In-Bildschirm-Anzeige zur Außerhalb-des-Bildschirms-Anzeige wechseln und die Anzeigeposition kann sich ebenfalls von 10 cm zum Bildschirm auf der inneren Seite des Bildschirms zu 15 cm vom Bildschirm auf der äußeren Seite des Bildschirms ändern.
-
In der vorliegenden Ausführungsform können der Anzeigemodus und die Anzeigeposition des virtuellen Objekts im aktuellen Zyklus durch gleichzeitige Kombination der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus und der Lageinformationen bestimmt werden. Die Algorithmusverarbeitung kann etwas komplizierter sein als bei der vorherigen Ausführungsform, in welcher die entsprechenden Daten nur anhand der Lageinformationen bestimmt wurden, während die Bestimmungsergebnisse genauer sein können. In tatsächlichen Anwendungen können geeignete Verfahren ausgewählt werden, um den Anzeigemodus und die Anzeigeposition des virtuellen Objekts gemäß den Anforderungen an die Verwendung der Szene zu bestimmen.
-
Eine weitere Ausführungsform der vorliegenden Offenbarung stellt auch ein weiteres Steuerungsverfahren zur 3D-Anzeige für das bloße Auge bereit. Wie in 7 dargestellt, welches ein Flussdiagramm eines Steuerungsverfahrens zur 3D-Anzeige für das bloße Auge gemäß der vorliegenden Ausführungsform ist, umfasst das Verfahren folgende Prozesse.
-
In S701 werden die Bewegungsinformationen des Anzeigebildschirms erhalten.
-
In S702 werden die Lageinformationen des Anzeigebildschirms anhand der Bewegungsinformationen bestimmt.
-
In S703 wird eine Augenposition eines ersten Benutzers vor dem Anzeigebildschirm erhalten.
-
In S704 werden der Anzeigemodus und die Anzeigeposition des virtuellen Objekts anhand der Augenposition und der Lageinformationen erhalten.
-
In S705 wird ein virtuelles Bild des virtuellen Objekts an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus ausgegeben.
-
Im Allgemeinen kann die Bewegung des Anzeigebildschirms während der Verwendung eine Bewegung weg vom Betrachter und eine Bewegung nahe an den Betrachter umfassen. Daher kann in der vorliegenden Ausführungsform auch die Augenposition des ersten Benutzers vor dem Anzeigebildschirm erhalten werden. Nachdem die Augenposition bestimmt wurde, kann anschließend der Abstand zwischen der Augenposition und dem Anzeigebildschirm erhalten werden, der zur anschließenden Bestimmung des Anzeigemodus und der Anzeigeposition des virtuellen Objekts verwendet werden kann.
-
In einer Ausführungsform kann zunächst ein Bild des Kopfes des ersten Benutzers vor dem Anzeigebildschirm durch eine auf dem Anzeigebildschirm installierte Kamera aufgenommen werden und dann kann die Position des Auges des Benutzers oder der Abstand zwischen dem Auge des Benutzers und dem Anzeigebildschirm auf Grundlage des Bilderkennungsalgorithmus bestimmt werden. Der Abstand und die Richtung des Auges des Benutzers vom Anzeigebildschirm können auf Grundlage des Bilderkennungsalgorithmus bestimmt werden. Die Position des Auges des Benutzers kann basierend auf der bekannten Position des Anzeigebildschirms bestimmt werden, nachdem der Abstand und die Richtung des Auges des Benutzers vom Anzeigebildschirm bestimmt wurden. In einer anderen Ausführungsform kann ein Augenbewegungsalgorithmus direkt verwendet werden, um die räumliche Position des Auges des Benutzers zu ermitteln.
-
In der vorliegenden Ausführungsform wird nicht nur die Bewegung des Anzeigebildschirms, sondern auch die Bewegung des Benutzers berücksichtigt. Wenn Auge und Körper des Benutzers während der Betrachtung der 3D-Anzeige für das bloße Auge ermüden, kann der Benutzer seinen Körper nach hinten bewegen, um sich an den Stuhlrücken zu lehnen, und die Anzeige vorwärts ziehen oder die Anzeige zurückschieben. Daher können die Augenposition und die Lageinformationen kombiniert werden, um den Anzeigemodus und die Anzeigeposition des virtuellen Objekts zu bestimmen, was umfassender ist und für eine Vielzahl von Anwendungsszenarien geeignet ist.
-
Das spezifische Verfahren zum Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Augenposition und der Lageinformationen wird in späteren Ausführungsformen detailliert vorgestellt und an dieser Stelle nicht ausführlich beschrieben.
-
Im von der vorliegenden Ausführungsform bereitgestellten Steuerungsverfahren zur 3D-Anzeige für das bloße Auge können Szenen, in denen sich das Auge des Benutzers bewegt, berücksichtigt werden. Durch die Kombination der Augenbewegung mit der Bewegung des Anzeigebildschirms können der Anzeigemodus und die Anzeigeposition des virtuellen Objekts umfassend bestimmt werden. Das Gesamtverarbeitungsergebnis kann humaner sein, um Benutzern in einer Vielzahl von Anwendungsszenarien echte und natürliche 3D-Anzeigeeffekte bereitzustellen.
-
In einer in 8 gezeigten Ausführungsform, die ein Flussdiagramm einer Bestimmung der Anzeigeparameter des virtuellen Objekts ist, kann das Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Augenposition und der Lageinformationen folgende Prozesse umfassen.
-
In S801 werden Informationen über eine relative Positionsveränderung des Anzeigebildschirms relativ zum Auge anhand der Augenposition und der Lageinformationen bestimmt.
-
In S802 werden der Anzeigemodus und die Anzeigeposition des virtuellen Objekts anhand der Informationen über die relative Positionsveränderung bestimmt.
-
Die vorliegende Ausführungsform berücksichtigt weder die Augenposition des Benutzers noch die spezifische Bewegungsrichtung und den Abstand des Anzeigebildschirms, sondern nur ihre relativen Positionsveränderungen zwischen dem vorherigen Zyklus und diesem Zyklus. Der Anzeigemodus und die Anzeigeposition des virtuellen Objekts können anhand der relativen Position zwischen der Augenposition des Benutzers und dem Anzeigebildschirm bestimmt werden.
-
Wenn der Abstand zwischen der Augenposition des Benutzers und dem Anzeigebildschirm zunimmt, kann sich die Anzeigeposition des virtuellen Objekts relativ zum Anzeigebildschirm in eine Richtung näher an den Benutzer hin bewegen. Wenn der Abstand zwischen der Augenposition des Benutzers und dem Anzeigebildschirm abnimmt, kann sich die Anzeigeposition des virtuellen Objekts relativ zum Anzeigebildschirm in eine Richtung weg vom Benutzer bewegen.
-
In einem Beispiel kann der Abstand zwischen dem Anzeigebildschirm und dem Auge des Benutzers vor der Bewegung 50 cm betragen und der Abstand zwischen dem Anzeigebildschirm und dem Auge des Benutzers nach der Bewegung 70 cm betragen. Beim Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts braucht nicht berücksichtigt zu werden, wie sich der Anzeigebildschirm bewegt oder wie sich das Auge des Benutzers bewegt, und der Anzeigemodus und die Anzeigeposition des virtuellen Objekts in diesem Zyklus können lediglich anhand der Informationen über die relative Positionsveränderung und der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus bestimmt werden.
-
In einer weiteren Ausführungsform, die in 9 gezeigt ist, welche ein Flussdiagramm einer Bestimmung der Anzeigeparameter des virtuellen Objekts ist, kann das Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Augenposition und der Lageinformationen folgende Prozesse umfassen.
-
In S901 wird die räumliche Präsentationsposition des virtuellen Objekts anhand der Augenposition und eines voreingestellten Anzeigeeffekts des virtuellen Objekts bestimmt.
-
In S902 werden der Anzeigemodus und die Anzeigeposition des virtuellen Objekts anhand der räumlichen Präsentationsposition und der Lageinformationen bestimmt.
-
In dieser Ausführungsform ist es möglich, dass insgesamt nicht berücksichtigt wird, wie sich der Anzeigebildschirm und das Auge des Benutzers bewegen. Nachdem die Position des Auges des Benutzers bestimmt wurde, kann die Anzeigeposition des virtuellen Objekts anhand des im System voreingestellten Anzeigeeffekts des virtuellen Objekts bestimmt werden. Wenn der Präsentationseffekt des virtuellen Objekts derart im System voreingestellt ist, dass er den ersten Abstand zwischen dem virtuellen Objekt und dem Auge des Benutzers umfasst, kann zum Beispiel die räumliche Präsentationsposition des virtuellen Objekts bestimmt werden, nachdem die Position des Auges des Benutzers bestimmt wurde. Wenn die räumliche Präsentationsposition des virtuellen Objekts und die Lageinformationen des Anzeigebildschirms bestimmt worden sind, können ferner der Anzeigemodus und die Anzeigeposition des virtuellen Objekts bestimmt werden.
-
In einem Beispiel beträgt die Voreinstellung des Systems für den Abstand zwischen dem virtuellen Objekt und dem Auge des Benutzers 2 Meter. Wenn die Position des Auges des Benutzers bestimmt worden ist, kann die räumliche Präsentationsposition des virtuellen Objekts bestimmt werden. In diesem Fall beträgt der Abstand zwischen dem Anzeigebildschirm und dem Auge des Benutzers 1,5 Meter. Daher kann bestimmt werden, dass der Anzeigemodus des virtuellen Objekts eine In-Bildschirm-Anzeige ist und die Anzeigeposition 0,5 Meter innerhalb des Bildschirms liegt. Selbstverständlich dient dieses Beispiel nur zur Veranschaulichung der vorliegenden Offenbarung und schränkt den Umfang der vorliegenden Offenbarung nicht ein.
-
In dieser Ausführungsform können der Anzeigemodus und die Anzeigeposition des virtuellen Objekts unter Bezug auf den im System voreingestellten Anzeigeeffekt des virtuellen Objekts bestimmt werden. Dies gewährleistet, dass der Betrachtungseffekt des Benutzers grundsätzlich in einem stabilen Zustand gehalten wird, unabhängig davon, wie sich das Auge des Benutzers und/oder der Anzeigebildschirm bewegen. Der Komfort des Benutzers bei der Verwendung von 3D-Anzeigen für das bloße Auge kann gewährleistet werden.
-
In verschiedenen Ausführungsformen kann der Anzeigemodus die In-Bildschirm-Anzeige und die Außerhalb-des-Bildschirms-Anzeige umfassen. Dementsprechend kann das Ausgeben des virtuellen Bildes des virtuellen Objekts an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus umfassen: wenn der Abstand zwischen der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, und der Augenposition größer ist als der Abstand zwischen dem Anzeigebildschirm und der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, Verwenden des In-Bildschirm-Anzeigemodus, um das virtuelle Bild des virtuellen Objekts an der Anzeigeposition auszugeben; und, wenn der Abstand zwischen der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, und der Augenposition kleiner ist als der Abstand zwischen dem Anzeigebildschirm und der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, Verwenden des Außerhalb-des-Bildschirms-Anzeigemodus, um das virtuelle Bild des virtuellen Objekts an der Anzeigeposition auszugeben.
-
Wenn der Abstand zwischen der räumlichen Präsentationsposition des virtuellen Objekts und dem Auge des Benutzers größer ist als der Abstand zwischen der räumlichen Präsentationsposition und dem Anzeigebildschirm, kann sich der Anzeigebildschirm zwischen der räumlichen Präsentationsposition und dem Auge des Benutzers befinden. Daher kann nur der In-Bildschirm-Anzeigemodus verwendet werden, um das virtuelle Bild derart anzuzeigen, dass das vom Benutzer betrachtete virtuelle Objekt weiter vom Anzeigebildschirm entfernt ist. Wenn der Abstand zwischen der räumlichen Präsentationsposition des virtuellen Objekts und dem Auge des Benutzers kleiner ist als der Abstand zwischen der räumlichen Präsentationsposition und dem Anzeigebildschirm, kann sich der Anzeigebildschirm zwischen der räumlichen Präsentationsposition und dem Auge des Benutzers befinden. Daher kann nur die Außerhalb-des-Bildschirms-Anzeige verwendet werden, um das virtuelle Bild derart anzuzeigen, dass das vom Benutzer betrachtete virtuelle Objekt nahe am Anzeigebildschirm ist.
-
In tatsächlichen Anwendungsszenarien können außerdem mehrere Benutzer vor der 3D-Anzeige für das bloße Auge vorhanden sein. In diesem Fall kann es notwendig sein, den ersten Benutzer aus den mehreren Benutzern zu bestimmen, und anschließende relevante Beurteilungen oder Verarbeitungen anhand der Augenposition des ersten Benutzers vorzunehmen, um den Anzeigemodus und die Anzeigeposition des virtuellen Objekts zu bestimmen. Eine Vielzahl von Umsetzungen kann verwendet werden, um den ersten Benutzer aus den mehreren Benutzern zu bestimmen. Zum Beispiel kann in einer Ausführungsform ein Benutzer im besten Betrachtungsbereich vor dem Anzeigebildschirm als der erste Benutzer bestimmt werden. In einer anderen Ausführungsform kann basierend auf vorgespeicherten Bildern von autorisierten Benutzern ein autorisierter Benutzer aus mehreren Benutzern als der erste Benutzer bestimmt werden. Die vorliegende Offenbarung beschränkt das Verfahren zum Bestimmen des ersten Benutzers nicht speziell.
-
In der vorliegenden Offenbarung können die Lageinformationen des Anzeigebildschirms während der Bewegung des Anzeigebildschirms bestimmt werden und die Anzeigeparameter des virtuellen Objekts können dynamisch anhand der Veränderung der Lageinformationen angepasst werden. Daher kann das 3D-Betrachtungserlebnis des Betrachters echter und lebensechter sein, was das Betrachtungserlebnis des Benutzers verbessert.
-
Die vorstehenden Verfahrensausführungsformen wurden der einfachen Beschreibung halber alle als Reihe von Aktionskombinationen ausgedrückt. Der Fachmann weiß jedoch, dass die vorliegende Offenbarung nicht durch die beschriebene Aktionsabfolge beschränkt ist. Gemäß dieser Offenbarung können Prozesse in anderen Reihenfolgen oder gleichzeitig durchgeführt werden. Außerdem weiß der Fachmann, dass die in der Beschreibung beschriebenen Ausführungsformen bevorzugte Ausführungsformen sind und die beteiligten Aktionen und Module für die vorliegende Offenbarung nicht unbedingt notwendig sind.
-
Die vorliegende Offenbarung stellt auch eine Steuerungsvorrichtung zur 3D-Anzeige für das bloße Auge bereit. In einer Ausführungsform, wie in 10 gezeigt, welche das Strukturdiagramm der Steuerungsvorrichtung 100 zur 3D-Anzeige für das bloße Auge ist, umfasst die Vorrichtung 100:
- ein Informationsbezugsmodul 1001, das dazu eingerichtet ist, Bewegungsinformationen des Anzeigebildschirms zu erhalten;
- ein Lagebestimmungsmodul 1002, das dazu eingerichtet ist, anhand der Bewegungsinformationen Lageinformationen des Anzeigebildschirms zu bestimmen;
- ein Anzeigebestimmungsmodul 1003, das dazu eingerichtet ist, anhand der Lageinformationen einen Anzeigemodus und eine Anzeigeposition eines virtuellen Objekts zu bestimmen; und
- ein Anzeigeausgabemodul 1004, das dazu eingerichtet ist, ein virtuelles Bild des virtuellen Objekts an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus auszugeben.
-
Bei der von der vorliegenden Offenbarung bereitgestellten Steuerungsvorrichtung zur 3D-Anzeige für das bloße Auge können bei Bewegung des Anzeigebildschirms die Lageinformationen des Anzeigebildschirms bestimmt werden und die Anzeigeparameter des virtuellen Objekts dynamisch anhand der Veränderung der Lageinformationen angepasst werden. Daher kann das 3D-Betrachtungserlebnis des Betrachters echter und lebensechter sein, was das Betrachtungserlebnis des Benutzers verbessert.
-
In einer Ausführungsform kann das Anzeigebestimmungsmodul dazu eingerichtet sein, die Anzeigeposition und den Anzeigemodus des virtuellen Objekts anhand der Lageinformationen des Anzeigebildschirms im vorherigen Zyklus und der Daten über die Veränderung der Lageinformationen im aktuellen Zyklus zu bestimmen.
-
In einer Ausführungsform kann das Anzeigebestimmungsmodul dazu eingerichtet sein, die Anzeigeposition und den Anzeigemodus des virtuellen Objekts anhand der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus und der Lageinformationen zu bestimmen.
-
In einer Ausführungsform kann die Steuerungsvorrichtung zur 3D-Anzeige für das bloße Auge ferner ein Augenbestimmungsmodul aufweisen, das dazu eingerichtet ist, eine Augenposition eines ersten Benutzers vor dem Anzeigebildschirm zu erhalten. Dementsprechend kann das Anzeigebestimmungsmodul dazu eingerichtet sein, die Anzeigeposition und den Anzeigemodus des virtuellen Objekts anhand der Augenposition und der Lageinformationen zu bestimmen.
-
In einer Ausführungsform kann das Anzeigebestimmungsmodul dazu eingerichtet sein, Informationen über die relative Positionsveränderung des Anzeigebildschirms in Bezug auf das Auge anhand der Augenposition und der Lageinformationen zu bestimmen und die Anzeigeposition und den Anzeigemodus des virtuellen Objekts anhand der Anzeigeposition des virtuellen Objekts im vorherigen Zyklus und der Informationen über die relative Positionsveränderung zu bestimmen.
-
In einer Ausführungsform kann das Anzeigebestimmungsmodul dazu eingerichtet sein, eine räumliche Präsentationsposition des virtuellen Objekts anhand der Augenposition und eines voreingestellten Präsentationseffekts des virtuellen Objekts zu bestimmen und die Anzeigeposition und den Anzeigemodus des virtuellen Objekts anhand der räumlichen Präsentationsposition und der Lageinformationen zu bestimmen.
-
In einer Ausführungsform kann der Anzeigemodus die In-Bildschirm-Anzeige und die Außerhalb-des-Bildschirms-Anzeige umfassen. Dementsprechend kann das Anzeigeausgabemodul dazu eingerichtet sein, wenn der Abstand zwischen der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, und der Augenposition größer ist als der Abstand zwischen dem Anzeigebildschirm und der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, den In-Bildschirm-Anzeigemodus zu verwenden, um das virtuelle Bild des virtuellen Objekts an der Anzeigeposition auszugeben; und, wenn der Abstand zwischen der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, und der Augenposition kleiner ist als der Abstand zwischen dem Anzeigebildschirm und der räumlichen Präsentationsposition, die der Anzeigeposition entspricht, den Außerhalb-des-Bildschirms-Anzeigemodus zu verwenden, um das virtuelle Bild des virtuellen Objekts an der Anzeigeposition auszugeben.
-
In einer Ausführungsform kann das Informationsbezugsmodul dazu eingerichtet sein, die Bewegungsinformationen des Anzeigebildschirms basierend auf einem Sensor am Anzeigebildschirm zu erhalten. Der Sensor kann unter anderem einen Beschleunigungssensor, einen Verschiebungssensor und/oder einen Bildsensor umfassen.
-
Die Beschreibung der oben genannten Vorrichtungsausführungsformen ist der Beschreibung der oben genannten Verfahrensausführungsformen ähnlich und kann ähnliche vorteilhafte Effekte wie die Verfahrensausführungsformen aufweisen. Für technische Details, die in den Vorrichtungsausführungsformen nicht offenbart sind, kann auf die Beschreibung der Verfahrensausführungsformen Bezug genommen werden.
-
Die Steuerungsvorrichtung zur 3D-Anzeige für das bloße Auge kann einen Prozessor und einen Speicher aufweisen. Das Informationsbezugsmodul, das Lagebestimmungsmodul, das Anzeigebestimmungsmodul, das Anzeigeausgabemodul oder das Augenbestimmungsmodul können als Programmmodule in dem Speicher gespeichert sein. Der Prozessor kann die oben genannten Programmmodule ausführen, um die entsprechenden Funktionen umzusetzen.
-
Der Prozessor kann einen oder mehrere Kernels aufweisen und die einen oder mehreren Kernels können dazu eingerichtet sein, entsprechende Programmmodule im Speicher aufrufen. Die Kernelparameter können angepasst werden, um eine Verarbeitung der Rückrufdaten zu erreichen.
-
Der Speicher kann nichtflüchtigen Speicher in einem computerlesbaren Medium, einen Direktzugriffsspeicher (RAM) und/oder einen nichtflüchtigen Speicher in Form von Nur-Lese-Speicher (ROM) oder Flash-Speicher (Flash-RAM) umfassen. Der Speicher kann mindestens einen Speicherchip aufweisen.
-
Dementsprechend stellt eine Ausführungsform der vorliegenden Offenbarung ein computerlesbares Speichermedium bereit, auf dem Softwarecodes gespeichert sind. Das Medium kann direkt in einen internen Speicher eines Computers geladen werden. Wenn das Computerprogramm vom Computer geladen und ausgeführt wird, können beliebige der in den oben genannten Ausführungsformen beschriebenen Verfahren umgesetzt werden.
-
Dementsprechend stellt eine Ausführungsform der vorliegenden Offenbarung ein Computerprogrammprodukt bereit, das direkt in einen internen Speicher eines Computers ladbar ist. Wenn das Computerprogrammprodukt vom Computer geladen und ausgeführt wird, können beliebige der in den oben genannten Ausführungsformen beschriebenen Verfahren umgesetzt werden.
-
Die vorliegende Offenbarung stellt auch eine elektronische Einrichtung zur Umsetzung des in den obigen Verfahrensausführungsformen beschriebenen Steuerungsverfahrens bereit. 11 ist ein Strukturdiagramm einer von einer Ausführungsform der vorliegenden Offenbarung bereitgestellten elektronischen Einrichtung. Wie in 11 gezeigt, weist die elektronische Einrichtung 110 mindestens einen Prozessor 1101, mindestens einen mit dem mindestens einen Prozessor verbundenen Speicher 1102 und einen Bus 1103 auf. Die Kommunikation zwischen dem mindestens einen Prozessor 1101 und dem mindestens einen Speicher 1102 kann über den Bus 1103 erfolgen. Der mindestens eine Prozessor 1101 kann dazu eingerichtet sein, Programmanweisungen, die in dem mindestens einen Speicher gespeichert sind, auszuführen, um Schritte beliebiger der Verfahren in den Ausführungsformen der vorliegenden Offenbarung umzusetzen.
-
Die Programmanweisungen können umfassen: Erhalten der Bewegungsinformationen des Anzeigebildschirms; Bestimmen der Lageinformationen des Anzeigebildschirms anhand der Bewegungsinformationen; Bestimmen des Anzeigemodus und der Anzeigeposition des virtuellen Objekts anhand der Lageinformationen; und Ausgeben des virtuellen Bildes des virtuellen Objekts an der bestimmten Anzeigeposition in dem bestimmten Anzeigemodus.
-
Die oben genannten Computerspeichermedien/Speicher können Nur-Lese-Speicher (ROM), programmierbarer Nur-Lese-Speicher (PROM), löschbarer programmierbarer Nur-Lese-Speicher (EPROM), elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), ferromagnetischer Direktzugriffsspeicher (FRAM), Flash-Speicher, Magnetoberflächenspeicher, optische Scheiben oder CD-ROMs sein. Die oben genannten Computerspeichermedien/Speicher können auch verschiedene elektronische Einrichtungen umfassen, einschließlich eines der oben genannten Speichers oder einer beliebigen Kombination davon, beispielsweise Mobiltelefone, Computer, Tablet-Einrichtungen oder persönliche digitale Assistenten.
-
Alle Ausführungsformen in dieser Beschreibung werden auf progressive Weise beschrieben und jede Ausführungsform konzentriert sich auf den Unterschied zu anderen Ausführungsformen. Gleiche und gleichartige Teile von Ausführungsformen können aufeinander Bezug nehmen. Da die in den Ausführungsformen offenbarte Einrichtung dem in den Ausführungsformen offenbarten Verfahren entspricht, ist ihre Beschreibung relativ einfach und für relevante Details kann auf die Beschreibung der Verfahrensausführungsformen Bezug genommen werden.
-
Einheiten und Algorithmusschritte der in Verbindung mit den vorliegend offenbarten Ausführungsformen beschriebenen Beispiele können durch elektronische Hardware, Computersoftware oder eine Kombination der beiden umgesetzt werden. Um die mögliche Austauschbarkeit von Hardware und Software deutlich zu veranschaulichen, wurden in der obigen Beschreibung die Zusammensetzung und die Schritte jedes Beispiels allgemein anhand ihrer jeweiligen Funktion beschrieben. Ob diese Funktion durch Hardware oder Software ausgeführt wird, hängt von der konkreten Anwendung und den Entwurfsbeschränkungen der technischen Lösung ab. Der Fachmann kann zur Umsetzung der beschriebenen Funktionen für jede konkrete Anwendung unterschiedliche Verfahren verwenden, eine solche Umsetzung soll jedoch nicht als Verlassen des Umfangs der vorliegenden Offenbarung angesehen werden.
-
In der vorliegenden Offenbarung sind die Zeichnungen und Beschreibungen der Ausführungsformen veranschaulichend und nicht einschränkend. In der gesamten Beschreibung der Ausführungsformen identifizieren gleiche Bezugszeichen in den Zeichnungen die gleichen Strukturen. Darüber hinaus können Figuren die Dicke mancher Schichten, Filme, Bildschirme, Bereiche usw. übertreiben, um das Verständnis und die Beschreibung zu erleichtern. Es versteht sich außerdem, dass, wenn ein Element wie eine Schicht, ein Film, ein Bereich oder ein Substrat als „auf“ einem anderen Element bezeichnet wird, es direkt auf dem anderen Element angeordnet sein kann oder dazwischenliegende Elemente vorhanden sein können. Darüber hinaus bezeichnet „auf“ das Positionieren eines Elements auf oder unter einem anderen Element, bedeutet jedoch nicht unbedingt das Positionieren auf der oberen Seite eines anderen Elements entsprechend der Richtung der Schwerkraft.
-
Die Ausrichtung oder Positionsbeziehung, die durch die Begriffe „obere(r)“, „untere(r)“, „oben“, „unten“, „innere(r)“, „äußere(r)“ usw. angegeben wird, basiert auf der Ausrichtung bzw. Positionsbeziehung, die in den Zeichnungen dargestellt ist, und dient lediglich der Einfachheit der Beschreibung der vorliegenden Offenbarung, anstatt anzudeuten oder zu implizieren, dass die Einrichtung bzw. das Element, auf welche(s) verwiesen wird, eine spezifische Ausrichtung aufweisen muss oder in einer spezifischen Ausrichtung konstruiert sein und betrieben werden muss, und kann daher nicht als Einschränkung der vorliegenden Offenbarung ausgelegt werden. Wenn gesagt wird, dass eine Komponente mit einer anderen Komponente „verbunden“ ist, kann sie direkt mit der anderen Komponente verbunden sein oder es kann dabei eine dazwischenliegende Komponente vorhanden sein.
-
Es sollte auch beachtet werden, dass bei diesem Gegenstand relationale Begriffe wie „erste(r)“ und „zweite(r)“ nur verwendet werden, um eine Entität oder einen Bedienvorgang von einer anderen Entität bzw. einem anderen Bedienvorgang zu unterscheiden, und nicht notwendigerweise erfordern oder implizieren, dass eine solche tatsächliche Beziehung oder Reihenfolge dieser Entitäten bzw. Bedienvorgänge besteht. Darüber hinaus sollen die Begriffe „umfasst“, „weist auf“ sowie sämtliche andere Variationen davon eine nicht ausschließende Einbeziehung abdecken, sodass ein Gegenstand oder eine Einrichtung, welche(r) eine Reihe von Elementen aufweist, nicht nur diese Elemente aufweist, sondern auch andere Elemente, die nicht ausdrücklich aufgeführt sind. Oder er/sie weist auch Elemente auf, die dem Gegenstand bzw. der Ausrüstung inhärent sind. Ohne weitere Einschränkung schließt ein Element, das mit dem Ausdruck „umfasst ein ...“ oder „weist ein ... auf“ in Verbindung steht, die Anwesenheit von anderen identischen Elementen in einem Gegenstand oder einer Einrichtung, die das oben genannte Element aufweist, nicht aus.
-
Die offenbarte Ausrüstung und die offenbarten Verfahren können auf andere Weise umgesetzt werden. Die oben beschriebenen Einrichtungsausführungsformen sind lediglich veranschaulichend. Zum Beispiel ist die Aufteilung der Einheiten nur eine logische Funktionsaufteilung. Bei der tatsächlichen Umsetzung können andere Aufteilungsverfahren genutzt werden, zum Beispiel können mehrere Einheiten oder Komponenten kombiniert oder in ein anderes System integriert werden oder manche Merkmale können ignoriert werden oder nicht umgesetzt werden. Darüber hinaus kann die Kopplung, direkte Kopplung oder Kommunikationsverbindung zwischen den gezeigten oder diskutierten Komponenten durch Schnittstellen erfolgen und die indirekte Kopplung oder Kommunikationsverbindung der Einrichtungen oder Einheiten kann elektrisch, mechanisch oder in anderer Form vorliegen.
-
Die oben als getrennte Komponenten beschriebenen Einheiten können physisch getrennt sein oder auch nicht. Die als Einheiten gezeigten Komponenten können physische Einheiten sein oder auch nicht. Sie können sich an einem einzigen Ort befinden oder auf mehrere Netzwerkeinheiten verteilt sein. Einige oder alle Einheiten können gemäß tatsächlichen Bedürfnissen ausgewählt werden, um die Lösung der Aufgabe der vorliegenden Offenbarung zu erreichen.
-
Darüber hinaus können alle funktionalen Einheiten in den Ausführungsformen der vorliegenden Offenbarung in eine einzige Verarbeitungseinheit integriert sein oder jede Einheit kann getrennt als eine Einheit verwendet werden oder zwei oder mehr Einheiten können in eine Einheit integriert sein. Die oben genannten Integrationseinheiten können in Form von Hardware umgesetzt werden oder in Form von funktionalen Einheiten aus Software sowie Hardware.
-
Alle oder ein Teil der Schritte zur Umsetzung der obigen Verfahrensausführungsformen können durch Hardware, die mit Programmanweisungen in Zusammenhang steht, vervollständigt werden. Das vorgenannte Programm kann auf einem computerlesbaren Speichermedium gespeichert sein. Bei Ausführung des Programms können die Schritte, die die oben genannten Verfahrensausführungsformen umfassen, ausgeführt werden. Die vorgenannten Speichermedien können umfassen: entfernbare Speichereinrichtungen, ROMs, Magnetscheiben, optische Scheiben oder andere Medien, die Programmcodes speichern können.
-
Wenn die oben in der vorliegenden Offenbarung erwähnten integrierten Einheiten in Form von Softwarefunktionsmodulen umgesetzt und als unabhängige Produkte verkauft oder verwendet werden, können sie auch auf einem computerlesbaren Speichermedium gespeichert sein. Auf diesem Verständnis beruhend können die technischen Lösungen, die im Wesen den Ausführungsformen der vorliegenden Offenbarung entsprechen, oder diejenigen, die zum Stand der Technik beitragen, in Form von Softwareprodukten verkörpert werden. Die Computersoftwareprodukte können auf einem Speichermedium gespeichert sein und eine Reihe von Anweisungen zum Anweisen des Produkts dazu umfassen, alle oder einen Teil der in verschiedenen Ausführungsformen der vorliegenden Offenbarung beschriebenen Verfahren durchzuführen. Die oben genannten Speichermedien können umfassen: Direktzugriffsspeicher (RAM), Nur-Lese-Speicher (ROM), elektrisch programmierbaren ROM, elektrisch löschbaren programmierbaren ROM, Register, Festplatten, mobile Speichereinrichtungen, CD-ROMs, Magnetscheiben, optische Scheiben oder andere Medien, die Programmcodes speichern können.
-
Es wurden verschiedene Ausführungsformen beschrieben, um die Betriebsprinzipien und Umsetzungsbeispiele zu veranschaulichen. Der Fachmann versteht, dass die vorliegende Offenbarung nicht auf die vorliegend beschriebenen spezifischen Ausführungsformen beschränkt ist und dass ihm verschiedene andere offensichtliche Änderungen, Umstellungen und Ersetzungen in den Sinn kommen, die den Umfang der vorliegenden Offenbarung nicht verlassen. Somit wurde die vorliegende Offenbarung zwar im Detail unter Bezugnahme auf die oben beschriebenen Ausführungsformen beschrieben, die vorliegende Offenbarung ist jedoch nicht auf die oben beschriebenen Ausführungsformen beschränkt, sondern kann in anderen äquivalenten Formen verkörpert werden, ohne den Umfang der vorliegenden Offenbarung zu verlassen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-