[go: up one dir, main page]

DE102014225222B4 - Bestimmung der Position eines HMD relativ zum Kopf des Trägers - Google Patents

Bestimmung der Position eines HMD relativ zum Kopf des Trägers Download PDF

Info

Publication number
DE102014225222B4
DE102014225222B4 DE102014225222.9A DE102014225222A DE102014225222B4 DE 102014225222 B4 DE102014225222 B4 DE 102014225222B4 DE 102014225222 A DE102014225222 A DE 102014225222A DE 102014225222 B4 DE102014225222 B4 DE 102014225222B4
Authority
DE
Germany
Prior art keywords
data glasses
wearer
head
vehicle
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014225222.9A
Other languages
English (en)
Other versions
DE102014225222A1 (de
Inventor
Matthias Roland Kaufmann
Michael Graef
Wolfgang Spießl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014225222.9A priority Critical patent/DE102014225222B4/de
Publication of DE102014225222A1 publication Critical patent/DE102014225222A1/de
Application granted granted Critical
Publication of DE102014225222B4 publication Critical patent/DE102014225222B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Bestimmen der Position einer Datenbrille (1) relativ zum Kopf des Trägers, umfassend:Erfassen der Position eines physischen Merkmals des Kopfes (5a, 5b, 7) des Trägers der Datenbrille (1) relativ zu einem Fahrzeug;Erfassen der Position der Datenbrille (1) relativ zum Fahrzeug;Bestimmen der Position der Datenbrille (1) relativ zum Kopf des Trägers, insbesondere den Augen des Trägers (5a, 5b), basierend auf der erfassten Position des physischen Merkmals und der Position der Datenbrille (1).

Description

  • Die Erfindung betrifft ein Verfahren zum Bestimmen der Position einer Datenbrille relativ zum Kopf des Trägers sowie ein entsprechendes System.
  • Heutzutage sind Datenbrillen (manchmal auch Head-mounted Displays, HMD, genannt) bekannt, mit deren Hilfe dem Träger der Datenbrille Informationen angezeigt werden können. Die Datenbrille wird dabei wie eine gewöhnliche Brille, die als Sehhilfe verwendet wird, auf dem Kopf getragen. Gegenüber einer gewöhnlichen Brille umfasst die Datenbrille jedoch eine Anzeige, die beim Tragen der Datenbrille nahe dem oder den Augen des Benutzers angeordnet ist. Die Anzeige kann dabei zwei Teilanzeigen umfassen, eine für jedes Auge. Auf der Anzeige können dem Benutzer Informationen in Form von Text, graphischen Darstellungen oder Mischungen davon angezeigt werden. Die Anzeige kann insbesondere teildurchlässig sein, also so ausgestaltet sein, dass der Träger auch die Umgebung hinter der Anzeige erkennen kann. Besonders bevorzugt werden dem Träger die Informationen kontaktanalog angezeigt, was manchmal auch als Augmented Reality bezeichnet wird. Dabei wird dem Träger der Datenbrille die Information an einem Ort angezeigt, der an dem Ort eines Objektes in der Umgebung orientiert ist, also beispielsweise an das Objekt angrenzend oder dieses überlagernd. Zur Realisierung der Kontaktanalogie, muss typischerweise die Position des Objektes in der Umgebung, die Pose der Datenbrille in Relation zum Objekt sowie die Pose der Datenbrille zu den Augen bzw. dem Kopf des Trägers bekannt sein. Pose beschreibt hier sowohl die (dreidimensionale) Position der Datenbrille als auch die Ausrichtung (hierin auch Orientierung oder Drehung genannt) in bis zu drei Raumrichtungen der Datenbrille.
  • Datenbrillen können insbesondere in Fahrzeugen genutzt werden, um kontaktanaloge Informationen anzuzeigen. Diese Informationen können andere Verkehrsteilnehmer, Objekte im Umfeld des Fahrzeugs oder Objekte im Fahrzeug betreffen. Um kontaktanaloge Informationen anzeigen zu können, muss in den meisten Fällen auch hier die Pose der Datenbrille zu den Augen bzw. dem Kopf des Trägers bekannt sein.
  • Bekannt sind Inertialsensoren (Beschleunigung, Gyroskop, Magnetometer), die eine relative Orientierung eines elektronischen Geräts, u.a. auch typischerweise Datenbrillen, bestimmen können.
  • Weiterhin sind Verfahren zur Optical See Through Kalibration für kontaktanaloge Augmented Reality Anzeigen, z.B. Single-Point active alignment method (SPAAM) for optical see-through HMD calibration for augmented reality, bekannt, wie in „Single-Point active alignment method (SPAAM) for optical see-through HMD calibration for augmented reality", Tuceryan et al, Presence: Teleoperators and Virtual Environments, Volume 11 Issue 3, June 2002 beschrieben.
  • Es sind Datenbrillen bekannt geworden, die ebenfalls jeweils eine Kamera umfassen, die insbesondere empfindlich für Infrarotlicht ist und die Aufnahmen in Blickrichtung des Trägers der Datenbrille macht, siehe beispielsweise WO 2013/012914 A2 .
  • Die kontaktanaloge Anzeige erfordert neben der Kenntnis der Pose der Datenbrille und der Position und manchmal auch Orientierung des Objektes auch eine Bestimmung von Position und manchmal auch Orientierung der Datenbrille (beides zusammen hierin auch Pose genannt) auf dem Kopf des Trägers relativ zum Kopf oder Auge. Zusätzlich können weitere Parameter, wie der Augenabstand, zur Verbesserung der kontaktanalogen Anzeige bestimmt werden. Die Orientierung der Datenbrille bezieht sich auf ein gekipptes oder schiefes Aufsetzen oder Verrutschen der Datenbrille. Die Position kann für einen zentralen Punkt der Brille bestimmt werden. Mithilfe des Wissens über die Position und ggf. auch Orientierung der Datenbrille wird die kontaktanaloge Anzeige überhaupt erst ermöglicht oder wesentlich verbessert.
  • Zusätzliche Einflüsse auf die Qualität einer kontaktanalogen Anzeige sind unter Anderem nicht identische sowie nicht statische Brennweiten, nicht euklidisch, planare virtuelle Anzeigen (z.B. radial verzerrte, virtuelle Bilder), optische Verzerrungen der Anzeige.
  • Selbst nach einer Bestimmung der Position und ggf. auch Orientierung der Datenbrille auf dem Kopf des Trägers ist eine erneute Bestimmung bzw. Nachverfolgung der Position und ggf. auch Orientierung der Datenbrille relativ zum Kopf oder Auge des Trägers immer nötig bei: jedem neuen Träger; jedem Neu-Aufsetzen; jeder Verstellung der Brillenposition auf dem Kopf.
  • Die Dokumente US 2012/0068913 A1 und US 2013/0038510 A1 erläutern den technologischen Hintergrund.
  • Der Erfindung liegt die Aufgabe zugrunde, die Position und ggf. auch Orientierung einer Datenbrille in Bezug auf den Kopf des Trägers für den Träger komfortabel zu bestimmen und nachzuführen.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen definiert.
  • Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Bestimmen der Position einer Datenbrille relativ zum Kopf des Trägers, umfassend: Erfassen der Position eines physischen Merkmals des Kopfes des Trägers der Datenbrille relativ zu einem Fahrzeug; Erfassen der Position der Datenbrille relativ zum Fahrzeug; Bestimmen der Position der Datenbrille relativ zum Kopf des Trägers, insbesondere den Augen des Trägers, basierend auf der erfassten Position des physischen Merkmals und der Position der Datenbrille. Das physische Merkmal kann ein durch Bildverarbeitung gut identifizierbares Merkmal in Kameraaufnahmen sein, insbesondere Kanten, Endpunkte von Gesichtsfalten oder (Infrarot)Reflexionen, sog. Glints, in einem Auge aufgrund künstlicher (Infrarot)Beleuchtung.
  • Hierin wird also vorgeschlagen, die für augmented reality Darstellungen notwendige Bestimmung der Position der Datenbrille relativ zum Kopf des Trägers indirekt auszuführen. Dazu werden die Position der Augen bzw. des Kopfes und die Position der Datenbrille jeweils relativ zum Fahrzeug bestimmt. Aus diesen beiden Positionsbestimmungen wird dann die Position der Datenbrille relativ zu den Augen bzw. zum Kopf des Trägers bestimmt (Kalibrierung). Die Kalibrierung wird nachfolgend typischerweise zur Erzeugung einer kontaktanalogen Darstellung verwendet.
  • Das Verfahren erlaubt somit bei wechselnden Brillenträgern oder dem Neu-Aufsetzen der Brille eine schnelle, unkomplizierte und dennoch exakte Kalibrierung der Absolut- und Relativausrichtung Brille zu Auge/Kopf durchzuführen. Gleichzeitig wird ermöglicht, dass bei sich ändernder Positionierung der Datenbrille auf dem Kopf (z.B. Neujustage der Brille, Rutschen etc.) dies online (d.h. dauerhaft im Hintergrund) erfasst und die Kalibrierung nachgeführt werden kann. Die Erfindung ermöglicht die Durchführung dieser Kalibration in der Art und Weise, dass diese vom Träger weder aktiv wahrgenommen noch durchgeführt wird. Hierdurch wird die Akzeptanz von Datenbrillen verbessert.
  • Die Position der Datenbrille wird typischerweise mithilfe von Tracking Systeme ermittelt. Ein „outside-in tracking“ genanntes System basiert auf Sensorik im Fahrzeug zur Ermittlung der Position oder Pose einer Datenbrille im Fahrzeug. Beispielsweise erkennt ein Kamerasystem im Fahrzeuginnenraum aktive (emittierende) oder passive (reflektierende) Infrarotmarker an der Datenbrille und errechnet daraus die Position der Datenbrille. Ein „inside-out tracking“ genanntes System basiert auf Sensorik in der Datenbrille zur Ermittlung der Pose der Datenbrille im Fahrzeug. Ein solches System verwendet beispielsweise eine in der Datenbrille umfasste Kamera, um aktive oder passive (Infrarot)marker im Fahrzeuginnenraum zu erkennen.
  • Ferner kann die Datenbrille Beschleunigungs- und Drehratensensoren umfassen, um die Pose zu bestimmen oder fortzuschreiben. Ebenfalls denkbar ist die Erzeugung eines Magnetfeldes im Fahrzeug, das mit Sensoren der Datenbrille erfasst wird, um deren Pose zu bestimmen.
  • Die Position des Kopfes und insbesondere der Augen des Trägers der Datenbrille wird typischerweise mithilfe eines im Fahrzeuginnenraum installierten Kamerasystems aus einer oder mehreren Kameras bestimmt, die auch zu anderen Zwecken die Kopfposition durch ein „Tracking Verfahren“ aufzeichnen können. Das Kamerasystem nimmt den Kopf des Fahrers auf und ermittelt mithilfe von im Stand der Technik bekannten Verfahren die Position des Kopfes. In manchen Implementierungen wird die Augenposition mithilfe von Glints, also Reflexionen von künstlichen Infrarotquellen bestimmt.
  • Das Verfahren kann auch derart ausgestaltet sein, dass anstelle der Position die Pose der Datenbrille und des physischen Merkmals relativ zum Fahrzeug, also jeweils zusätzlich zur Position die Orientierung, erfasst werden. Dies ermöglicht, dass nicht nur die Position der Datenbrille relativ zum Kopf bestimmt wird, sondern auch die Orientierung (also insgesamt die Pose der Datenbrille relativ zum Kopf des Trägers der Datenbrille). Durch die Ermittlung der Pose der Datenbrille relativ zum Kopf wird eine genauere augmented reality Darstellung ermöglicht, in der der räumliche Bezug der Darstellung zum zu markierenden Objekt genauer ist. Mit anderen Worten: Das Verfahren umfasst ferner: Erfassen der Orientierung eines physischen Merkmals des Kopfes des Trägers der Datenbrille relativ zu einem Fahrzeug; Erfassen der Orientierung der Datenbrille relativ zum Fahrzeug; Bestimmen der Position und Orientierung der Datenbrille relativ zum Kopf des Trägers, insbesondere den Augen des Trägers, basierend auf der erfassten Position und Orientierung des physischen Merkmals und der Position und Orientierung der Datenbrille. Das Verfahren wird also so ausgestaltet, dass zum Erfassen der Position des physischen Merkmals des Kopfes ein Sensor des Fahrzeugs verwendet wird; wobei der Sensor des Fahrzeugs insbesondere ein Kamerasystem, insbesondere ein Kamerasystem, das im Infrarotbereich des Lichts betrieben wird, ist, und wobei mithilfe des Kamerasystems die Position eines oder beider Augen des Trägers der Datenbrille und/oder die Position des Gesichts des Trägers der Datenbrille erkannt wird.
  • Um eine kontaktanaloge Darstellung zu ermöglichen kann das Verfahren ferner umfassen: Bestimmen der Position eines zu markierenden Objektes im Umfeld des Fahrzeugs; wobei die anzuzeigende Darstellung zur Markierung des Objektes im Umfeld des Fahrzeugs ausgebildet ist; Wobei die Position des zu markierenden Objektes bei der Anzeige der Darstellung berücksichtigt wird. Die Position des Objektes im Umfeld des Fahrzeugs wird mithilfe von Fahrzeugsensorik wie Radar, Lidar oder Kameras erfasst. Verfahren hierzu sind im Stand der Technik bekannt.
  • Ein anderer Aspekt der Erfindung betrifft ein System umfassend eine Datenbrille mit Kamera, ein Fahrzeug mit Kamera und Rechenmittel; wobei das System dazu eingerichtet ist, eines der oben dargestellten Verfahren auszuführen.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
    • 1 zeigt schematisch eine Datenbrille in einem Fahrzeug gemäß einem Ausführungsbeispiel.
    • 2 zeigt ein Ablaufdiagramm gemäß einem Ausführungsbeispiel.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • 1 zeigt schematisch eine Datenbrille 1 gemäß einem Ausführungsbeispiel. Die Datenbrille sitzt auf der Nase 7 des Trägers der Datenbrille auf und umfasst eine halbtransparente Anzeige mit den Teilanzeigen 2a und 2b, jeweils für das linke bzw. rechte Auge 5b bzw. 5a. Weiterhin umfasst die Datenbrille 1 eine Kamera 3, sowie eine Verarbeitungseinheit 4, die über eine Signalleitung mit den beiden Anzeigen 2a und 2b sowie der Kamera 3 verbunden ist. In manchen Implementierungen ist die Verarbeitungseinheit 4 separat von der Datenbrille und die Übertragung findet über eine längere Signalleitung oder drahtlos statt.
  • Die Datenbrille 1 umfasst ferner die Kamera 3, die in Richtung der zentralen Blickrichtung Aufnahmen bereitstellt, wenn der Träger der Datenbrille bestimmungsgemäß trägt. Auch die Kamera 3 ist mit der Verarbeitungseinheit 4 verbunden. Die Kamera 3 ist entsprechend der Symmetrieachse der Datenbrille ausgerichtet. Die Verarbeitungseinheit 4 empfängt im Betrieb fortlaufend die Aufnahmen der Kamera 3. Die Kamera 3 dient zur Bestimmung der Pose der Datenbrille relativ zum Fahrzeug, wobei die Pose durch eine dreidimensionale Raumposition und eine dreidimensionale Orientierung bestimmt wird (XFB YFB, ZFB, ALPHAFB, BETAFB, GAMMAFB). Dazu wird beispielsweise die Position und Orientierung von erkannten Elementen (Form des Armaturenbretts, Anordnung einer zentralen Fahrzeuganzeige, etc.) des Innenraums in den Aufnahmen der Kamera ausgewertet. Zur Bestimmung der Pose relativ zum Fahrzeug werden die im vornherein gespeicherten Positionen und Orientierungen der Elemente des Innenraums mit den erkannten Positionen und Orientierungen verglichen, Schritt S2 in 2. Verfahren hierzu sind im Stand der Technik bekannt.
  • Die Datenbrille 1 befindet sich in einem Fahrzeug (nicht dargestellt), das eine Kamera 4 zur Bestimmung der Kopfposition umfasst. Die Aufnahmen der Kamera 4 werden von einer Verarbeitungseinheit 6 des Fahrzeugs ausgewertet. Dabei wird die Position der Nase 7 und der Augen 5a und 5b in den Aufnahmen der Kamera 4 erkannt und daraufhin ausgewertet wie die Kopfpose relativ zum Fahrzeug ist, Schritt S1 in 2. Die Kopfpose wird wiederum durch eine dreidimensionale Raumposition und Raumorientierung angegeben (XFA, YFA, ZFA, ALPHAFA, BETAFA, GAMMAFA). Ergänzend oder alternativ kann auch nur die Augenposition und / oder der Augenabstand bestimmt werden, beispielsweise durch die Aufnahme von Glints oder der Erkennung der Pupille.
  • Die erkannte Pose oder Position des Kopfes des Trägers der Datenbrille wird über eine drahtlose Verbindung (WiFi, Bluetooth) von der Verarbeitungseinheit 6 an die Verarbeitungseinheit 4 gesendet.
  • Der Verarbeitungseinheit 4 liegen damit die Posen der Datenbrille und des Kopfes relativ zum Fahrzeug vor. Aus diesen beiden Posen errechnet die Verarbeitungseinheit 4 die Pose der Datenbrille relativ zum Kopf des Trägers insbesondere relativ zu den Augen des Trägers, Schritt S3 in 2. Dies kann beispielsweise durch Bestimmung der Transformation (Rotation und Translation) durch homogene Koordinaten erfolgen. Die errechnete Pose wird wiederum als dreidimensionale Raumposition und Raumorientierung angegeben (XDA, YDA, ZDA, ALPHADA, BETADA, GAMMAD-A). Die errechnete Pose ermöglicht die Anzeige von kontaktanalogen Darstellungen mit hoher Genauigkeit, Schritt S4 in 2.

Claims (9)

  1. Verfahren zum Bestimmen der Position einer Datenbrille (1) relativ zum Kopf des Trägers, umfassend: Erfassen der Position eines physischen Merkmals des Kopfes (5a, 5b, 7) des Trägers der Datenbrille (1) relativ zu einem Fahrzeug; Erfassen der Position der Datenbrille (1) relativ zum Fahrzeug; Bestimmen der Position der Datenbrille (1) relativ zum Kopf des Trägers, insbesondere den Augen des Trägers (5a, 5b), basierend auf der erfassten Position des physischen Merkmals und der Position der Datenbrille (1).
  2. Verfahren nach Anspruch 1, ferner umfassend: Anzeigen einer Darstellung auf kontaktanaloge Art unter Berücksichtigung der bestimmten relativen Position der Datenbrille (1) zum Kopf des Trägers.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren ferner umfasst: Erfassen der Orientierung eines physischen Merkmals des Kopfes (5a, 5b, 7) des Trägers der Datenbrille (1) relativ zu einem Fahrzeug; Erfassen der Orientierung der Datenbrille (1) relativ zum Fahrzeug; Bestimmen der Position und Orientierung der Datenbrille (1) relativ zum Kopf des Trägers, insbesondere den Augen des Trägers (5a, 5b), basierend auf der erfassten Position und Orientierung des physischen Merkmals und der Position und Orientierung der Datenbrille (1).
  4. Verfahren nach Anspruch 3, ferner umfassend: Anzeigen einer Darstellung auf kontaktanaloge Art unter Berücksichtigung der bestimmten relativen Position und Orientierung der Datenbrille (1) zum Kopf des Trägers.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Erfassen der Position des physischen Merkmals des Kopfes (5a, 5b, 7) ein Sensor des Fahrzeugs verwendet wird; wobei der Sensor des Fahrzeugs ein Kamerasystem, insbesondere ein Kamerasystem, das im Infrarotbereich des Lichts betrieben wird, ist, und wobei mithilfe des Kamerasystems die Position eines oder beider Augen (5a, 5b) des Trägers der Datenbrille (1), der Augenabstand des Trägers der Datenbrille (1) und/oder die Position des Gesichts des Trägers der Datenbrille (1) erkannt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche im Rückbezug auf Anspruch 3, wobei zum Erfassen der Orientierung des physischen Merkmals des Kopfes (5a, 5b, 7) ein Sensor des Fahrzeugs verwendet wird; wobei der Sensor des Fahrzeugs eine oder mehrere Kameras, insbesondere eine oder mehrere Kameras, die für den Infrarotbereich des Lichts betrieben werden, ist; und wobei mithilfe der einen oder der mehreren Kameras die Orientierung eines oder beider Augen (5a, 5b) des Trägers der Datenbrille (1) und/oder die Orientierung des Gesichts des Trägers der Datenbrille (1) erkannt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Erfassen der Position und/oder Orientierung der Datenbrille (1) relativ zum Fahrzeug eine von der Datenbrille (1) umfasste Kamera verwendet wird.
  8. Verfahren nach einem der Ansprüche 2 bis 7 im Rückbezug auf Anspruch 2, wobei das Verfahren ferner umfasst: Bestimmen der Position eines zu markierenden Objektes im Umfeld des Fahrzeugs; wobei die anzuzeigende Darstellung zur Markierung des Objektes im Umfeld des Fahrzeugs ausgebildet ist; wobei die Position des zu markierenden Objektes bei der Anzeige der Darstellung berücksichtigt wird.
  9. System umfassend eine Datenbrille (1) mit Kamera, ein Fahrzeug mit Kamera und Rechenmittel; wobei das System dazu eingerichtet ist, ein Verfahren gemäß den vorhergehenden Ansprüchen auszuführen.
DE102014225222.9A 2014-12-09 2014-12-09 Bestimmung der Position eines HMD relativ zum Kopf des Trägers Active DE102014225222B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014225222.9A DE102014225222B4 (de) 2014-12-09 2014-12-09 Bestimmung der Position eines HMD relativ zum Kopf des Trägers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014225222.9A DE102014225222B4 (de) 2014-12-09 2014-12-09 Bestimmung der Position eines HMD relativ zum Kopf des Trägers

Publications (2)

Publication Number Publication Date
DE102014225222A1 DE102014225222A1 (de) 2016-06-09
DE102014225222B4 true DE102014225222B4 (de) 2024-10-02

Family

ID=55974836

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014225222.9A Active DE102014225222B4 (de) 2014-12-09 2014-12-09 Bestimmung der Position eines HMD relativ zum Kopf des Trägers

Country Status (1)

Country Link
DE (1) DE102014225222B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215163B4 (de) * 2017-08-30 2019-04-11 Volkswagen Aktiengesellschaft System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
US10921595B2 (en) 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
US10739584B2 (en) 2018-11-15 2020-08-11 International Business Machines Corporation Predicted need notification for augmented reality eyeglasses
DE102019103360A1 (de) * 2019-02-11 2020-08-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102019217752B4 (de) * 2019-11-18 2022-09-29 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm mit Instruktionen und Vorrichtung zum Erfassen von Informationen zu einer Person
DE102020112300B4 (de) * 2020-05-06 2025-08-07 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
DE102020126953B3 (de) 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
DE102021114026A1 (de) 2021-05-31 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung von Datenbrillen in Fahrzeugen
DE102022115867A1 (de) * 2022-06-24 2024-01-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Trainieren eines Posenerkennungsmodells zur Erkennung einer Brillenpose einer Datenbrille in einer mobilen Einrichtung
DE102022124275A1 (de) * 2022-09-21 2024-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Durchführen eines Tracking-Verfahrens für mehrere Datenbrillen in einem Innenraum eines Fahrzeugs
DE102023104418A1 (de) * 2023-02-23 2024-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120068913A1 (en) 2010-09-21 2012-03-22 Avi Bar-Zeev Opacity filter for see-through head mounted display
WO2013012914A2 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic control of an active input region of a user interface
US20130038510A1 (en) 2011-08-09 2013-02-14 Google Inc. Laser alignment of binocular head mounted display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120068913A1 (en) 2010-09-21 2012-03-22 Avi Bar-Zeev Opacity filter for see-through head mounted display
WO2013012914A2 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic control of an active input region of a user interface
US20130038510A1 (en) 2011-08-09 2013-02-14 Google Inc. Laser alignment of binocular head mounted display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Single-Point active alignment method (SPAAM) for optical see-through HMD calibration for augmented reality", Tuceryan et al, Presence: Teleoperators and Virtual Environments, Volume 11 Issue 3, June 2002

Also Published As

Publication number Publication date
DE102014225222A1 (de) 2016-06-09

Similar Documents

Publication Publication Date Title
DE102014225222B4 (de) Bestimmung der Position eines HMD relativ zum Kopf des Trägers
EP2933707B1 (de) Darstellungseinstellung für kopfmontierte Anzeige
EP3164756B1 (de) Lokalisierung eines hmd im fahrzeug
EP3191919B1 (de) Bestimmung der pose eines hmd
IL292427B1 (en) Change, display and visualization of imaging using augmented and virtual reality glasses
DE102019213199A1 (de) Virtuelle räumlich registrierte video überlagerungsanzeige
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
WO2015155029A1 (de) Lokalisierung eines head-mounted displays (hmd) im fahrzeug
DE102013207063A1 (de) Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
DE102016223179A1 (de) Koordinaten-Abgleichvorrichtung für ein Head-Up-Display
US20200005543A1 (en) Apparatus and method for calibrating augmented-reality image
DE102014015871A1 (de) Anzeigesystem für einen Kraftwagen, Kraftwagen mit einem Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
DE102014226185A1 (de) Verfahren zum Bestimmen einer Blickrichtung einer Person
DE102017215163A1 (de) System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
DE102014207398B4 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
CN108734729A (zh) 一种平视显示器系统中双目视差的检测方法
DE102015209090A1 (de) Ausgabe einer Warnung bezüglich Verkehrsteilnehmer auf einem Head-mounted Display
DE102013212916A1 (de) Einblendung von Kollisionswarnungen auf einem Head-mounted Display
EP4422905B1 (de) Verfahren und vorrichtung zum bestimmen einer einbaupose einer fahrzeugfesten inertialsensorik in einem kraftfahrzeug
DE102014222356A1 (de) Künstlich erzeugte Magnetfelder in Fahrzeugen
DE102016221123A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225261A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102019103360A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102014224955A1 (de) Bestimmung der Position eines HMD relativ zum Kopf des Trägers
DE102014012625A1 (de) Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final