JP7679395B2 - マルチユーザ仮想および拡張現実のためのシステムおよび方法 - Google Patents
マルチユーザ仮想および拡張現実のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7679395B2 JP7679395B2 JP2022554528A JP2022554528A JP7679395B2 JP 7679395 B2 JP7679395 B2 JP 7679395B2 JP 2022554528 A JP2022554528 A JP 2022554528A JP 2022554528 A JP2022554528 A JP 2022554528A JP 7679395 B2 JP7679395 B2 JP 7679395B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual content
- processing unit
- common anchor
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
- A63F13/235—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/32—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
- A63F13/327—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/573—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/646—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car for calculating the trajectory of an object
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本明細書は、例えば、以下の項目も提供する。
(項目1)
環境内で、仮想コンテンツを提供するための装置であって、前記環境内で、第1のユーザおよび第2のユーザが相互に相互作用し得、前記装置は、
通信インターフェースであって、前記通信インターフェースは、前記第1のユーザによって装着される第1のディスプレイ画面および/または前記第2のユーザによって装着される第2のディスプレイ画面と通信するように構成される、通信インターフェースと、
処理ユニットであって、前記処理ユニットは、
前記第1のユーザの第1の位置を取得することと、
前記第1のユーザの第1の位置に基づいて、1つまたはそれを上回るアンカポイントの第1のセットを決定することと、
前記第2のユーザの第2の位置を取得することと、
前記第2のユーザの第2の位置に基づいて、1つまたはそれを上回るアンカポイントの第2のセットを決定することと、
前記第1のセットおよび前記第2のセットの両方内にある1つまたはそれを上回る共通アンカポイントを決定することと、
前記1つまたはそれを上回る共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を行うように構成される、処理ユニットと
を備える、装置。
(項目2)
前記1つまたはそれを上回る共通アンカポイントは、複数の共通アンカポイントを備え、前記処理ユニットは、共通アンカポイントのサブセットを前記複数の共通アンカポイントから選択するように構成される、項目1に記載の装置。
(項目3)
前記処理ユニットは、前記共通アンカポイントのサブセットを選択し、前記第1のユーザおよび前記第2のユーザの相互に対する位置特定誤差を低減させるように構成される、項目2に記載の装置。
(項目4)
前記1つまたはそれを上回る共通アンカポイントは、単一共通アンカポイントを備える、項目1に記載の装置。
(項目5)
前記処理ユニットは、前記1つまたはそれを上回る共通アンカポイントのうちの少なくとも1つに基づいて、前記仮想コンテンツを位置付ける、および/または配向するように構成される、項目1に記載の装置。
(項目6)
前記第1のセット内の前記1つまたはそれを上回るアンカポイントのそれぞれは、持続座標フレーム(PCF)内の点である、項目1に記載の装置。
(項目7)
前記処理ユニットは、前記仮想コンテンツを、表示のために、前記第1のディスプレイ画面および/または前記第2のディスプレイ画面内に、可動仮想オブジェクトとして提供するように構成される、項目1に記載の装置。
(項目8)
前記処理ユニットは、前記仮想オブジェクトが前記第1のユーザと前記第2のユーザとの間の空間内で移動しているように現れるように、前記仮想オブジェクトを表示のために前記第1のディスプレイ画面内に提供するように構成される、項目7に記載の装置。
(項目9)
前記1つまたはそれを上回る共通アンカポイントは、第1の共通アンカポイントと、第2の共通アンカポイントとを備え、
処理ユニットは、前記可動仮想オブジェクトが、前記第1のディスプレイ画面に対する第1のオブジェクト位置と、前記第1のディスプレイ画面に対する第2のオブジェクト位置とを有するように、前記可動仮想オブジェクトを表示のために前記第1のディスプレイ画面内に提供するように構成され、
前記可動仮想オブジェクトの前記第1のオブジェクト位置は、前記第1の共通アンカポイントに基づき、
前記可動仮想オブジェクトの前記第2のオブジェクト位置は、前記第2の共通アンカポイントに基づく、
項目7に記載の装置。
(項目10)
前記処理ユニットは、前記仮想オブジェクトのアクションが生じる場所に基づいて、前記仮想オブジェクトを前記第1のオブジェクト位置に設置するための前記第1の共通アンカポイントを選択するように構成される、項目9に記載の装置。
(項目11)
前記1つまたはそれを上回る共通アンカポイントは、単一共通アンカポイントを備え、
処理ユニットは、前記可動仮想オブジェクトが、前記第1のディスプレイ画面に対する第1のオブジェクト位置と、前記第1のディスプレイ画面に対する第2のオブジェクト位置とを有するように、前記可動仮想オブジェクトを表示のために前記第1のディスプレイ画面内に提供するように構成され、
前記可動仮想オブジェクトの前記第1のオブジェクト位置は、前記単一共通アンカポイントに基づき、
前記可動仮想オブジェクトの前記第2のオブジェクト位置は、前記単一共通アンカポイントに基づく、
項目7に記載の装置。
(項目12)
前記1つまたはそれを上回る共通アンカポイントは、複数の共通アンカポイントを備え、前記処理ユニットは、前記仮想コンテンツを前記第1のディスプレイ画面内に設置するために、前記共通アンカポイントのうちの1つを選択するように構成される、項目1に記載の装置。
(項目13)
前記処理ユニットは、前記仮想コンテンツのアクションに最も近いかまたは前記仮想コンテンツのアクションから距離閾値内にある前記共通アンカポイントのうちの1つを選択することによって、前記仮想コンテンツを設置するための前記共通アンカポイントのうちの1つを選択するように構成される、項目12に記載の装置。
(項目14)
前記仮想コンテンツの位置および/または移動は、前記第1のユーザの第1のハンドヘルドデバイスによって、制御可能である、項目1に記載の装置。
(項目15)
前記仮想コンテンツの位置および/または移動はまた、前記第2のユーザの第2のハンドヘルドデバイスによっても、制御可能である、項目14に記載の装置。
(項目16)
前記処理ユニットは、前記1つまたはそれを上回る共通アンカポイントに基づいて、前記第1のユーザおよび前記第2のユーザを同一マッピング情報に対して位置特定するように構成される、項目1に記載の装置。
(項目17)
前記処理ユニットは、前記仮想コンテンツが前記第1のユーザの周囲環境内の物理的オブジェクトに対してある空間関係において現れるであろうように、前記第1のディスプレイ画面に、前記仮想コンテンツを表示させるように構成される、項目1に記載の装置。
(項目18)
前記処理ユニットは、1つまたはそれを上回るセンサ入力を取得するように構成され、
前記処理ユニットは、前記1つまたはそれを上回るセンサ入力に基づいて、前記第1のユーザが前記仮想コンテンツを伴う目的を遂行することを補助するように構成される、
項目1に記載の装置。
(項目19)
前記1つまたはそれを上回るセンサ入力は、前記第1のユーザの眼視線方向、上肢運動学、身体位置、身体配向、または前述の任意の組み合わせを示す、項目18に記載の装置。
(項目20)
前記処理ユニットは、システムコンポーネントの位置および/または角速度に関する1つまたはそれを上回る限界を適用することによって、前記第1のユーザが前記目的を遂行することを補助するように構成される、項目18に記載の装置。
(項目21)
前記処理ユニットは、前記仮想コンテンツと別の要素との間の距離を徐々に低減させることによって、前記第1のユーザが前記目的を遂行することを補助するように構成される、項目18に記載の装置。
(項目22)
前記処理ユニットは、前記第1のディスプレイ画面と通信する第1の処理部分と、前記第2のディスプレイ画面と通信する第2の処理部分とを備える、項目1に記載の装置。
(項目23)
環境内で、仮想コンテンツを提供するように構成される装置によって実施される方法であって、前記環境内で、第1のディスプレイ画面を装着している第1のユーザと、第2のディスプレイ画面を装着している第2のユーザとが相互に相互作用し得、前記方法は、
前記第1のユーザの第1の位置を取得することと、
前記第1のユーザの第1の位置に基づいて、1つまたはそれを上回るアンカポイントの第1のセットを決定することと、
前記第2のユーザの第2の位置を取得することと、
前記第2のユーザの第2の位置に基づいて、1つまたはそれを上回るアンカポイントの第2のセットを決定することと、
前記第1のセットおよび前記第2のセットの両方内にある1つまたはそれを上回る共通アンカポイントを決定することと、
前記1つまたはそれを上回る共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を含む、方法。
(項目24)
前記1つまたはそれを上回る共通アンカポイントは、複数の共通アンカポイントを備え、前記方法はさらに、前記共通アンカポイントのサブセットを前記複数の共通アンカポイントから選択することを含む、項目23に記載の方法。
(項目25)
前記共通アンカポイントのサブセットは、前記第1のユーザおよび前記第2のユーザの相互に対する位置特定誤差を低減させるように選択される、項目24に記載の方法。
(項目26)
前記1つまたはそれを上回る共通アンカポイントは、単一共通アンカポイントを備える、項目23に記載の方法。
(項目27)
前記1つまたはそれを上回る共通アンカポイントのうちの少なくとも1つに基づいて、前記仮想コンテンツに関する位置および/または配向を決定することをさらに含む、項目23に記載の方法。
(項目28)
前記第1のセット内の前記1つまたはそれを上回るアンカポイントのそれぞれは、持続座標フレーム(PCF)内の点である、項目23に記載の方法。
(項目29)
前記仮想コンテンツは、表示のために、前記第1のディスプレイ画面および/または前記第2のディスプレイ画面内に、可動仮想オブジェクトとして提供される、項目23に記載の方法。
(項目30)
前記仮想オブジェクトは、表示のために、前記第1のディスプレイ画面内に、前記仮想オブジェクトが前記第1のユーザと前記第2のユーザとの間の空間内を移動しているように現れるように提供される、項目29に記載の方法。
(項目31)
前記1つまたはそれを上回る共通アンカポイントは、第1の共通アンカポイントと、第2の共通アンカポイントとを備え、
前記可動仮想オブジェクトは、表示のために、前記第1のディスプレイ画面内に、前記可動仮想オブジェクトが、前記第1のディスプレイ画面に対する第1のオブジェクト位置と、前記第1のディスプレイ画面に対する第2のオブジェクト位置とを有するように提供され、
前記可動仮想オブジェクトの前記第1のオブジェクト位置は、前記第1の共通アンカポイントに基づき、
前記可動仮想オブジェクトの前記第2のオブジェクト位置は、前記第2の共通アンカポイントに基づく、
項目29に記載の方法。
(項目32)
前記仮想オブジェクトのアクションが生じる場所に基づいて、前記仮想オブジェクトを前記第1のオブジェクト位置に設置するための前記第1の共通アンカポイントを選択することをさらに含む、項目31に記載の方法。
(項目33)
前記1つまたはそれを上回る共通アンカポイントは、単一共通アンカポイントを備え、
前記可動仮想オブジェクトは、表示のために、前記第1のディスプレイ画面内に、前記可動仮想オブジェクトが、前記第1のディスプレイ画面に対する第1のオブジェクト位置と、前記第1のディスプレイ画面に対する第2のオブジェクト位置とを有するように提供され、
前記可動仮想オブジェクトの前記第1のオブジェクト位置は、前記単一共通アンカポイントに基づき、
前記可動仮想オブジェクトの前記第2のオブジェクト位置は、前記単一共通アンカポイントに基づく、
項目29に記載の方法。
(項目34)
前記1つまたはそれを上回る共通アンカポイントは、複数の共通アンカポイントを備え、前記方法はさらに、前記仮想コンテンツを前記第1のディスプレイ画面内に設置するための前記共通アンカポイントのうちの1つを選択することを含む、項目23に記載の方法。
(項目35)
前記選択する行為は、前記仮想コンテンツのアクションに最も近いかまたは前記仮想コンテンツのアクションから距離閾値内にある前記共通アンカポイントのうちの1つを選択することを含む、項目34に記載の方法。
(項目36)
前記仮想コンテンツの位置および/または移動は、前記第1のユーザの第1のハンドヘルドデバイスによって、制御可能である、項目23に記載の方法。
(項目37)
前記仮想コンテンツの位置および/または移動はまた、前記第2のユーザの第2のハンドヘルドデバイスによっても、制御可能である、項目36に記載の方法。
(項目38)
前記1つまたはそれを上回る共通アンカポイントに基づいて、前記第1のユーザおよび前記第2のユーザを同一マッピング情報に対して位置特定することをさらに含む、項目23に記載の方法。
(項目39)
前記仮想コンテンツが前記第1のユーザの周囲環境内の物理的オブジェクトに対してある空間関係において現れるように、前記第1のディスプレイ画面によって、前記仮想コンテンツを表示することをさらに含む、項目23に記載の方法。
(項目40)
1つまたはそれを上回るセンサ入力を取得することと、
前記1つまたはそれを上回るセンサ入力に基づいて、前記第1のユーザが前記仮想コンテンツを伴う目的を遂行することを補助することと
をさらに含む、項目23に記載の方法。
(項目41)
前記1つまたはそれを上回るセンサ入力は、前記第1のユーザの眼視線方向、上肢運動学、身体位置、身体配向、または前述の任意の組み合わせを示す、項目40に記載の方法。
(項目42)
前記第1のユーザが前記目的を遂行することを補助する行為は、システムコンポーネントの位置および/または角速度に関する1つまたはそれを上回る限界を適用することを含む、項目40に記載の方法。
(項目43)
前記第1のユーザが前記目的を遂行することを補助する行為は、前記仮想コンテンツと別の要素との間の距離を徐々に低減させることを含む、項目40に記載の方法。
(項目44)
前記装置は、前記第1のディスプレイ画面と通信する第1の処理部分と、前記第2のディスプレイ画面と通信する第2の処理部分とを備える、項目23に記載の方法。
(項目45)
命令のセットを記憶するプロセッサ可読非一過性媒体であって、処理ユニットによる前記命令のセットの実行は、方法が実施されることを引き起こし、前記処理ユニットは、環境内で、仮想コンテンツを提供するように構成される装置の一部であり、前記環境内で、第1のユーザおよび第2のユーザが相互に相互作用し得、前記方法は、
前記第1のユーザの第1の位置を取得することと、
前記第1のユーザの第1の位置に基づいて、1つまたはそれを上回るアンカポイントの第1のセットを決定することと、
前記第2のユーザの第2の位置を取得することと、
前記第2のユーザの第2の位置に基づいて、1つまたはそれを上回るアンカポイントの第2のセットを決定することと、
前記第1のセットおよび前記第2のセットの両方内にある1つまたはそれを上回る共通アンカポイントを決定することと、
前記1つまたはそれを上回る共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を含む、プロセッサ可読非一過性媒体。
本開示の種々の実施形態は、頭部装着型ビデオ画像デバイスのための入力を提供するための方法、装置、および製造品を対象とする。本開示の他の目的、特徴、および利点は、詳細な説明、図、および特許請求の範囲に説明される。
Claims (31)
- 環境内で、仮想コンテンツを提供するための装置であって、前記環境内で、第1のユーザおよび第2のユーザが相互に相互作用し得、前記装置は、
通信インターフェースであって、前記通信インターフェースは、前記第1のユーザによって装着される第1のディスプレイ画面および/または前記第2のユーザによって装着される第2のディスプレイ画面と通信するように構成される、通信インターフェースと、
処理ユニットであって、前記処理ユニットは、
前記第1のユーザの第1の位置を取得することと、
前記第1のユーザの第1の位置に基づいて、アンカポイントの第1のセットを決定することと、
前記第2のユーザの第2の位置を取得することと、
前記第2のユーザの第2の位置に基づいて、アンカポイントの第2のセットを決定することと、
前記第1のセットおよび前記第2のセットの両方内にあるアンカポイントを共通アンカポイントとして識別することであって、前記共通アンカポイントは、第1の共通アンカポイントおよび第2の共通アンカポイントを備える、ことと、
前記共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を行うように構成され、
前記処理ユニットは、前記仮想コンテンツを、前記第1のディスプレイ画面および/または前記第2のディスプレイ画面内に、軌道に沿って、可動仮想オブジェクトとして、表示のために提供することにより、前記仮想コンテンツが、前記第2の共通アンカポイントよりも前記第1の共通アンカポイントに近い第1の場所から、前記第1の共通アンカポイントよりも前記第2の共通アンカポイントに近い第2の場所に移動するようにするように構成され、前記処理ユニットは、第1の時点における前記仮想コンテンツの表示のために前記第1の共通アンカポイントに基づいて前記仮想コンテンツの前記第1の場所を決定することと、第2の時点における前記仮想コンテンツの表示のために前記第2の共通アンカポイントに基づいて前記仮想コンテンツの前記第2の場所を決定することとを行うように構成され、前記仮想コンテンツの前記第1の場所は、前記軌道の第1の部分に対応し、前記仮想コンテンツの前記第2の場所は、前記軌道の第2の部分に対応し、前記軌道の前記第1の部分は、前記第1のユーザと関連付けられた前記第1の場所を備え、前記軌道から離れた前記第1の共通アンカポイントに基づき、前記軌道の前記第2の部分は、前記第2のユーザと関連付けられた前記第2の場所を備え、前記軌道から離れた前記第2の共通アンカポイントに基づき、
前記処理ユニットは、前記第1のユーザと関連付けられたローカル座標フレームが前記第1のユーザよりも前記第2のユーザに近い環境特徴に正しく整合されていないことに起因して前記可動仮想オブジェクトを前記環境に対して不正確に設置することを防止するために、前記可動仮想オブジェクトが前記軌道の前記第2の部分にあるときに前記第1のユーザに前記可動仮想オブジェクトを提示するために前記第2の共通アンカポイントを使用するように構成される、処理ユニットと
を備える、装置。 - 前記処理ユニットは、前記共通アンカポイントのサブセットを選択するように構成される、請求項1に記載の装置。
- 前記処理ユニットは、前記共通アンカポイントのサブセットを選択し、前記第1のユーザおよび前記第2のユーザの相互に対する位置特定誤差を低減させるように構成される、請求項2に記載の装置。
- 前記処理ユニットは、前記共通アンカポイントのうちの少なくとも1つに基づいて、前記仮想コンテンツを位置付ける、および/または配向するように構成される、請求項1に記載の装置。
- 前記第1のセット内の前記アンカポイントのそれぞれは、持続座標フレーム(PCF)内の点である、請求項1に記載の装置。
- 前記処理ユニットは、前記可動仮想オブジェクトが前記第1のユーザと前記第2のユーザとの間の空間内で移動しているように現れるように、前記可動仮想オブジェクトを表示のために前記第1のディスプレイ画面内に提供するように構成される、請求項1に記載の装置。
- 前記仮想コンテンツの位置および/または移動は、前記第1のユーザの第1のハンドヘルドデバイスによって、制御可能である、請求項1に記載の装置。
- 前記仮想コンテンツの位置および/または移動はまた、前記第2のユーザの第2のハンドヘルドデバイスによっても、制御可能である、請求項7に記載の装置。
- 前記処理ユニットは、前記共通アンカポイントに基づいて、前記第1のユーザおよび前記第2のユーザを同一マッピング情報に対して位置特定するように構成される、請求項1に記載の装置。
- 前記処理ユニットは、前記仮想コンテンツが前記第1のユーザの周囲環境内の物理的オブジェクトに対してある空間関係において現れるであろうように、前記第1のディスプレイ画面に、前記仮想コンテンツを表示させるように構成される、請求項1に記載の装置。
- 前記処理ユニットは、1つまたはそれを上回るセンサ入力を取得するように構成され、
前記処理ユニットは、前記1つまたはそれを上回るセンサ入力に基づいて、前記第1のユーザが前記仮想コンテンツを伴う目的を遂行することを補助するように構成される、
請求項1に記載の装置。 - 前記1つまたはそれを上回るセンサ入力は、前記第1のユーザの眼視線方向、上肢運動学、身体位置、身体配向、または前述の任意の組み合わせを示す、請求項11に記載の装置。
- 前記処理ユニットは、システムコンポーネントの位置および/または角速度に関する1つまたはそれを上回る限界を適用することによって、前記第1のユーザが前記目的を遂行することを補助するように構成される、請求項11に記載の装置。
- 前記処理ユニットは、前記仮想コンテンツと別の仮想コンテンツとの間の距離を徐々に低減させることによって、前記第1のユーザが前記目的を遂行することを補助するように構成され、前記目的は、前記第1のユーザによる前記仮想コンテンツのキャッチを含む、請求項11に記載の装置。
- 前記処理ユニットは、前記第1のディスプレイ画面と通信する第1の処理部分と、前記第2のディスプレイ画面と通信する第2の処理部分とを備える、請求項1に記載の装置。
- 環境内で、仮想コンテンツを提供するように構成される装置によって実施される方法であって、前記環境内で、第1のディスプレイ画面を装着している第1のユーザと、第2のディスプレイ画面を装着している第2のユーザとが相互に相互作用し得、前記装置は、処理ユニットを備え、前記方法は、
前記処理ユニットを使用して、前記第1のユーザの第1の位置を取得することと、
前記処理ユニットを使用して、前記第1のユーザの第1の位置に基づいて、アンカポイントの第1のセットを決定することと、
前記処理ユニットを使用して、前記第2のユーザの第2の位置を取得することと、
前記処理ユニットを使用して、前記第2のユーザの第2の位置に基づいて、アンカポイントの第2のセットを決定することと、
前記処理ユニットを使用して、前記第1のセットおよび前記第2のセットの両方内にあるアンカポイントを共通アンカポイントとして識別することであって、前記共通アンカポイントは、第1の共通アンカポイントおよび第2の共通アンカポイントを備える、ことと、
前記処理ユニットを使用して、前記共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を含み、
前記処理ユニットは、前記仮想コンテンツを、前記第1のディスプレイ画面および/または前記第2のディスプレイ画面内に、軌道に沿って、可動仮想オブジェクトとして、表示のために提供することにより、前記仮想コンテンツが、前記第2の共通アンカポイントよりも前記第1の共通アンカポイントに近い第1の場所から、前記第1の共通アンカポイントよりも前記第2の共通アンカポイントに近い第2の場所に移動するようにするように構成され、前記処理ユニットは、第1の時点における前記仮想コンテンツの表示のために前記第1の共通アンカポイントに基づいて前記仮想コンテンツの前記第1の場所を決定することと、第2の時点における前記仮想コンテンツの表示のために前記第2の共通アンカポイントに基づいて前記仮想コンテンツの前記第2の場所を決定することとを行うように構成され、前記仮想コンテンツの前記第1の場所は、前記軌道の第1の部分に対応し、前記仮想コンテンツの前記第2の場所は、前記軌道の第2の部分に対応し、前記軌道の前記第1の部分は、前記第1のユーザと関連付けられた前記第1の場所を備え、前記軌道から離れた前記第1の共通アンカポイントに基づき、前記軌道の前記第2の部分は、前記第2のユーザと関連付けられた前記第2の場所を備え、前記軌道から離れた前記第2の共通アンカポイントに基づき、
前記処理ユニットは、前記第1のユーザと関連付けられたローカル座標フレームが前記第1のユーザよりも前記第2のユーザに近い環境特徴に正しく整合されていないことに起因して前記可動仮想オブジェクトを前記環境に対して不正確に設置することを防止するために、前記可動仮想オブジェクトが前記軌道の前記第2の部分にあるときに前記第1のユーザに前記可動仮想オブジェクトを提示するために前記第2の共通アンカポイントを使用するように構成される、方法。 - 前記方法はさらに、前記処理ユニットを使用して、前記共通アンカポイントのサブセットを選択することを含む、請求項16に記載の方法。
- 前記共通アンカポイントのサブセットは、前記第1のユーザおよび前記第2のユーザの相互に対する位置特定誤差を低減させるように選択される、請求項17に記載の方法。
- 前記共通アンカポイントのうちの少なくとも1つに基づいて、前記仮想コンテンツに関する位置および/または配向を決定することをさらに含む、請求項16に記載の方法。
- 前記第1のセット内の前記アンカポイントのそれぞれは、持続座標フレーム(PCF)内の点である、請求項16に記載の方法。
- 前記可動仮想オブジェクトは、表示のために、前記第1のディスプレイ画面内に、前記可動仮想オブジェクトが前記第1のユーザと前記第2のユーザとの間の空間内を移動しているように現れるように提供される、請求項16に記載の方法。
- 前記仮想コンテンツの位置および/または移動は、前記第1のユーザの第1のハンドヘルドデバイスによって、制御可能である、請求項16に記載の方法。
- 前記仮想コンテンツの位置および/または移動はまた、前記第2のユーザの第2のハンドヘルドデバイスによっても、制御可能である、請求項22に記載の方法。
- 前記共通アンカポイントに基づいて、前記第1のユーザおよび前記第2のユーザを同一マッピング情報に対して位置特定することをさらに含む、請求項16に記載の方法。
- 前記仮想コンテンツが前記第1のユーザの周囲環境内の物理的オブジェクトに対してある空間関係において現れるように、前記第1のディスプレイ画面によって、前記仮想コンテンツを表示することをさらに含む、請求項16に記載の方法。
- 1つまたはそれを上回るセンサ入力を取得することと、
前記1つまたはそれを上回るセンサ入力に基づいて、前記第1のユーザが前記仮想コンテンツを伴う目的を遂行することを補助することと
をさらに含む、請求項16に記載の方法。 - 前記1つまたはそれを上回るセンサ入力は、前記第1のユーザの眼視線方向、上肢運動学、身体位置、身体配向、または前述の任意の組み合わせを示す、請求項26に記載の方法。
- 前記第1のユーザが前記目的を遂行することを補助する行為は、システムコンポーネントの位置および/または角速度に関する1つまたはそれを上回る限界を適用することを含む、請求項26に記載の方法。
- 前記第1のユーザが前記目的を遂行することを補助する行為は、前記仮想コンテンツと別の仮想コンテンツとの間の距離を徐々に低減させることを含み、、前記目的は、前記第1のユーザによる前記仮想コンテンツのキャッチを含む、請求項26に記載の方法。
- 前記装置は、前記第1のディスプレイ画面と通信する第1の処理部分と、前記第2のディスプレイ画面と通信する第2の処理部分とを備える、請求項16に記載の方法。
- 命令のセットを記憶するプロセッサ可読非一過性媒体であって、処理ユニットによる前記命令のセットの実行は、方法が実施されることを引き起こし、前記処理ユニットは、環境内で、仮想コンテンツを提供するように構成される装置の一部であり、前記環境内で、第1のユーザおよび第2のユーザが相互に相互作用し得、前記方法は、
前記第1のユーザの第1の位置を取得することと、
前記第1のユーザの第1の位置に基づいて、アンカポイントの第1のセットを決定することと、
前記第2のユーザの第2の位置を取得することと、
前記第2のユーザの第2の位置に基づいて、アンカポイントの第2のセットを決定することと、
前記第1のセットおよび前記第2のセットの両方内にあるアンカポイントを共通アンカポイントとして識別することであって、前記共通アンカポイントは、第1の共通アンカポイントおよび第2の共通アンカポイントを備える、ことと、
前記共通アンカポイントのうちの少なくとも1つに基づいて、前記第1のユーザおよび/または前記第2のユーザによる体験のための前記仮想コンテンツを提供することと
を含み、
前記処理ユニットは、前記仮想コンテンツを、第1のディスプレイ画面および/または第2のディスプレイ画面内に、軌道に沿って、可動仮想オブジェクトとして、表示のために提供することにより、前記仮想コンテンツが、前記第2の共通アンカポイントよりも前記第1の共通アンカポイントに近い第1の場所から、前記第1の共通アンカポイントよりも前記第2の共通アンカポイントに近い第2の場所に移動するようにするように構成され、前記処理ユニットは、第1の時点における前記仮想コンテンツの表示のために前記第1の共通アンカポイントに基づいて前記仮想コンテンツの前記第1の場所を決定することと、第2の時点における前記仮想コンテンツの表示のために前記第2の共通アンカポイントに基づいて前記仮想コンテンツの前記第2の場所を決定することとを行うように構成され、前記仮想コンテンツの前記第1の場所は、前記軌道の第1の部分に対応し、前記仮想コンテンツの前記第2の場所は、前記軌道の第2の部分に対応し、前記軌道の前記第1の部分は、前記第1のユーザと関連付けられた前記第1の場所を備え、前記軌道から離れた前記第1の共通アンカポイントに基づき、前記軌道の前記第2の部分は、前記第2のユーザと関連付けられた前記第2の場所を備え、前記軌道から離れた前記第2の共通アンカポイントに基づき、
前記処理ユニットは、前記第1のユーザと関連付けられたローカル座標フレームが前記第1のユーザよりも前記第2のユーザに近い環境特徴に正しく整合されていないことに起因して前記可動仮想オブジェクトを前記環境に対して不正確に設置することを防止するために、前記可動仮想オブジェクトが前記軌道の前記第2の部分にあるときに前記第1のユーザに前記可動仮想オブジェクトを提示するために前記第2の共通アンカポイントを使用するように構成される、プロセッサ可読非一過性媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202062989584P | 2020-03-13 | 2020-03-13 | |
| US62/989,584 | 2020-03-13 | ||
| PCT/US2021/022249 WO2021183978A1 (en) | 2020-03-13 | 2021-03-13 | Systems and methods for multi-user virtual and augmented reality |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023517954A JP2023517954A (ja) | 2023-04-27 |
| JP7679395B2 true JP7679395B2 (ja) | 2025-05-19 |
Family
ID=77665171
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022554528A Active JP7679395B2 (ja) | 2020-03-13 | 2021-03-13 | マルチユーザ仮想および拡張現実のためのシステムおよび方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20210287382A1 (ja) |
| EP (1) | EP4118638A4 (ja) |
| JP (1) | JP7679395B2 (ja) |
| CN (1) | CN115298732A (ja) |
| WO (1) | WO2021183978A1 (ja) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20210098130A (ko) * | 2020-01-31 | 2021-08-10 | 한국전자통신연구원 | 현실 객체와의 상호 작용을 이용한 다중 사용자 참여 기반의 증강현실 제공 방법 및 이를 위한 장치 |
| US12229977B2 (en) * | 2021-05-18 | 2025-02-18 | Snap Inc. | Augmented reality guided depth estimation |
| US12169902B2 (en) * | 2021-09-21 | 2024-12-17 | Apple Inc. | Methods and systems for composing and executing a scene |
| CN114067429B (zh) * | 2021-11-02 | 2023-08-29 | 北京邮电大学 | 动作识别处理方法、装置及设备 |
| US12105866B2 (en) * | 2022-02-16 | 2024-10-01 | Meta Platforms Technologies, Llc | Spatial anchor sharing for multiple virtual reality systems in shared real-world environments |
| KR102814653B1 (ko) * | 2022-07-18 | 2025-05-29 | 주식회사 두잇 | 영상분석 및 콜라이더 포인트의 상호 관계를 이용한 가상객체의 공간 정합방법 |
| CN115756230A (zh) * | 2022-11-14 | 2023-03-07 | 北京字跳网络技术有限公司 | 面板互动方法、装置、设备和存储介质 |
| US12315363B2 (en) | 2022-12-09 | 2025-05-27 | Meta Platforms Technologies, Llc | Directional warnings in co-located play in virtual reality environments |
| US12484976B2 (en) | 2023-12-11 | 2025-12-02 | Htc Corporation | Object tracking method, object tracking system and non-transitory computer readable storage medium |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019008473A (ja) | 2017-06-22 | 2019-01-17 | ファナック株式会社 | 複合現実シミュレーション装置及び複合現実シミュレーションプログラム |
| WO2020036898A1 (en) | 2018-08-13 | 2020-02-20 | Magic Leap, Inc. | A cross reality system |
| JP2020035392A (ja) | 2018-08-31 | 2020-03-05 | 真一 福重 | 遠隔コミュニケーションシステム等 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6460855B2 (en) * | 2000-08-03 | 2002-10-08 | Albert Shinderovsky | Alphabetic chess puzzles and games |
| WO2012054231A2 (en) * | 2010-10-04 | 2012-04-26 | Gerard Dirk Smits | System and method for 3-d projection and enhancements for interactivity |
| US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
| KR102270699B1 (ko) * | 2013-03-11 | 2021-06-28 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
| US9626737B2 (en) * | 2013-11-15 | 2017-04-18 | Canon Information And Imaging Solutions, Inc. | Devices, systems, and methods for examining the interactions of objects in an enhanced scene |
| US10250720B2 (en) * | 2016-05-05 | 2019-04-02 | Google Llc | Sharing in an augmented and/or virtual reality environment |
| US20180150997A1 (en) * | 2016-11-30 | 2018-05-31 | Microsoft Technology Licensing, Llc | Interaction between a touch-sensitive device and a mixed-reality device |
| US10482665B2 (en) * | 2016-12-16 | 2019-11-19 | Microsoft Technology Licensing, Llc | Synching and desyncing a shared view in a multiuser scenario |
| US10732797B1 (en) * | 2017-01-10 | 2020-08-04 | Lucasfilm Entertainment Company Ltd. | Virtual interfaces for manipulating objects in an immersive environment |
| US10290152B2 (en) * | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
| US10871934B2 (en) * | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
| US20190088030A1 (en) * | 2017-09-20 | 2019-03-21 | Microsoft Technology Licensing, Llc | Rendering virtual objects based on location data and image data |
| US10685456B2 (en) * | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
| EP3511910A1 (en) * | 2018-01-12 | 2019-07-17 | Koninklijke Philips N.V. | Apparatus and method for generating view images |
| US10773169B2 (en) * | 2018-01-22 | 2020-09-15 | Google Llc | Providing multiplayer augmented reality experiences |
| US10438414B2 (en) * | 2018-01-26 | 2019-10-08 | Microsoft Technology Licensing, Llc | Authoring and presenting 3D presentations in augmented reality |
| EP3762190A4 (en) * | 2018-03-05 | 2022-01-26 | The Regents Of The University Of Colorado | COORDINATION IN AUGMENTED REALITY OF A HUMAN-ROBOT INTERACTION |
| TWI664995B (zh) * | 2018-04-18 | 2019-07-11 | 鴻海精密工業股份有限公司 | 虛擬實境多人桌遊互動系統、互動方法及伺服器 |
| US11749124B2 (en) * | 2018-06-12 | 2023-09-05 | Skydio, Inc. | User interaction with an autonomous unmanned aerial vehicle |
| US10665206B2 (en) * | 2018-07-30 | 2020-05-26 | Honeywell International Inc. | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance |
| US11227435B2 (en) * | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
| US10776954B2 (en) * | 2018-10-08 | 2020-09-15 | Microsoft Technology Licensing, Llc | Real-world anchor in a virtual-reality environment |
| US10803314B2 (en) * | 2018-10-10 | 2020-10-13 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
| US11132841B2 (en) * | 2018-11-30 | 2021-09-28 | Facebook Technologies, Llc | Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service |
| US10866563B2 (en) * | 2019-02-13 | 2020-12-15 | Microsoft Technology Licensing, Llc | Setting hologram trajectory via user input |
| US10762716B1 (en) * | 2019-05-06 | 2020-09-01 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying objects in 3D contexts |
| US10918949B2 (en) * | 2019-07-01 | 2021-02-16 | Disney Enterprises, Inc. | Systems and methods to provide a sports-based interactive experience |
| US11132834B2 (en) * | 2019-08-09 | 2021-09-28 | Facebook Technologies, Llc | Privacy-aware artificial reality mapping |
-
2021
- 2021-03-12 US US17/200,760 patent/US20210287382A1/en not_active Abandoned
- 2021-03-13 JP JP2022554528A patent/JP7679395B2/ja active Active
- 2021-03-13 CN CN202180020775.3A patent/CN115298732A/zh active Pending
- 2021-03-13 WO PCT/US2021/022249 patent/WO2021183978A1/en not_active Ceased
- 2021-03-13 EP EP21768543.7A patent/EP4118638A4/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019008473A (ja) | 2017-06-22 | 2019-01-17 | ファナック株式会社 | 複合現実シミュレーション装置及び複合現実シミュレーションプログラム |
| WO2020036898A1 (en) | 2018-08-13 | 2020-02-20 | Magic Leap, Inc. | A cross reality system |
| JP2020035392A (ja) | 2018-08-31 | 2020-03-05 | 真一 福重 | 遠隔コミュニケーションシステム等 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4118638A1 (en) | 2023-01-18 |
| US20210287382A1 (en) | 2021-09-16 |
| EP4118638A4 (en) | 2023-08-30 |
| CN115298732A (zh) | 2022-11-04 |
| JP2023517954A (ja) | 2023-04-27 |
| WO2021183978A1 (en) | 2021-09-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7679395B2 (ja) | マルチユーザ仮想および拡張現実のためのシステムおよび方法 | |
| US12112574B2 (en) | Systems and methods for virtual and augmented reality | |
| TWI786701B (zh) | 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染的方法及系統以及非暫時性電腦可讀媒體 | |
| US11666825B2 (en) | Mixed reality gaming system | |
| US9779633B2 (en) | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same | |
| US10636212B2 (en) | Method for generating image to be displayed on head tracking type virtual reality head mounted display and image generation device | |
| JP5300777B2 (ja) | プログラム及び画像生成システム | |
| US20150097719A1 (en) | System and method for active reference positioning in an augmented reality environment | |
| JP2021530817A (ja) | 画像ディスプレイデバイスの位置特定マップを決定および/または評価するための方法および装置 | |
| US20150348330A1 (en) | Dynamic environment and location based augmented reality (ar) systems | |
| US20150070274A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
| US20100103196A1 (en) | System and method for generating a mixed reality environment | |
| CN103760972B (zh) | 跨平台的增强现实体验 | |
| JP2018109835A (ja) | シミュレーションシステム及びプログラム | |
| JP7242175B2 (ja) | ゲームシステム及びプログラム | |
| KR20170062533A (ko) | 공유된 공간 증강 현실 경험을 생성하기 위한 프로젝터 구동 기술 | |
| JP2015116336A (ja) | 複合現実感アリーナ | |
| JP2011212123A (ja) | プログラム、情報記憶媒体、及び端末 | |
| JP2019152899A (ja) | シミュレーションシステム及びプログラム | |
| JP2019175323A (ja) | シミュレーションシステム及びプログラム | |
| US20230252691A1 (en) | Passthrough window object locator in an artificial reality system | |
| WO2015048890A1 (en) | System and method for augmented reality and virtual reality applications | |
| US20240046903A1 (en) | Systems and methods for virtual and augmented reality | |
| JP2019101468A (ja) | 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法 | |
| JP2020107123A (ja) | プログラム、情報処理装置、および方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240301 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250107 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250325 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250408 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250507 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7679395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |