CN120303636A - 用于管理重叠窗口和应用视觉效果的方法 - Google Patents
用于管理重叠窗口和应用视觉效果的方法 Download PDFInfo
- Publication number
- CN120303636A CN120303636A CN202480005202.7A CN202480005202A CN120303636A CN 120303636 A CN120303636 A CN 120303636A CN 202480005202 A CN202480005202 A CN 202480005202A CN 120303636 A CN120303636 A CN 120303636A
- Authority
- CN
- China
- Prior art keywords
- virtual object
- user
- virtual
- environment
- dimensional environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/452—Remote windowing, e.g. X-Window System, desktop virtualisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
在一些实施方案中,计算机系统响应于检测到第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象的视觉突出性。在一些实施方案中,计算机系统基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变相应虚拟对象的视觉突出性。在一些实施方案中,计算机系统将视觉效果应用于物理对象、虚拟环境和/或物理环境的表示。在一些实施方案中,计算机系统基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象相对于该三维环境的视觉突出性。在一些实施方案中,计算机系统响应于与第二虚拟对象重叠的第一虚拟对象的移动而改变该第一虚拟对象的不透明度水平。
Description
相关申请的交叉引用
本申请要求于2023年10月2日提交的美国临时申请63/587,442号、于2023年7月23日提交的美国临时申请63/515,119号、于2023年6月4日提交的美国临时申请63/506,128号和于2023年6月4日提交的美国临时申请63/506,109号的权益,这些临时申请的内容全文以引用方式并入本文以用于所有目的。
技术领域
本发明整体涉及提供计算机生成的体验的计算机系统,包括但不限于经由显示器提供虚拟现实和混合现实体验的电子设备。
背景技术
近年来,用于增强现实的计算机系统的发展显著增加。示例增强现实环境包括至少一些替换或增强物理世界的虚拟元素。用于计算机系统和其他电子计算设备的输入设备(诸如相机、控制器、操纵杆、触敏表面和触摸屏显示器)用于与虚拟/增强现实环境进行交互。示例虚拟元素包括诸如数字图像、视频、文本、图标和控制元素(诸如按钮和其他图形)的虚拟对象。
发明内容
用于与包括至少一些虚拟元素的环境(例如,应用程序、增强现实环境、混合现实环境和虚拟现实环境)进行交互的一些方法和界面是麻烦、低效并且受限的。例如,提供用于执行与虚拟对象相关联的动作的不足反馈的系统、需要一系列输入来在增强现实环境中实现期望结果的系统,以及虚拟对象操纵复杂、繁琐且容易出错的系统,会给用户造成巨大的认知负担,并且减损虚拟/增强现实环境的体验感。此外,这些方法花费的时间比必要的要长,从而浪费了计算机系统的能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,需要具有改进的方法和界面的计算机系统来向用户提供计算机生成的体验,从而使得用户与计算机系统的交互对用户来说更有效且更直观。此类方法和界面任选地补充或替换用于向用户提供扩展现实体验的常规方法。此类方法和界面通过帮助用户理解所提供的输入与设备对这些输入的响应之间的联系,减少了来自用户的输入的数量、程度和/或性质,从而形成了更有效的人机界面。
通过所公开的系统减少或消除了与计算机系统的用户界面相关联的上述缺陷和其他问题。在一些实施方案中,计算机系统是具有相关联显示器的台式计算机。在一些实施方案中,计算机系统是便携式设备(例如,笔记本计算机、平板计算机或手持式设备)。在一些实施方案中,计算机系统是个人电子设备(例如,可穿戴电子设备,诸如手表或头戴式设备)。在一些实施方案中,计算机系统具有触摸板。在一些实施方案中,计算机系统具有一个或多个相机。在一些实施方案中,计算机系统具有(例如,包括或与之通信)显示生成部件(例如,显示设备,诸如头戴式设备(HMD)、显示器、投影仪、触敏显示器(也称为“触摸屏”或“触摸屏显示器”)、或例如在显示生成部件本身上或其中向用户呈现视觉内容或从显示生成部件产生并在其他地方可见的其他设备或部件)。在一些实施方案中,计算机系统具有一个或多个眼睛跟踪部件。在一些实施方案中,计算机系统具有一个或多个手部跟踪部件。在一些实施方案中,除显示生成部件之外,计算机系统还具有一个或多个输出设备,这些输出设备包括一个或多个触觉输出发生器和/或一个或多个音频输出设备。在一些实施方案中,计算机系统具有图形用户界面(GUI)、一个或多个处理器、存储器和一个或多个模块、存储在存储器中用于执行多个功能的程序或指令集。在一些实施方案中,用户通过触笔和/或手指在触敏表面上的接触和手势、用户的眼睛和手在相对于GUI(和/或计算机系统)或用户身体的空间中的移动(如由相机和其他移动传感器捕获的)和/或语音输入(如由一个或多个音频输入设备捕获的)与GUI进行交互。在一些实施方案中,通过交互执行的功能任选地包括图像编辑、绘图、演示、文字处理、电子表格制作、玩游戏、接打电话、视频会议、收发电子邮件、即时通讯、测试支持、数字摄影、数字视频录制、网页浏览、数字音乐播放、记笔记和/或数字视频播放。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态和/或非暂态计算机可读存储介质或其他计算机程序产品中。
需要具有改进的方法和界面的电子设备来与三维环境进行交互。此类方法和界面可以补充或替换用于与三维环境进行交互的常规方法。此类方法和界面减少了来自用户的输入的数量、程度和/或性质,并且产生更高效的人机界面。对于电池驱动的计算设备,此类方法和界面节省了功率,并且增大了电池充电之间的时间间隔。
在一些实施方案中,计算机系统响应于检测到第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象的视觉突出性。在一些实施方案中,计算机系统基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变相应虚拟对象的视觉突出性。在一些实施方案中,计算机系统响应于检测到透传可见性事件(例如,现实世界对象经由计算机系统变得可见的事件)而将视觉效果应用于现实世界对象。在一些实施方案中,计算机系统基于背景的状态来将视觉效果应用于该背景。在一些实施方案中,计算机系统基于虚拟对象的状态来应用与该虚拟对象相关联的视觉效果。在一些实施方案中,计算机系统基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象相对于该三维环境的视觉突出性。在一些实施方案中,计算机系统响应于与第二虚拟对象重叠的第一虚拟对象的移动而改变该第一虚拟对象的不透明度水平。
需注意,上述各种实施方案可与本文所述任何其他实施方案相结合。本说明书中描述的特征和优点并不全面,具体来说,根据附图、说明书和权利要求书,许多另外的特征和优点对本领域的普通技术人员将是显而易见的。此外,应当指出,出于可读性和指导性目的,在原则上选择了本说明书中使用的语言,并且可以不这样选择以描绘或界定本发明的主题。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1A是示出根据一些实施方案的用于提供XR体验的计算机系统的操作环境的框图。
图1B至图1P是用于在图1A的操作环境中提供XR体验的计算机系统的示例。
图2是示出根据一些实施方案的计算机系统的被配置为管理和协调用户的XR体验的控制器的框图。
图3是示出根据一些实施方案的计算机系统的被配置为向用户提供XR体验的视觉组成部分的显示生成部件的框图。
图4是示出根据一些实施方案的计算机系统的被配置为捕获用户的手势输入的手部跟踪单元的框图。
图5是示出根据一些实施方案的计算机系统的被配置为捕获用户的注视输入的眼睛跟踪单元的框图。
图6是示出根据一些实施方案的闪光辅助的注视跟踪流水线的流程图。
图7A至图7EE示出了改变相应虚拟对象在三维环境中的视觉突出性的示例。
图8是示出响应于第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象的视觉突出性的示例性方法的流程图。
图9是示出基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变相应虚拟对象的视觉突出性的示例性方法的流程图。
图10A至图10N1示出了将视觉效果应用于现实世界对象的示例。
图11是示出将视觉效果应用于现实世界对象的示例性方法的流程图。
图12A至图12Q1示出了将视觉效果应用于背景的示例。
图13是示出将视觉效果应用于背景的示例性方法的流程图。
图14A至图14K示出了基于虚拟对象的状态来应用视觉效果的示例。
图15是示出基于虚拟对象的状态来应用视觉效果的方法的流程图。
图16A至图16K示出了根据一些实施方案的基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象的视觉突出性的计算机系统的示例。
图17是示出根据一些实施方案的基于不同类型的重叠对象的显示来改变虚拟对象的视觉突出性的方法的流程图。
图18A至图18T示出了根据一些实施方案的改变虚拟对象的视觉突出性以解决与另一虚拟对象的模拟重叠的计算机系统的示例。
图19是示出根据一些实施方案的改变虚拟对象的视觉突出性以解决与另一虚拟对象的模拟重叠的方法的流程图。
具体实施方式
根据一些实施方案,本公开涉及用于向用户提供扩展现实(XR)体验的用户界面。
本文所述的系统、方法和GUI以多种方式改进与虚拟/增强现实环境进行的用户界面交互。
在一些实施方案中,计算机系统响应于检测到从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量而改变相应虚拟对象在三维环境中的视觉突出性。
在一些实施方案中,计算机系统减小相应虚拟对象的一部分的视觉突出性,并且基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变相应虚拟对象的该部分的视觉突出性。
在一些实施方案中,计算机系统响应于检测到透传可见性事件(其中现实世界对象在由计算机系统呈现的三维环境中变得可见)而将视觉效果(诸如调光效果或着色效果)应用于现实世界对象。
在一些实施方案中,当在三维环境中显示虚拟内容时并且当背景在三维环境中可见时(例如,任选地包括虚拟环境和/或物理环境的表示的背景),计算机系统基于背景的状态(诸如与当日时间设置相关联的状态)将视觉效果应用于(或放弃应用程序)背景。
在一些实施方案中,计算机系统基于虚拟对象是处于活动状态还是不处于活动状态来应用程序(或放弃应用)与虚拟对象(例如,虚拟应用程序窗口)相关联的视觉效果。
在一些实施方案中,计算机系统响应于检测到导致用户界面元素在三维环境中与虚拟对象重叠显示的事件而改变虚拟对象的视觉突出性,诸如改变虚拟对象的亮度和/或半透明度。
在一些实施方案中,计算机系统响应于与第二虚拟对象重叠的第一虚拟对象的移动而改变该第一虚拟对象的不透明度水平。
图1A至图6提供了用于向用户提供XR体验的示例性计算机系统的描述(诸如下文相对于方法800、900、1100、1300和/或1500所述的)。图7A至图7EE示出了根据一些实施方案的改变相应虚拟对象相对于三维环境的视觉突出性的计算机系统的示例。图8是示出根据一些实施方案的响应于检测到三维环境中第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象相对于三维环境的视觉突出性的示例性方法的流程图。图7A至图7EE中的用户界面用于示出图8中的过程。图9是示出根据一些实施方案的基于第一虚拟对象相对于第二虚拟对象在三维环境中的空间位置的改变来改变相应虚拟对象的视觉突出性的方法的流程图。图7A至图7EE中的用户界面用于示出图9中的过程。图10A至图10N示出了根据一些实施方案的用于将视觉效果应用于现实世界对象的示例技术。图11是根据各种实施方案的将视觉效果应用于现实世界对象的方法的流程图。图10A至图10F中的用户界面用于示出图11中的过程。图12A至图12Q示出了根据一些实施方案的将视觉效果应用于背景的示例技术。图13是根据各种实施方案的将视觉效果应用于背景的方法的流程图。图12A至图12Q中的用户界面用于示出图13中的过程。图14A至图14K示出了根据一些实施方案的用于基于虚拟对象的状态应用视觉效果的示例技术。图15是根据各种实施方案的基于虚拟对象的状态应用视觉效果的方法的流程图。图14A至图14K中的用户界面用于示出图15中的过程。图16A至图16K示出了根据各种实施方案的用于基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象的视觉突出性的示例技术。图17是根据各种实施方案的基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象的视觉突出性的方法的流程图,图16A至图16K中的用户界面用于示出图17中的过程。图18A至图18T示出了根据一些实施方案的用于改变虚拟对象的视觉突出性以解决与另一虚拟对象的模拟重叠的计算机系统的示例技术。图19是示出根据一些实施方案的改变虚拟对象的视觉突出性以解决与另一虚拟对象的模拟重叠的方法的流程图。图18A至图18T中的用户界面用于示出图19中的过程。
下文所描述的过程通过各种技术增强了设备的可操作性并且使用户-设备界面更高效(例如,通过帮助用户提供合适输入并减少操作设备/与设备交互时的用户错误),这些技术包括向用户提供改进的视觉反馈、减少执行操作所需的输入数量、提供附加控制选项而不会因附加显示控件使用户界面混乱、在已经满足一组条件时执行操作而无需进一步的用户输入、改善隐私性和/或安全性、在节省存储空间时提供更多样、详细和/或真实的用户体验,和/或附加技术。这些技术还通过使用户能够更快且更高效地使用设备而减少了电力使用并延长了设备的电池寿命。节省电池电量,并且因此节省重量,改善了设备的人体工程学。这些技术还使得能够进行实时通信,允许使用更少和/或不太精确的传感器,从而产生更紧凑、更轻且更便宜的设备,并且使得该设备能够在各种照明条件下使用。这些技术减少了能量使用,从而减少了由设备发出的热量,这对于可穿戴设备特别重要,其中如果完全在设备部件的操作参数内的设备产生太多热量,则对于用户来说,穿戴该设备会变得不舒服。
此外,在本文所述的其中一个或多个步骤取决于已满足一个或多个条件的方法中,应当理解,所述方法可在多次重复中重复,使得在重复的过程中,在方法的不同重复中已满足决定方法中的步骤的所有条件。例如,如果方法需要执行第一步骤(如果满足条件),以及执行第二步骤(如果不满足条件),则普通技术人员将会知道,重复所声明的步骤,直到满足条件和不满足条件两者(不分先后)。因此,可将被描述为具有取决于已满足一个或多个条件的一个或多个步骤的方法重写为重复直到已满足该方法中所述的每个条件的方法。然而,这不需要系统或计算机可读介质声明该系统或计算机可读介质包含用于基于对应的一个或多个条件的满足来执行视情况而定的操作的指令,并且因此能够确定是否已满足可能的情况,而无需明确地重复方法的步骤直到已满足决定方法中的步骤的所有条件。本领域的普通技术人员还将理解,类似于具有视情况而定的步骤的方法,系统或计算机可读存储介质可根据需要多次重复方法的步骤,以确保已执行所有视情况而定的步骤。
在一些实施方案中,如图1A所示,经由包括计算机系统101的操作环境100向用户提供XR体验。计算机系统101包括控制器110(例如,便携式电子设备的处理器或远程服务器)、显示生成部件120(例如,头戴式设备(HMD)、显示器、投影仪、触摸屏等)、一个或多个输入设备125(例如,眼睛跟踪设备130、手部跟踪设备140、其他输入设备150)、一个或多个输出设备155(例如,扬声器160、触觉输出发生器170和其他输出设备180)、一个或多个传感器190(例如,图像传感器、光传感器、深度传感器、触觉传感器、取向传感器、接近传感器、温度传感器、位置传感器、运动传感器、速度传感器等),以及任选地一个或多个外围设备195(例如,家用电器、可穿戴设备等)。在一些实施方案中,输入设备125、输出设备155、传感器190和外围设备195中的一者或多者与显示生成部件120集成(例如,在头戴式设备或手持式设备中)。
在描述XR体验时,各种术语用于区别地指代用户可以感测并且/或者用户可以与其进行交互(例如,利用由生成XR体验的计算机系统101检测到的输入进行交互,这些输入使得生成XR体验的计算机系统生成与提供给计算机系统101的各种输入对应的音频、视觉和/或触觉反馈)的若干相关但不同的环境。以下是这些术语的子集:
物理环境:物理环境是指人们在没有电子系统帮助的情况下能够感测和/或交互的物理世界。物理环境诸如物理公园包括物理物品,诸如物理树木、物理建筑物和物理人。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。
扩展现实:相反,扩展现实(XR)环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。在XR中,跟踪人的物理运动的子集或其表示,并且作为响应,以符合至少一个物理定律的方式调整在XR环境中模拟的一个或多个虚拟对象的一个或多个特性。例如,XR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调整呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对XR环境中虚拟对象的特性的调整可以响应于物理运动的表示(例如,声音命令)来进行。人可以利用其感觉中的任一者来感测XR对象和/或与之交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,音频对象创建3D或空间音频环境,3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些XR环境中,人可以感测和/或只与音频对象交互。
XR的示例包括虚拟现实和混合现实。
虚拟现实:虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或交互的多个虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像是虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟和/或通过在计算机生成的环境内人的物理移动的一个子集的模拟来感测和/或与VR环境中的虚拟对象交互。
混合现实:与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境是完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。
增强现实:增强现实(AR)环境是指其中一个或多个虚拟对象重叠在物理环境或物理环境的表示上方的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过该显示器直接查看物理环境。该系统可以被配置为在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知重叠在物理环境之上的虚拟对象。另选地,系统可以具有不透明显示器和一个或多个成像传感器,该成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知重叠在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知重叠在物理环境之上的虚拟对象。增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过以图形方式修改(例如,放大)其部分而进行转换,使得所修改部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除其部分或将其部分进行模糊处理而进行转换。
增强虚拟:增强虚拟(AV)环境是指其中虚拟环境或计算机生成环境结合了来自物理环境的一种或多种感官输入的模拟环境。感官输入可以是物理环境的一个或多个特性的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的定位的阴影。
在增强现实、混合现实或虚拟现实环境中,三维环境的视图对用户是可见的。三维环境的视图通常经由一个或多个显示生成部件(例如,向同一用户的不同眼睛提供立体内容的显示器或一对显示模块)通过虚拟视口对用户可见,该虚拟视口具有视口边界,该视口边界限定经由一个或多个显示生成部件对用户可见的三维环境的范围。在一些实施方案中,由视口边界限定的区域在一个或多个维度上小于用户的视觉范围(例如,基于用户的视觉范围、一个或多个显示生成部件的尺寸、光学属性或其他物理特性、和/或一个或多个显示生成部件相对于用户的眼睛的位置和/或取向)。在一些实施方案中,由视口边界限定的区域在一个或多个维度上大于用户的视觉范围(例如,基于用户的视觉范围、一个或多个显示生成部件的尺寸、光学属性或其他物理特性、和/或一个或多个显示生成部件相对于用户的眼睛的位置和/或取向)。视口和视口边界通常随着一个或多个显示生成部件的移动而移动(例如,对于头戴式设备随着用户的头部移动,或者对于诸如平板电脑或智能电话之类的手持式设备随着用户的手部移动)。用户的视点确定在视口中可见的内容,视点通常指定相对于三维环境的位置和方向,并且随着视点移动,三维环境的视图也将在视口中移动。对于头戴式设备,视点通常基于用户的头部、面部和/或眼睛的位置、方向,以提供感知上准确的并且在用户正在使用头戴式设备时提供沉浸式体验的三维环境的视图。对于手持式或固定式设备,视点随着手持式或固定式设备的移动和/或随着用户相对于手持式或固定式设备的定位的变更而移动(例如,用户朝向、远离、向上、向下、向右和/或向左移动)。对于包括具有虚拟透传的显示生成部件的设备,经由一个或多个显示生成部件可见(例如,显示和/或投影)的物理环境的各部分基于与显示生成部件通信的一个或多个相机的视场,该一个或多个相机通常随着显示生成部件的移动而移动(例如,对于头戴式设备随着用户的头部的移动而移动,或者对于诸如平板电脑或智能电话之类的手持式设备随着用户的手部的移动而移动),因为用户的视点随着一个或多个相机的视场的移动而移动(并且经由一个或多个显示生成部件显示的一个或多个虚拟对象的外观基于用户的视点来更新(例如,虚拟对象的显示位置和姿态基于用户的视点的移动来更新))。对于具有光学透传的显示生成部件,经由一个或多个显示生成部件可见(例如,透过显示生成部件的一个或多个部分或完全透明部分光学可见)的物理环境的各部分基于用户通过显示生成部件的部分或完全透明部分的视场(例如,对于头戴式设备随着用户头部的移动而移动,或者对于诸如平板电脑或智能电话之类的手持式设备随着用户的手部的移动而移动),因为用户的视点随着用户通过显示生成部件的部分或完全透明部分的视场的移动而移动(并且一个或多个虚拟对象的外观基于用户的视点来更新)。
在一些实施方案中,物理环境的表示(例如,经由虚拟透传或光学透传显示)可被虚拟环境部分地或完全地遮挡。在一些实施方案中,所显示的虚拟环境的量(例如,未显示的物理环境的量)基于虚拟环境的沉浸水平(例如,相对于物理环境的表示)。例如,增加沉浸水平任选地使得显示更多的虚拟环境,替换和/或遮挡更多的物理环境,并且降低沉浸水平任选地使得显示更少的虚拟环境,从而显露先前未被显示和/或遮挡的物理环境的部分。在一些实施方案中,在特定沉浸水平下,一个或多个第一背景对象(例如,在物理环境的表示中)比一个或多个第二背景对象更多地在视觉上被去强调(例如,变暗淡、变模糊、以增大的透明度显示),并且一个或多个第三背景对象停止显示。在一些实施方案中,沉浸水平包括由计算机系统显示的虚拟内容(例如,虚拟环境和/或虚拟内容)遮挡虚拟环境周围/后面的背景内容(例如,除了虚拟环境和/或虚拟内容之外的内容)的相关联的程度,任选地包括所显示的背景内容的项目的数量和/或背景内容的所显示视觉特性(例如,颜色、对比度和/或不透明度),经由显示生成部件显示的虚拟内容的角度范围(例如,以低沉浸度显示的内容的60度,以中等沉浸度显示的内容的120度,或以高沉浸度显示的内容的180度),和/或由虚拟内容占用的经由显示生成部件显示的视场的比例(例如,由虚拟内容以低沉浸度占用的视场的33%,由虚拟内容以中等沉浸度占用的视场的66%,或由虚拟内容以高沉浸度占用的视场的100%)。在一些实施方案中,背景内容被包括在其上显示有虚拟内容的背景中(例如,物理环境的表示中的背景内容)。在一些实施方案中,背景内容包括用户界面(例如,由计算机系统生成的与应用程序相对应的用户界面)、不与虚拟环境和/或虚拟内容相关联或不包括在虚拟环境和/或虚拟内容中的虚拟对象(例如,由计算机系统生成的文件或其他用户的表示等),和/或真实对象(例如,表示用户周围的物理环境中的真实对象的透传对象,这些透传对象可见,使得它们经由显示生成部件显示和/或经由显示生成部件的透明或半透明部件可见,因为计算机系统不遮挡/妨碍它们透过显示生成部件的可见性)。在一些实施方案中,在低沉浸水平下(例如,第一沉浸水平),背景、虚拟和/或真实对象以不被遮挡的方式显示。例如,具有低沉浸水平的虚拟环境任选地与背景内容同时显示,该背景内容任选地以全亮度、颜色和/或半透明度显示。在一些实施方案中,在较高沉浸水平下(例如,高于第一沉浸水平的第二沉浸水平),背景、虚拟和/或真实对象以被遮挡的方式显示(例如,变暗淡、变模糊或从显示器移除)。例如,显示具有高沉浸水平的相应虚拟环境而不同时显示背景内容(例如,在全屏或完全沉浸模式中)。又如,以中等沉浸水平显示的虚拟环境与变暗、变模糊或以其他方式被去强调的背景内容同时显示。在一些实施方案中,背景对象的视觉特性在背景对象之间有所不同。例如,在特定沉浸水平下,一个或多个第一背景对象比一个或多个第二背景对象更多地在视觉上被去强调(例如,变暗淡、变模糊和/或以增大的透明度显示),并且一个或多个第三背景对象停止显示。在一些实施方案中,零沉浸度或零沉浸水平对应于停止显示的虚拟环境,并且替代地显示物理环境的表示(任选地具有一个或多个虚拟对象,诸如应用程序、窗口或虚拟三维对象),而物理环境的表示不被虚拟环境遮挡。使用物理输入元素调整沉浸水平提供了调整沉浸度的快速且高效的方法,这增强了计算机系统的可操作性并且使得用户-设备界面更高效。
视点锁定的虚拟对象:当计算机系统在用户视点中的相同位置和/或定位处显示虚拟对象时,即使用户的视点偏移(例如,发生变化),虚拟对象也是视点锁定的。在其中计算机系统是头戴式设备的实施方案中,用户的视点被锁定到用户的头部的前向方向(例如,当用户直视前方时,用户的视点是用户视场的至少一部分);因此,在不移动用户的头部的情况下,即使在用户的注视偏移时,用户的视点也保持固定。在其中计算机系统具有可相对于用户的头部重新定位的显示生成部件(例如,显示屏幕)的实施方案中,用户的视点是在计算机系统的显示生成部件上呈现给用户的增强现实视图。例如,当用户的视点处于第一取向(例如,用户头部面向北)时显示在用户的视点的左上角中的视点锁定的虚拟对象继续显示在用户的视点的左上角中,即使在用户的视点改变到第二取向(例如,用户头部面向西)时也是如此。换句话讲,在用户的视点中显示视点锁定的虚拟对象的位置和/或定位与用户在物理环境中的定位和/或取向无关。在其中计算机系统是头戴式设备的实施方案中,用户的视点被锁定到用户的头部的取向,使得虚拟对象也被称为“头部锁定虚拟对象”。
环境锁定的视觉对象:当计算机系统在用户的视点中的位置和/或定位处显示虚拟对象时,虚拟对象是环境锁定的(另选地,“世界锁定的”),该位置和/或定位基于三维环境(例如,物理环境或虚拟环境)中的位置和/或对象(例如,参考该位置和/或对象而选择和/或锚定到该位置和/或对象)。随着用户的视点移动,环境中相对于用户的视点的位置和/或对象改变,这导致环境锁定的虚拟对象显示在用户视点中的不同位置和/或定位处。例如,锁定到紧接在用户前面的树木上的环境锁定的虚拟对象显示在用户的视点的中心处。当用户的视点向右偏移(例如,用户头部向右转动)使得树木现在在用户的视点中处于中心左侧(例如,用户的视点中的树木定位偏移)时,锁定到树木上的环境锁定的虚拟对象在用户的视点中显示在中心左侧。换句话讲,在用户的视点中显示环境锁定的虚拟对象的位置和/或定位取决于环境中虚拟对象被锁定到其上的位置和/或对象的定位和/或取向。在一些实施方案中,计算机系统使用静止的参照系(例如,在物理环境中锚定到固定位置和/或对象的坐标系),以便确定在用户的视点中显示环境锁定的虚拟对象的定位。环境锁定的虚拟对象可被锁定到环境的静止部分(例如,地板、墙壁、桌子或其他静止对象),或可被锁定到环境的可移动部分(例如,车辆、动物、人或甚至独立于用户的视点移动的用户身体的一部分诸如用户的手、手腕、手臂或脚的表示)使得虚拟对象随着视点或环境的该部分移动而移动以保持虚拟对象和环境的该部分之间的固定关系。
在一些实施方案中,环境锁定或视点锁定的虚拟对象表现出惰性跟随行为,其相对于虚拟对象所跟随的参考点的移动而减少或延迟环境锁定或视点锁定的虚拟对象的运动。在一些实施方案中,在表现出惰性跟随行为时,当检测到虚拟对象正在跟随的参考点(例如,环境的一部分、视点或相对于视点固定的点,诸如距离视点5cm至300cm之间的点)的移动时,计算机系统有意地延迟虚拟对象的移动。例如,当参考点(例如,环境的该部分或视点)以第一速度移动时,虚拟对象被设备移动以保持锁定到参考点,但以相比于第一速度更慢的第二速度移动(例如,直到参考点停止移动或减慢,在该点处虚拟对象开始赶上参考点)。在一些实施方案中,当虚拟对象表现出惰性跟随行为时,设备忽略参考点的少量移动(例如,忽略参考点低于阈值移动量的移动,诸如移动0度至5度或移动0cm至50cm)。例如,当参考点(例如,虚拟对象被锁定到的环境的部分或视点)移动第一量时,参考点和虚拟对象之间的距离增大(例如,因为虚拟对象正被显示以便保持相对于与虚拟对象被锁定到的参考点不同的视点或环境的部分固定或基本上固定的定位),并且当参考点(例如,虚拟对象被锁定到的环境的部分或视点)移动大于第一量的第二量时,参考点和虚拟对象之间的距离先增大(例如,因为虚拟对象正被显示以便保持相对于与虚拟对象被锁定到的参考点不同的视点或环境的部分固定或基本上固定的定位),然后在参考点的移动量增大到阈值(例如,“惰性跟随”阈值)以上时减小,因为虚拟对象被计算机系统移动以保持相对于参考点固定或基本上固定的定位。在一些实施方案中,虚拟对象保持相对于参考点基本上固定的定位包括虚拟对象在一个或多个维度(例如,相对于参考点的定位的上/下、左/右和/或向前/向后)中在参考点的阈值距离(例如,1cm、2cm、3cm、5cm、15cm、20cm、50cm)内显示。
硬件:有许多不同类型的电子系统使人能够感测各种XR环境和/或与各种XR环境进行交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或不具有触觉反馈的可穿戴或手持控制器)、智能电话、平板设备和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可具有介质,代表图像的光通过该介质被引导到人的眼睛。显示器可利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任何组合。介质可以是光学波导、全息图介质、光学组合器、光学反射器或它们的任何组合。在一个实施方案中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。在一些实施方案中,控制器110被配置为管理和协调用户的XR体验。在一些实施方案中,控制器110包括软件、固件和/或硬件的合适组合。下文相对于图2更详细地描述了控制器110。在一些实施方案中,控制器110是相对于场景105(例如,物理环境)处于本地或远程位置的计算设备。例如,控制器110是位于场景105内的本地服务器。又如,控制器110是位于场景105之外的远程服务器(例如,云服务器、中央服务器等)。在一些实施方案中,控制器110经由一个或多个有线或无线通信通道144(例如,蓝牙、IEEE 802.11x、IEEE 802.16x、IEEE 802.3x等)与显示生成部件120(例如,HMD、显示器、投影仪、触摸屏等)通信地耦接。在另一个示例中,控制器110包括在显示生成部件120(例如,HMD或包括显示器和一个或多个处理器的便携式电子设备等)、输入设备125中的一个或多个输入设备、输出设备155中的一个或多个输出设备、传感器190中的一个或多个传感器和/或外围装设备195中的一个或多个外围装设备的壳体(例如,物理外壳)内,或者与上述设备中的一者或多者共享相同的物理壳体或支撑结构。
在一些实施方案中,显示生成部件120被配置为向用户提供XR体验(例如,至少XR体验的视觉组成部分)。在一些实施方案中,显示生成部件120包括软件、固件和/或硬件的合适组合。下文相对于图3更详细地描述了显示生成部件120。在一些实施方案中,控制器110的功能由显示生成部件120提供和/或与该显示生成部件组合。
根据一些实施方案,当用户虚拟地和/或物理地存在于场景105内时,显示生成部件120向用户提供XR体验。
在一些实施方案中,显示生成部件穿戴在用户身体的一部分上(例如,他/她的头部上、他/她的手上等)。这样,显示生成部件120包括被提供用于显示XR内容的一个或多个XR显示器。例如,在各种实施方案中,显示生成部件120包围用户的视场。在一些实施方案中,显示生成部件120是被配置为呈现XR内容的手持式设备(诸如智能电话或平板设备),并且用户握持具有朝向用户的视场的显示器和朝向场景105的相机的设备。在一些实施方案中,手持式设备被任选地放置在穿戴在用户的头部上的壳体内。在一些实施方案中,手持式设备被任选地放置在用户前面的支撑件(例如,三脚架)上。在一些实施方案中,显示生成部件120是被配置为呈现XR内容的XR室、壳体或房间,其中用户不穿戴或握持显示生成部件120。参考用于显示XR内容的一种类型的硬件(例如,手持式设备或三脚架上的设备)描述的许多用户界面可以在用于显示XR内容的另一种类型的硬件(例如,HMD或其他可穿戴计算设备)上实现。例如,示出基于发生在手持式设备或三脚架安装的设备前面的空间中的交互而触发的与XR内容的交互的用户界面可以类似地用HMD来实现,其中交互发生在HMD前面的空间中,并且对XR内容的响应经由HMD来显示。类似地,示出基于手持式设备或三脚架安装的设备相对于物理环境(例如,场景105或用户身体的一部分(例如,用户的眼睛、头部或手))的移动而触发的与XR内容的交互的用户界面可以类似地用HMD来实现,其中移动是由HMD相对于物理环境(例如,场景105或用户身体的一部分(例如,用户的眼睛、头部或手))的移动引起的。
尽管在图1A中示出了操作环境100的相关特征,但本领域的普通技术人员将从本公开中理解,为了简明起见并且为了不使本文所公开的示例实施方案的更多相关方面晦涩难懂,未例示各种其他特征。
图1A至图1P示出了用于执行方法并且提供音频、视觉和/或触觉反馈作为本文所述的用户界面的一部分的计算机系统的各种示例。在一些实施方案中,计算机系统包括用于向计算机系统的用户显示虚拟元素和/或对物理环境的表示的一个或多个显示生成部件(例如,第一显示器组件和第二显示器组件1-120a、1-120b和/或第一光学模块和第二光学模块11.1.1-104a和11.1.1-104b),该虚拟元素和/或对物理环境的该表示任选地基于所检测到的事件和/或由计算机系统所检测到的用户输入来生成。由计算机系统所生成的用户界面任选地由一个或多个矫正透镜11.3.2-216矫正,以使得原本会使用眼镜或隐形眼镜来矫正他们的视力的用户能够更容易地查看该用户界面,该一个或多个矫正透镜任选地可移除地附接到光学模块中的一个或多个光学模块。虽然本文示出的许多用户界面示出了用户界面的单个视图,但HMD中的用户界面任选地使用两个光学模块(例如,第一显示组件1-120a和第二显示组件1-120b和/或第一光学模块11.1.1-104a和第二光学模块11.1.1-104b)来显示,一个光学模块用于用户的右眼并且不同的光学模块用于用户的左眼,并且向两个不同的眼睛呈现略微不同的图像以生成立体深度的错觉,用户界面的单个视图通常是右眼视图或左眼视图,深度效果在文本中或使用其他示意图或视图进行解释。在一些实施方案中,计算机系统包括用于向计算机系统的用户(当计算机系统未被穿戴时)以及/或者向计算机系统附近的其他人显示计算机系统的状态信息的一个或多个外部显示器(例如,显示器组件1-108),该状态信息任选地基于所检测到的事件和/或由计算机系统所检测到的用户输入来生成。在一些实施方案中,计算机系统包括用于生成音频反馈的一个或多个音频输出部件(例如,电子部件1-112),该音频反馈任选地基于所检测到的事件和/或由计算机系统所检测到的用户输入来生成。在一些实施方案中,计算机系统包括用于检测输入的一个或多个输入设备,诸如用于检测关于设备的物理环境的信息的一个或多个传感器(例如,传感器组件1-356和/或图1I中的一个或多个传感器),该一个或多个传感器可用于(任选地与一个或多个照明器,诸如图1I中所述的照明器相结合)生成数字透传图像、捕获与物理环境相对应的视觉媒体(例如,照片和/或视频)、或确定物理环境中的物理对象和/或表面的位姿(例如,定位和/或定向),使得可基于物理对象和/或表面的所检测到的位姿来放置虚拟对象。在一些实施方案中,计算机系统包括用于检测输入的一个或多个输入设备,诸如用于检测手定位和/或移动的一个或多个传感器(例如,传感器组件1-356和/或图1I中的一个或多个传感器),该一个或多个传感器可用于(任选地与一个或多个照明器,诸如图1I中所述的照明器6-124相结合)确定何时执行了一个或多个空中手势。在一些实施方案中,计算机系统包括用于检测输入的一个或多个输入设备,诸如用于检测眼睛移动的一个或多个传感器(例如,图1I中的眼睛跟踪和注视跟踪传感器),这些传感器可用于(任选地结合一个或多个灯,诸如图1O中的灯11.3.2-110)确定注意力或注视定位和/或注视移动,这些定位和/或移动可任选地用于基于注视移动和/或停留来检测仅注视的输入。上述各种传感器的组合可用于确定用户面部表情和/或手部移动以用于生成用户的化身或表示,诸如用于实时通信会话的拟人化身或表示,其中化身具有基于或类似于设备的用户的检测到的面部表情、手部移动和/或身体移动的面部表情、手部移动和/或身体移动。注视和/或注意力信息任选地与手部跟踪信息组合以基于直接和/或间接输入来确定用户与一个或多个用户界面之间的交互,该直接和/或间接输入诸如空中手势或使用一个或多个硬件输入设备的输入,该硬件输入设备诸如一个或多个按钮(例如,第一按钮1-128、按钮11.1.1-114、第二按钮1-132和/或拨盘或按钮1-328)、旋钮(例如,第一按钮1-128、按钮11.1.1-114和/或拨盘或按钮1-328)、数字表冠(例如,可按压并且可扭转或可旋转的第一按钮1-128、按钮11.1.1-114和/或拨盘或按钮1-328)、触控板、触摸屏、键盘、鼠标和/或其他输入设备。一个或多个按钮(例如,第一按钮1-128、按钮11.1.1-114、第二按钮1-132和/或拨盘或按钮1-328)任选地用于执行系统操作,诸如重新居中对设备的用户可见的三维环境中的内容、显示用于启动应用程序的主用户界面、开始实时通信会话、或发起虚拟三维背景的显示。旋钮或数字表冠(例如,可按压并且可扭转或可旋转的第一按钮1-128、按钮11.1.1-114和/或拨盘或按钮1-328)任选地可旋转以调整视觉内容的参数,诸如虚拟三维环境的沉浸水平(例如,虚拟内容在三维环境中占据用户视口的程度)或与三维环境和经由光学模块(例如,第一显示组件1-120a和第二显示组件1-120b和/或第一光学模块11.1.1-104a和第二光学模块11.1.1-104b)显示的虚拟内容相关联的其他参数。
图1B示出了被配置为待由用户戴上并提供虚拟和改变/混合现实(VR/AR)体验的可头戴式显示器(HMD)设备1-100的示例的前视图、顶视图、透视图。HMD 1-100可包括显示单元1-102或组件、连接到显示单元1-102并从该显示单元延伸的电子条带组件1-104,以及在任一端固定到电子条带组件1-104的带组件1-106。电子条带组件1-104和带1-106可以是保持组件的一部分,该保持组件被配置为缠绕在用户的头部周围以保持显示单元1-102抵靠用户的面部。
在至少一个示例中,带组件1-106可包括被配置为缠绕在用户的头部后侧的第一带1-116和被配置为在用户的头部的顶部上方延伸的第二带1-117。如图所示,第二带可在电子条带组件1-104的第一电子条带1-105a与第二电子条带1-105b之间延伸。条带组件1-104和带组件1-106可以是固定机构的一部分,该固定机构从显示单元1-102向后延伸并且被配置为保持显示单元1-102抵靠用户的面部。
在至少一个示例中,固定机构包括第一电子条带1-105a,该第一电子条带包括耦接到显示单元1-102(例如,显示单元1-102的外壳1-150)的第一近端1-134和与第一近端1-134相对的第一远端1-136。固定机构还可包括第二电子条带1-105b,该第二电子条带包括耦接到显示单元1-102的外壳1-150的第二近端1-138和与第二近端1-138相对的第二远端1-140。固定机构还可包括第一带1-116和第二带1-117,第一带包括耦接到第一远端1-136的第一端1-142以及耦接到第二远端1-140的第二端1-144,并且第二带在第一电子条带1-105a与第二电子条带1-105b之间延伸。条带1-105a至b和带1-116可经由连接机构或组件1-114耦接。在至少一个示例中,第二带1-117包括在第一近端1-134与第一远端1-136之间耦接到第一电子条带1-105a的第一端1-146以及在第二近端1-138与第二远端1-140之间耦接到第二电子条带1-105b的第二端1-148。
在至少一个示例中,第一电子条带和第二电子条带1-105a至b包含塑料、金属或形成基本上刚性的条带1-105a至b的形状的其他结构材料。在至少一个示例中,第一带和第二带1-116、1-117由弹性柔性材料(包括织造纺织品、橡胶等)形成。第一带1-116和第二带1-117可以是柔性的以在穿戴HMD 1-100时适形于用户头部的形状。
在至少一个示例中,第一和第二电子条带1-105a至b中的一者或多者可限定内部条带体积并且包括设置在内部条带体积中的一个或多个电子部件。在一个示例中,如图1B所示,第一电子条带1-105a可包括电子部件1-112。在一个示例中,电子部件1-112可包括扬声器。在一个示例中,电子部件1-112可包括计算部件,诸如处理器。
在至少一个示例中,外壳1-150限定了第一前置开口1-152。前置开口在图1B中以虚线标记为1-152,这是因为显示器组件1-108被设置成当HMD 1-100被组装时从视图来看遮挡第一开口1-152。外壳1-150还可限定后置第二开口1-154。外壳1-150还限定了第一开口1-152与第二开口1-154之间的内部体积。在至少一个示例中,HMD 1-100包括显示组件1-108,该显示组件可包括设置在前开口1-152中或跨该前开口以遮挡前开口1-152的前盖和显示屏幕(在其他图中示出)。在至少一个示例中,显示组件1-108的显示屏幕以及通常的显示组件1-108具有被配置为跟随用户面部的曲率的曲率。显示组件1-108的显示屏幕可以如图所示弯曲以与用户的面部特征和从面部的一侧到另一侧的总体曲率互补,例如从左到右和/或从顶部到底部,其中显示单元1-102被按压。
在至少一个示例中,外壳1-150可限定第一开口1-152与第二开口1-154之间的第一孔1-126以及第一开口1-152与第二开口1-154之间的第二孔1-130。HMD 1-100还可包括设置在第一孔1-128中的第一按钮1-126,以及设置在第二孔1-130中的第二按钮1-132。第一按钮1-128和第二按钮1-132能够通过相应的孔1-126、1-130被按压。在至少一个示例中,第一按钮1-126和/或第二按钮1-132可以是可扭转拨盘以及可压下按钮。在至少一个示例中,第一按钮1-128是可按压并且可扭转的拨盘按钮,并且第二按钮1-132是可按压按钮。
图1C示出了HMD 1-100的后透视图。HMD 1-100可包括从显示器组件1-108的外壳1-150围绕外壳1-150的周边向后延伸的光密封件1-110,如图所示。光密封件1-110可被配置为从外壳1-150延伸到用户的面部,围绕用户的眼睛,以阻挡外部光可见。在一个示例中,HMD 1-100可包括第一显示组件1-120a和第二显示组件1-120b,这些显示组件设置在由外壳1-150限定的面向后的第二开口1-154处或其中和/或设置在外壳1-150的内部体积中并且被配置为通过第二开口1-154投射光。在至少一个示例中,每个显示组件1-120a至b可包括相应的显示屏幕1-122a、1-122b,这些显示屏幕被配置为在向后方向上通过第二开口1-154朝向用户的眼睛投射光。
在至少一个示例中,参考图1B和图1C两者,显示器组件1-108可以是包括被配置为在第一向前方向上投射光的显示屏幕的前置向前显示器组件,并且后置显示屏幕1-122a至b可被配置为在与第一方向相反的第二向后方向上投射光。如上所述,光密封件1-110可被配置为阻挡HMD 1-100外部的光到达用户的眼睛,包括由图1B的前透视图中示出的显示器组件1-108的前向显示屏幕投射的光。在至少一个示例中,HMD 1-100还可包括遮挡外壳1-150与后置显示组件1-120a至b之间的第二开口1-154的幕帘1-124。在至少一个示例中,幕帘1-124可以是弹性的或至少部分弹性的。
图1B和图1C所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1D至图1F所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1D至图1F所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1B和图1C所示的设备、特征、部件和零件的示例中。
图1D示出了包括其各种部分或零件的HMD 1-200的示例的分解视图,这些部分或零件根据这些零件的模块性和选择性耦接来被分开。例如,HMD 1-200可包括带1-216,该带可选择性地耦接到第一电子条带1-205a和第二电子条带1-205b。第一固定条带1-205a可包括第一电子部件1-212a,并且第二固定条带1-205b可包括第二电子部件1-212b。在至少一个示例中,第一和第二条带1-205a至b能够可移除地耦接到显示单元1-202。
此外,HMD 1-200可包括被配置为可移除地耦接到显示单元1-202的光密封件1-210。HMD 1-200还可包括透镜1-218,该透镜可例如在包括显示屏幕的第一组件和第二显示组件上可移除地耦接到显示单元1-202。透镜1-218可包括被配置用于矫正视力的定制处方透镜。如所指出的,在图1D的分解视图中示出并且在上文描述的每个零件能够被可移除地耦接、附接、重新附接、以及更换以更新零件、或者针对不同的用户换出零件。例如,带诸如带1-216、光密封件诸如光密封件1-210、透镜诸如透镜1-218,以及电子条带诸如电子条带1-205a至b可根据用户而被换出,使得这些部分被定制为贴合并且对应于HMD 1-200的单个用户。
图1D所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1B、图1C和图1E至图1F所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1B、图1C和图1E至图1F所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1D所示的设备、特征、部件和零件的示例中。
图1E示出了HMD的显示单元1-306的示例的分解视图。显示单元1-306可包括前显示组件1-308、框架/外壳组件1-350和幕帘组件1-324。显示单元1-306还可包括设置在框架组件1-350与前显示组件1-308之间的传感器组件1-356、逻辑板组件1-358和冷却组件1-360。在至少一个示例中,显示单元1-306还可包括后置显示组件1-320,该后置显示组件包括设置在框架1-350与幕帘组件1-324之间的第一后置显示屏幕1-322a和第二后置显示屏幕1-322b。
在至少一个示例中,显示单元1-306还可包括马达组件1-362,该马达组件被配置作为用于调整显示组件1-320的显示屏幕1-322a至b相对于框架1-350的定位的调整机构。在至少一个示例中,显示组件1-320机械地耦接到马达组件1-362,每个显示屏幕1-322a至b具有至少一个马达,使得马达能够平移显示屏幕1-322a至b以匹配用户的眼睛的瞳孔间距。
在至少一个示例中,显示单元1-306可包括拨盘或按钮1-328,该拨盘或按钮可相对于框架1-350按压并且可由框架1-350外部的用户访问。按钮1-328可经由控制器电连接到马达组件1-362,使得按钮1-328可由用户操纵以使得马达组件1-362的马达调整显示屏幕1-322a至b的定位。
图1E所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1B至图1D和图1F所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1B至图1D和图1F所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1E所示的设备、特征、部件和零件的示例中。
图1F示出了与本文所述的其他HMD设备类似的HMD设备的显示单元1-406的另一示例的分解视图。显示单元1-406可包括前显示组件1-402、传感器组件1-456、逻辑板组件1-458、冷却组件1-460、框架组件1-450、后置显示组件1-421和幕帘组件1-424。显示单元1-406还可包括马达组件1-462,该马达组件用于调整后置显示组件1-421的第一显示子组件1-420a和第二显示子组件1-420b的定位,包括用于瞳孔间调整的第一相应显示屏幕和第二相应显示屏幕,如上所述。
在本文中参考图1B至图1E以及本公开中所参考的后续附图来更详细地描述图1F的分解视图所示的各种零件、系统和组件。图1F所示的显示单元1-406可与图1B至图1E所示的固定机构组装和集成,该固定机构包括电子条带、带和其他部件(包括光密封件、连接组件等)。
图1F所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1B至图1E所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1B至图1E所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1F所示的设备、特征、部件和零件的示例中。
图1G示出了本文所述的HMD设备的前盖组件3-100(例如图1G所示的HMD 3-100或本文所示和所述的任何其他HMD设备的前盖组件3-1)的分解透视图。图1G所示的前盖组件3-100可包括透明或半透明盖3-102、护罩3-104(或“罩盖”)、粘合剂层3-106、包括双凸透镜面板或阵列3-110的显示器组件3-108、以及结构装饰件3-112。粘合剂层3-106可将护罩3-104和/或透明盖3-102固定到显示器组件3-108和/或装饰件3-112。装饰件3-112可将前盖组件3-100的各种部件固定到HMD设备的框架或底座。
在至少一个示例中,如图1G所示,透明盖3-102、护罩3-104和包括双凸透镜阵列3-110的显示器组件3-108可被弯曲以适应用户的面部的曲率。透明盖3-102和护罩3-104可在两个或三个维度上弯曲,例如,在Z-X平面内外沿Z方向竖直弯曲,在Z-X平面内外沿X方向水平弯曲。在至少一个示例中,显示组件3-108可包括双凸透镜阵列3-110以及具有像素的显示面板,这些像素被配置为通过护罩3-104和透明盖3-102投射光。显示组件3-108可在至少一个方向(例如,水平方向)上弯曲,以适应用户的面部从面部的一侧(例如,左侧)到另一侧(例如,右侧)的曲率。在至少一个示例中,显示组件3-108的每个层或部件(其将在随后的附图中示出并且更详细地描述,但是其可包括双凸透镜阵列3-110和显示层)可在水平方向上类似地或同心地弯曲以适应用户面部的曲率。
在至少一个示例中,护罩3-104可包括透明或半透明材料,显示组件3-108通过该透明或半透明材料投射光。在一个示例中,护罩3-104可包括一个或多个不透明部分,例如在护罩3-104的背面上的不透明墨印刷部分或其他不透明膜部分。当HMD设备被穿戴时,后表面可以是护罩3-104面向用户的眼睛的表面。在至少一个示例中,不透明部分可以在护罩3-104的与后表面相对的前表面上。在至少一个示例中,护罩3-104的一个或多个不透明部分可包括周边部分,该周边部分在视觉上隐藏围绕显示组件3-108的显示屏幕的外周边的任何部件。以这种方式,护罩的不透明部分隐藏了HMD设备的原本将透过透明或半透明盖3-102和/或护罩3-104可见的任何其他部件,包括电子部件、结构部件等。
在至少一个示例中,护罩3-104可限定一个或多个孔透明部分3-120,传感器可通过这些孔透明部分发送和接收信号。在一个示例中,部分3-120是孔,传感器可延伸通过该孔或者通过该孔发送和接收信号。在一个示例中,部分3-120是透明部分,或者比护罩的周围半透明或不透明部分更加透明的部分,通过这些部分,传感器可通过护罩并通过透明盖3-102发送和接收信号。在一个示例中,传感器可包括相机、IR传感器、LUX传感器,或HMD设备的任何其他视觉或非视觉环境传感器。
图1G所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,本文所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1G所示的设备、特征、部件和零件的示例中。
图1H示出了HMD设备6-100的示例的分解视图。HMD设备6-100可包括传感器阵列或系统6-102,该传感器阵列或系统包括安装到HMD 6-100的一个或多个部件的一个或多个传感器、相机、投影仪等。在至少一个示例中,传感器系统6-102可包括托架1-338,传感器系统6-102的一个或多个传感器可固定/紧固在该托架上。
图1I示出了包括前透明盖6-104和传感器系统6-102的HMD设备6-100的一部分。传感器系统6-102可包括多个不同的传感器、发射器、接收器,包括相机、IR传感器、投影仪等。透明盖6-104被示出在传感器系统6-102的前面,以示出各种传感器和发射器的相对定位以及系统6-102的每个传感器/发射器的取向。如本文所引用,“旁边”、“侧面”、“侧向”、“水平”和其他类似术语是指如由图1J所示的X轴所指示的定向或方向。术语诸如“竖直”、“向上”、“向下”和类似术语是指如由图1J所示的Z轴所指示的定向或方向。术语诸如“向前(frontward)”、“向后(rearward)”、“向前(forward)”、“向后(backward)”和类似术语是指如由图1J所示的Y轴所指示的定向或方向。
在至少一个示例中,透明盖6-104可限定HMD设备6-100的前外表面,并且包括各种传感器及其部件的传感器系统6-102可在Y轴/方向上设置在盖6-104的后面。盖6-104可以是透明的或半透明的,以允许光穿过盖6-104,包括由传感器系统6-102检测到的光和由此发射的光两者。
如本文其他地方所述,HMD设备6-100可包括一个或多个控制器,这些控制器包括用于将传感器系统6-102的各种传感器和发射器与一个或多个母板、处理单元和其他电子设备诸如显示屏等电耦接的处理器。此外,如下文将参考其他附图更详细地示出的,传感器系统6-102的各种传感器、发射器和其他部件可被耦接到HMD设备6-100的在图1I中未示出的各种结构框架构件、托架等。为了清楚例示起见,图1I示出了与其他部件未附接且未电耦接的传感器系统6-102的部件。
在至少一个示例中,该设备可包括一个或多个控制器,这些控制器具有被配置为执行存储在电耦接到处理器的存储器部件上的指令的处理器。这些指令可包括或使得处理器执行一个或多个算法,这些算法用于随时间的推移随着相机的初始定位、角度或方向由于意外掉落事件或其他事件而发生碰撞或变形来自我校正本文所述的各种相机的角度和定位。
在至少一个示例中,传感器系统6-102可包括一个或多个场景相机6-106。系统6-102可包括两个场景相机6-102,分别设置在HMD设备6-100的鼻梁或拱形结构的两侧,使得这两个相机6-106中的每一者大致对应于用户在盖6-103后面的左眼和右眼的定位。在至少一个示例中,场景相机6-106通常在Y方向上向前取向以在HMD 6-100的使用期间捕获用户前方的图像。在至少一个示例中,场景相机是彩色相机,并且当使用HMD设备6-100时,提供用于MR视频透传的图像和内容到面向用户的眼睛的显示屏幕。场景相机6-106还可用于环境和对象重建。
在至少一个示例中,传感器系统6-102可包括通常在Y方向上向前指向的第一深度传感器6-108。在至少一个示例中,第一深度传感器6-108可用于环境和对象重建以及用户的手部和身体跟踪。在至少一个示例中,传感器系统6-102可包括沿着HMD设备6-100的宽度(例如,沿着X轴)居中设置的第二深度传感器6-110。例如,第二深度传感器6-110可被设置在中央鼻梁上方或用户穿戴HMD 6-100时鼻子上方的适配结构上。在至少一个示例中,第二深度传感器6-110可用于环境和对象重建以及手部和身体跟踪。在至少一个示例中,第二深度传感器可包括LIDAR传感器。
在至少一个示例中,传感器系统6-102可包括深度投影仪6-112,该深度投影仪通常面向前以将电磁波(例如,以预先确定的光点图案的形式)投射到用户和/或场景相机6-106的视场中或视场内,或者投射到包括并且超出用户和/或场景相机6-106的视场的视场中或视场内。在至少一个示例中,深度投影仪能够以点光图案的形式投射光的电磁波,这些电磁波从对象反射并回到上述深度传感器中,包括深度传感器6-108、6-110。在至少一个示例中,深度投影仪6-112可用于环境和对象重建以及手部和身体跟踪。
在至少一个示例中,传感器系统6-102可包括面向下的相机6-114,其视场通常在Z轴上相对于HDM设备6-100指向下。在至少一个示例中,向下相机6-114可如图所示设置在HMD设备6-100的左侧和右侧上并且用于手部和身体跟踪、头戴式耳机跟踪以及面部化身检测和创建以用于在本文其他地方所述的HMD设备6-100的前向显示屏幕上显示用户化身。例如,向下相机6-114可用于捕获HMD设备6-100下方的用户面部的面部表情和移动,包括脸颊、嘴部和下巴。
在至少一个示例中,传感器系统6-102可包括下颌相机6-116。在至少一个示例中,下颌相机6-116可如图所示设置在HMD设备6-100的左侧和右侧上并且用于手部和身体跟踪、头戴式耳机跟踪以及面部化身检测和创建以用于在本文其他地方所述的HMD设备6-100的前向显示屏幕上显示用户化身。例如,下颌相机6-116可用于捕获HMD设备6-100下方的用户面部的面部表情和移动,包括用户的下颌、脸颊、嘴部和下巴。用于手部和身体跟踪、头戴式耳机跟踪和面部化身
在至少一个示例中,传感器系统6-102可包括侧相机6-118。侧相机6-118可被取向成在X轴或相对于HMD设备6-100的方向上捕获左侧和右侧视图。在至少一个示例中,侧相机6-118可用于手部和身体跟踪、头戴式耳机跟踪以及面部化身检测和重新创建。
在至少一个示例中,传感器系统6-102可包括用于在使用期间和/或使用之前确定身份、状态和用户的眼睛的注视方向的多个眼睛跟踪和注视跟踪传感器。在至少一个示例中,眼睛/注视跟踪传感器可包括鼻眼相机6-120,该鼻眼相机被设置在用户的鼻子的任一侧上,并且在穿戴HMD设备6-100时邻近用户的鼻子。眼睛/注视传感器还可包括设置在相应用户眼睛下方的用于捕获眼睛的图像以用于面部化身检测和创建、注视跟踪和虹膜标识功能的底部眼睛相机6-122。
在至少一个示例中,传感器系统6-102可包括红外照明器6-124,该红外照明器从HMD设备6-100向外指向以利用IR光照射外部环境以及其中的任何对象,以便利用传感器系统6-102的一个或多个IR传感器进行IR检测。在至少一个示例中,传感器系统6-102可包括闪烁传感器6-126和环境光传感器6-128。在至少一个示例中,闪烁传感器6-126可检测顶灯光刷新速率以避免显示器闪烁。在一个示例中,红外照明器6-124可包括发光二极管,并且可特别地用于低光环境,以用于在低光中照射用户的手部和其他对象,以便由传感器系统6-102的红外传感器检测。
在至少一个示例中,多个传感器(包括场景相机6-106、向下相机6-114、下颌相机6-116、侧相机6-118、深度投影仪6-112和深度传感器6-108、6-110)可与电耦接控制器组合使用,以将深度数据与相机数据组合,用于手部跟踪和用于尺寸确定,以便更好地进行HMD设备6-100的手部跟踪以及对象识别和跟踪功能。在至少一个示例中,上文所述并在图1I中示出的向下相机6-114、颌部相机6-116和侧相机6-118可以是能够在可见光谱和红外光谱中工作的广角相机。在至少一个示例中,这些相机6-114、6-116、6-118可仅在黑白光检测中工作以简化图像处理并获得灵敏度。
图1I所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1J至图1L所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1J至图1L所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1I所示的设备、特征、部件和零件的示例中。
图1J示出了包括固定到框架6-230的盖或护罩6-204的HMD 6-200的示例的下部透视图。在至少一个示例中,传感器系统6-202的传感器6-203可围绕HDM 6-200的周边设置,使得传感器6-203围绕显示区域或区域6-232的周边向外设置,以便不阻碍对所显示的光的查看。在至少一个示例中,传感器可设置在护罩6-204后面并且与护罩的透明部分对准,从而允许传感器和投影仪允许光来回通过护罩6-204。在至少一个示例中,不透明墨或其他不透明材料或膜/层可围绕显示区域6-232设置在护罩6-204上以将HMD 6-200的部件隐藏在显示区域6-232外部而不是由不透明部分限定的透明部分,传感器和投影仪在操作期间通过该不透明部分发送和接收光和电磁信号。在至少一个示例中,护罩6-204允许光从显示器(例如,在显示区域6-232内)穿过,但不允许光从围绕显示器和护罩6-204的周边的显示区域径向向外穿过。
在一些示例中,护罩6-204包括透明部分6-205和不透明部分6-207,如上文和本文其他地方所述。在至少一个示例中,护罩6-204的不透明部分6-207可限定一个或多个透明区域6-209,传感器系统6-202的传感器6-203可通过该透明区域发送和接收信号。在示出的示例中,通过护罩6-204,或者更具体地通过护罩6-204的不透明部分6-207的(或由该不透明部分限定的)透明区域6-209来发送和接收信号的传感器系统6-202的传感器6-203可包括与图1I的示例中所示的那些相同或类似的传感器,例如深度传感器6-108和6-110、深度投影仪6-112、第一场景相机和第二场景相机6-106、第一向下相机和第二向下相机6-114、第一侧相机和第二侧相机6-118以及第一红外照明器和第二红外照明器6-124。这些传感器也在图1K和图1L的示例中示出。其他传感器、传感器类型、传感器数量和它们的相对定位可包括在HMD的一个或多个其他示例中。
图1J所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1I和图1K至图1L所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1I和图1K至图1L所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1J所示的设备、特征、部件和零件的示例中。
图1K示出了包括显示器6-334、托架6-336、6-338以及框架或外壳6-330的HMD设备6-300的示例的一部分的前视图。图1K所示的示例不包括前盖或护罩以便示出托架6-336、6-338。例如,图1J所示的护罩6-204包括不透明部分6-207,该不透明部分将在视觉上覆盖/阻挡对在显示器/显示区域6-334之外(例如,径向地/外围地在该显示器/显示区域之外)的任何事物(包括传感器6-303和托架6-338)的查看。
在至少一个示例中,传感器系统6-302的各种传感器耦接到托架6-336、6-338。在至少一个示例中,场景相机6-306包括相对于彼此的角度的严格公差。例如,两个场景相机6-306之间的安装角度的公差可以是0.5度或更小,例如0.3度或更小。为了实现和保持这种严格公差,在一个示例中,场景相机6-306可安装到托架6-338而不是护罩。托架可包括悬臂,场景相机6-306以及传感器系统6-302的其他传感器可安装在该悬臂上,以在由用户导致其他托架6-226、外壳6-330和/或护罩的任何变形的掉落事件的情况下保持定位和取向不变。
图1K所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1I至图1J和图1L所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1I至图1J和图1L所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1K所示的设备、特征、部件和零件的示例中。
图1L示出了包括前显示器/盖组件6-404和传感器系统6-402的HMD 6-400的示例的底视图。传感器系统6-402可与上文和本文其他地方(包括参考图1I至图1K)所述的其他传感器系统类似。在至少一个示例中,下颌相机6-416可面向下以捕获用户的下部面部特征的图像。在一个示例中,下颌相机6-416可直接耦接到框架或外壳6-430或者一个或多个内部托架,这些内部托架直接耦接到所示的框架或外壳6-430。框架或外壳6-430可包括一个或多个孔/开口6-415,下颌相机6-416可通过这些孔/开口发送和接收信号。
图1L所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1I至图1K所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1I至图1K所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1L所示的设备、特征、部件和零件的示例中。
图1M示出了瞳孔间距(IPD)调整系统11.1.1-102的后透视图,该IPD调整系统包括可滑动地接合/耦接到左调整子系统和右调整子系统11.1.1-106a至b的相应导杆11.1.1-108a至b和马达11.1.1-110a至b的第一光学模块和第二光学模块11.1.1-104a至b。IPD调整系统11.1.1-102可耦接到托架11.1.1-112,并且包括与马达11.1.1-110a至b电通信的按钮11.1.1-114。在至少一个示例中,按钮11.1.1-114可经由处理器或其他电路部件与第一马达和第二马达11.1.1-110a至b电通信,以使得第一马达和第二马达11.1.1-110a至b激活并且分别使得第一光学模块和第二光学模块11.1.1-104a至b相对于彼此改变定位。
在至少一个示例中,第一和第二光学模块11.1.1-104a至b可包括相应的显示屏幕,这些显示屏幕被配置为在穿戴HMD 11.1.1-100时朝向用户的眼睛投射光。在至少一个示例中,用户可操纵(例如,按压和/或旋转)按钮11.1.1-114以激活光学模块11.1.1-104a至b的位置调整以匹配用户眼睛的瞳孔间距。光学模块11.1.1-104a至b还可包括用于成像和测量用户的IPD的一个或多个相机或其他传感器/传感器系统,使得光学模块11.1.1-104a至b可被调整以匹配IPD。
在一个示例中,用户可操纵按钮11.1.1-114以引起第一和第二光学模块11.1.1-104a至b的自动位置调整。在一个示例中,用户可操纵按钮11.1.1-114以引起手动调整,使得光学模块11.1.1-104a至b移动得更远或更近(例如当用户以一种方式或另一种方式旋转按钮11.1.1-114时),直到用户在视觉上匹配她/他自己的IPD。在一个示例中,手动调整经由一个或多个电路以电子方式进行通信,并且用于经由马达11.1.1-110a至b移动光学模块11.1.1-104a至b的电力由电源提供。在一个示例中,经由操纵按钮11.1.1-114的光学模块11.1.1-104a至b的调整和移动经由移动按钮11.1.1-114被机械地致动。
图1M所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在任何其他示出的附图所示和本文所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考任何其他示出的附图所示和所述以及本文所述的特征、部件和/或零件中的任一者(包括其布置和配置)单独地或以任何组合方式在图1M所示的设备、特征、部件和零件的示例中。
图1N示出了HMD 11.1.2-100的一部分的前透视图,其包括限定第一孔和第二孔11.1.2-106a、11.1.2-106b的外结构框架11.1.2-102和内或中间结构框架11.1.2-104。孔11.1.2-106a至b在图1N中以虚线示出,因为对孔11.1.2-106a至b的查看可能被HMD11.1.2-100的耦接到内框架11.1.2-104和/或外框架11.1.2-102的一个或多个其他部件阻挡,如图所示。在至少一个示例中,HMD 11.1.2-100可包括耦接到内部框架11.1.2-104的第一安装托架11.1.2-108。在至少一个示例中,安装托架11.1.2-108在第一和第二孔11.1.2-106a至b之间耦接到内部框架11.1.2-104。
安装托架11.1.2-108可包括耦接到内部框架11.1.2-104的中间或中心部分11.1.2-109。在一些示例中,中间或中心部分11.1.2-109可以不是托架11.1.2-108的几何中间或中心。相反,中间/中心部分11.1.2-109可设置在远离中间部分11.1.2-109延伸的第一悬臂式延伸臂和第二悬臂式延伸臂之间。在至少一个示例中,安装托架108包括第一悬臂11.1.2-112和第二悬臂11.1.2-114,这些悬臂远离耦接到内部框架11.1.2-104的安装托架11.1.2-108的中间部分11.1.2-109延伸。
如图1N所示,外框架11.1.2-102可在其下部侧面上限定弯曲的几何形状,以当用户戴上HMD 11.1.2-100时适应用户的鼻部。弯曲几何形状可被称为鼻梁11.1.2-111并且如图所示居中地位于HMD 11.1.2-100的下侧上。在至少一个示例中,安装托架11.1.2-108可在孔11.1.2-106a至b之间连接到内部框架11.1.2-104,使得悬臂11.1.2-112、11.1.2-114远离中间部分11.1.2-109向下并且横向向外延伸以与外部框架11.1.2-102的鼻架11.1.2-111几何形状互补。以这种方式,安装托架11.1.2-108被配置为适应用户的鼻子,如上所述。鼻梁11.1.2-111的几何形状适应鼻子,因为鼻梁11.1.2-111提供了符合用户鼻子的形状的曲率,从上方、上面和周围提供舒适的贴合度。
第一悬臂11.1.2-112可在第一方向上延伸远离安装托架11.1.2-108的中间部分11.1.2-109,并且第二悬臂11.1.2-114可在与第一方向相反的第二方向上延伸远离安装托架11.1.2-10的中间部分11.1.2-109。第一悬臂11.1.2-112和第二悬臂11.1.2-114被称为“悬臂式”或“悬臂”臂,因为每个臂11.1.2-112、11.1.2-114分别包括自由远端11.1.2-116、11.1.2-118,这些自由远端不与内部框架11.1.2-102和外部框架11.1.2-104附连。以这种方式,臂11.1.2-112、11.1.2-114从中间部分11.1.2-109悬伸,该中间部分可连接到内部框架11.1.2-104,而远端11.1.2-102、11.1.2-104未附接。
在至少一个示例中,HMD 11.1.2-100可包括耦接到安装托架11.1.2-108的一个或多个部件。在一个示例中,部件包括多个传感器11.1.2-110a-f。多个传感器11.1.2-110a-f中的每个传感器可包括各种类型的传感器,包括相机、IR传感器等。在一些示例中,传感器11.1.2-110a-f中的一个或多个传感器可用于三维空间中的对象识别,使得保持多个传感器11.1.2-110a-f中的两个或更多个传感器的精确相对定位是重要的。安装托架11.1.2-108的悬臂性质可保护传感器11.1.2-110a-f在因用户意外掉落的情况下免受损坏和改变定位。因为传感器11.1.2-110a-f悬挑在安装托架11.1.2-108的臂11.1.2-112、11.1.2-114上,因此内部框架和/或外部框架11.1.2-104、11.1.2-102的应力和变形不被传递到悬臂11.1.2-112、11.1.2-114,并且因此不会影响耦接/安装到安装托架11.1.2-108的传感器11.1.2-110a-f的相对位置。
图1N所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在本文所述的设备、特征、部件和的其他示例中的任何其他示例中。同样,本文所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1N所示的设备、特征、部件和零件的示例中。
图1O示出了用于电子设备(诸如HMD,包括本文所述的HDM设备)中的光学模块11.3.2-100的示例。如本文所述的一个或多个其他示例所示,光学模块11.3.2-100可以是HMD内的两个光学模块中的一者,其中每个光学模块被对准以朝向用户的眼睛投射光。以这种方式,第一光学模块可经由显示屏幕向用户的第一只眼睛投射光,并且同一设备的第二光学模块可经由另一显示屏幕向用户的第二只眼睛投射光。
在至少一个示例中,光学模块11.3.2-100可包括光学框架或外壳11.3.2-102,其也可被称为筒或光学模块筒。光学模块11.3.2-100还可包括耦接到外壳11.3.2-102的显示器11.3.2-104,该显示器包括一个或多个显示屏幕。显示器11.3.2-104可耦接到外壳11.3.2-102,使得显示器11.3.2-104被配置为在使用期间穿戴显示模块11.3.2-100所属的HMD时朝向用户的眼睛投射光。在至少一个示例中,外壳11.3.2-102可围绕显示器11.3.2-104并且提供用于耦接本文所述的光学模块的其他部件的连接特征部。
在一个示例中,光学模块11.3.2-100可包括耦接到外壳11.3.2-102的一个或多个相机11.3.2-106。相机11.3.2-106可相对于显示器11.3.2-104和外壳11.3.2-102定位,使得相机11.3.2-106被配置为在使用期间捕获用户的眼睛的一个或多个图像。在至少一个示例中,光学模块11.3.2-100还可包括围绕显示器11.3.2-104的灯条带11.3.2-108。在一个示例中,灯条带11.3.2-108设置在显示器11.3.2-104与相机11.3.2-106之间。灯条带11.3.2-108可包括多个灯11.3.2-110。该多个灯可包括一个或多个发光二极管(LED)或被配置为在穿戴HMD时朝向用户的眼睛投射光的其他灯。灯条带11.3.2-108中的各个灯11.3.2-110可围绕灯条带11.3.2-108间隔开,并且因此在灯条带11.3.2-108上和显示器11.3.2-104周围的各个位置处围绕显示器11.3.2-104均匀地或不均匀地间隔开。
在至少一个示例中,外壳11.3.2-102限定了查看开口11.3.2-101,当穿戴HMD设备时,用户可通过该查看开口查看显示器11.3.2-104。在至少一个示例中,这些LED被配置和布置成通过查看开口11.3.2-101将光发射到用户的眼睛上。在一个示例中,相机11.3.2-106被配置为通过查看开口11.3.2-101捕获用户的眼睛的一个或多个图像。
如上所述,图1O所示的光学模块11.3.2-100的部件和特征中的每一者都可在与HMD一起设置的另一(例如,第二)光学模块中被复制,以与用户的另一只眼睛进行交互(例如,投射光和捕获图像)。
图1O所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1P所示或本文以其他方式所述的设备、特征、部件和零件的其他示例中的任何其他示例中。同样,参考图1P所示和所述或本文以其他方式所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1O所示的设备、特征、部件和零件的示例中。
图1P示出了光学模块11.3.2-200的示例的剖视图,该光学模块包括外壳11.3.2-202、耦接到外壳11.3.2-202的显示器组件11.3.2-204以及耦接到外壳11.3.2-202的透镜11.3.2-216。在至少一个示例中,外壳11.3.2-202限定了第一孔或通道11.3.2-212和第二孔或通道11.3.2-214。通道11.3.2-212、11.3.2-214可被配置为可滑动地接合HMD设备的相应轨道或导杆,以允许光学模块11.3.2-200相对于用户的眼睛调整定位,以匹配用户的瞳孔间距(IPD)。外壳11.3.2-202能够可滑动地接合导杆以将光学模块11.3.2-200固定在HMD内的适当位置。
在至少一个示例中,光学模块11.3.2-200还可包括耦接到外壳11.3.2-202并且当穿戴HMD时设置在显示组件11.3.2-204与用户的眼睛之间的透镜11.3.2-216。透镜11.3.2-216可被配置为将光从显示组件11.3.2-204引导到用户的眼睛。在至少一个示例中,透镜11.3.2-216可以是透镜组件的一部分,包括可移除地附接到光学模块11.3.2-200的矫正透镜。在至少一个示例中,透镜11.3.2-216设置在灯条带11.3.2-208和一个或多个眼睛跟踪相机11.3.2-206上方,使得相机11.3.2-206被配置为通过透镜11.3.2-216捕获用户的眼睛的图像,并且灯条带11.3.2-208包括被配置为在使用期间通过透镜11.3.2-216将光投射到用户的眼睛的灯。
图1P所示的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在本文所述的设备、特征、部件和零件和的其他示例中的任何其他示例中。同样,本文所示和所述的特征、部件和/或零件中的任一者(包括其布置和配置)可单独地或以任何组合方式被包括在图1P所示的设备、特征、部件和零件的示例中。
图2是根据一些实施方案的控制器110的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不使本文所公开的实施方案的更多相关方面晦涩难懂,未示出各种其他特征。为此,作为非限制性示例,在一些实施方案中,控制器110包括一个或多个处理单元202(例如,微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、中央处理单元(CPU)、处理核心等)、一个或多个输入/输出(I/O)设备206、一个或多个通信接口208(例如,通用串行总线(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、全球移动通信系统(GSM)、码分多址(CDMA)、时分多址(TDMA)、全球定位系统(GPS)、红外(IR)、蓝牙、ZIGBEE以及/或者类似类型的接口)、一个或多个编程(例如,I/O)接口210、存储器220以及用于互连这些部件和各种其他部件的一条或多条通信总线204。
在一些实施方案中,一条或多条通信总线204包括互连和控制系统部件之间的通信的电路。在一些实施方案中,一个或多个I/O设备206包括键盘、鼠标、触摸板、操纵杆、一个或多个麦克风、一个或多个扬声器、一个或多个图像传感器、一个或多个显示器等中的至少一种。
存储器220包括高速随机存取存储器,诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、双倍数据速率随机存取存储器(DDR RAM)或者其他随机存取固态存储器设备。在一些实施方案中,存储器220包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器220任选地包括远离一个或多个处理单元202定位的一个或多个存储设备。存储器220包括非暂态计算机可读存储介质。在一些实施方案中,存储器220或者存储器220的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统230和XR体验模块240。
操作系统230包括用于处理各种基础系统服务和用于执行硬件相关任务的指令。在一些实施方案中,XR体验模块240被配置为管理和协调一个或多个用户的单重或多重XR体验(例如,一个或多个用户的单重XR体验,或一个或多个用户的相应群组的多重XR体验)。为此,在各种实施方案中,XR体验模块240包括数据获取单元241、跟踪单元242、协调单元246和数据发送单元248。
在一些实施方案中,数据获取单元241被配置为从图1A的至少显示生成部件120,以及任选地从输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者获取数据(例如,呈现数据、交互数据、传感器数据、位置数据等)。为此,在各种实施方案中,数据获取单元241包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,跟踪单元242被配置为映射场景105,并且跟踪至少显示生成部件120相对于图1A场景105的定位/位置,以及任选地跟踪输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者的位置。为此,在各种实施方案中,跟踪单元242包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。在一些实施方案中,跟踪单元242包括手部跟踪单元244和/或眼睛跟踪单元243。在一些实施方案中,手部跟踪单元244被配置为跟踪用户的手部的一个或多个部分的定位/位置,以及/或者用户的手部的一个或多个部分相对于图1A的场景105的、相对于显示生成部件120和/或相对于坐标系(该坐标系是相对于用户的手部定义的)的运动。下文相对于图4更详细地描述了手部跟踪单元244。在一些实施方案中,眼睛跟踪单元243被配置为跟踪用户注视(或更广泛地,用户的眼睛、面部或头部)相对于场景105(例如,相对于物理环境和/或相对于用户(例如,用户的手))或相对于经由显示生成部件120显示的XR内容的定位或移动。下文相对于图5更详细地描述了眼睛跟踪单元243。
在一些实施方案中,协调单元246被配置为管理和协调由显示生成部件120,以及任选地由输出设备155和/或外围装设备195中的一者或多者呈现给用户的XR体验。为此,在各种实施方案中,协调单元246包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,数据发送单元248被配置为将数据(例如,呈现数据、位置数据等)发送到至少显示生成部件120,并且任选地发送到输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者。为此,在各种实施方案中,数据发送单元248包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元241、跟踪单元242(例如,包括眼睛跟踪单元243和手部跟踪单元244)、协调单元246和数据发送单元248被示为驻留在单个设备(例如,控制器110)上,但应当理解,在其他实施方案中,数据获取单元241、跟踪单元242(例如,包括眼睛跟踪单元243和手部跟踪单元244)、协调单元246和数据发送单元248的任何组合可以位于单独计算设备中。
此外,图2更多地用作可以存在于特定具体实施中的各种特征的功能描述,与本文所述的实施方案的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图2中单独示出的一些功能模块可在单个模块中实现,并且单个功能块的各种功能可在各种实施方案中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些实施方案中,部分地取决于为特定具体实施选择的硬件、软件和/或固件的特定组合。
图3是根据一些实施方案的显示生成部件120的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不使本文所公开的实施方案的更多相关方面晦涩难懂,未示出各种其他特征。为此,作为非限制性示例,在一些实施方案中,显示生成部件120(例如,HMD)包括一个或多个处理单元302(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备和传感器306、一个或多个通信接口308(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE802.16x、GSM、CDMA、TDMA、GPS、IR、蓝牙、ZIGBEE以及/或者类似类型的接口)、一个或多个编程(例如,I/O)接口310、一个或多个XR显示器312、一个或多个任选的面向内部并且/或者面向外部的图像传感器314、存储器320以及用于互连这些部件和各种其他部件的一条或多条通信总线304。
在一些实施方案中,一条或多条通信总线304包括用于互连和控制各系统部件之间的通信的电路。在一些实施方案中,一个或多个I/O设备和传感器306包括惯性测量单元(IMU)、加速度计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血液氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎以及/或者一个或多个深度传感器(例如,结构光、飞行时间等)等。
在一些实施方案中,一个或多个XR显示器312被配置为向用户提供XR体验。在一些实施方案中,一个或多个XR显示器312对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)以及/或者类似的显示器类型。在一些实施方案中,一个或多个XR显示器312对应于衍射、反射、偏振、全息等波导显示器。例如,显示生成部件120(例如,HMD)包括单个XR显示器。在另一示例中,显示生成部件120包括针对用户的每只眼睛的XR显示器。在一些实施方案中,一个或多个XR显示器312能够呈现MR和VR内容。在一些实施方案中,一个或多个XR显示器312能够呈现MR或VR内容。
在一些实施方案中,一个或多个图像传感器314被配置为获取与用户面部的包括用户的眼睛的至少一部分对应的图像数据(并且可被称为眼睛跟踪相机)。在一些实施方案中,一个或多个图像传感器314被配置为获取与用户的手以及任选地用户的手臂的至少一部分对应的图像数据(并且可被称为手部跟踪相机)。在一些实施方案中,一个或多个图像传感器314被配置为面向前方,以便获取与在不存在显示生成部件120(例如,HMD)的情况下用户将会看到的场景对应的图像数据(并且可被称为场景相机)。一个或多个任选的图像传感器314可包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、一个或多个红外(IR)相机和/或一个或多个基于事件的相机等。
存储器320包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些实施方案中,存储器320包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器320任选地包括远离一个或多个处理单元302定位的一个或多个存储设备。存储器320包括非暂态计算机可读存储介质。在一些实施方案中,存储器320或者存储器320的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统330和XR呈现模块340。
操作系统330包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些实施方案中,XR呈现模块340被配置为经由一个或多个XR显示器312向用户呈现XR内容。为此,在各种实施方案中,XR呈现模块340包括数据获取单元342、XR呈现单元344、XR映射生成单元346和数据发送单元348。
在一些实施方案中,数据获取单元342被配置为至少从图1A的控制器110获取数据(例如,呈现数据、交互数据、传感器数据、定位数据等)。为此,在各种实施方案中,数据获取单元342包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,XR呈现单元344被配置为经由一个或多个XR显示器312呈现XR内容。为此,在各种实施方案中,XR呈现单元344包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,XR映射生成单元346被配置为基于媒体内容数据生成XR图(例如,混合现实场景的3D图或可以在其中放置计算机生成对象以生成扩展现实的物理环境的图)。为此,在各种实施方案中,XR映射生成单元346包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
在一些实施方案中,数据发送单元348被配置为将数据(例如,呈现数据、位置数据等)发送到至少控制器110,以及任选地发送到输入设备125、输出设备155、传感器190和/或外围设备195中的一者或多者。为此,在各种实施方案中,数据发送单元348包括指令和/或用于指令的逻辑以及启发法和用于启发法的元数据。
尽管数据获取单元342、XR呈现单元344、XR映射生成单元346和数据发送单元348被示出为驻留在单个设备(例如,图1A的显示生成部件120)上,但应当理解,在其他实施方案中,数据获取单元342、XR呈现单元344、XR映射生成单元346和数据发送单元348的任何组合可位于单独计算设备中。
此外,图3更多地用作可能存在于特定实施方案中的各种特征的功能描述,与本文所述的实施方案的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图3中单独示出的一些功能模块可在单个模块中实现,并且单个功能块的各种功能可在各种实施方案中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据具体实施而变化,并且在一些实施方案中,部分地取决于为特定具体实施选择的硬件、软件和/或固件的特定组合。
图4是手部跟踪设备140的示例实施方案的示意性图解。在一些实施方案中,手部跟踪设备140(图1A)由手部跟踪单元244(图2)来控制以跟踪用户的手部的一个或多个部分的定位/位置、以及/或者用户的手部的一个或多个部分相对于图1A的场景105(例如,相对于用户周围的物理环境的一部分、相对于显示生成部件120、或相对于用户的一部分(例如,用户的面部、眼睛或头部)、以及/或者相对于坐标系(该坐标系是相对于用户的手来定义的)的运动。在一些实施方案中,手部跟踪设备140是显示生成部件120的一部分(例如,嵌入头戴式设备中或附接到头戴式设备)。在一些实施方案中,手部跟踪设备140与显示生成部件120分开(例如,位于单独的外壳中或者附接到单独的物理支撑结构)。
在一些实施方案中,手部跟踪设备140包括捕获至少包括人类用户的手406的三维场景信息的图像传感器404(例如,一个或多个IR相机、3D相机、深度相机和/或彩色相机等)。图像传感器404以足够的分辨率捕获手图像,以使手指及其相应定位能够被区分。图像传感器404通常捕获用户身体的其他部分、还或可能捕获身体的所有部分的图像,并且可以具有缩放能力或具有增大放大率的专用传感器以用期望分辨率捕获手的图像。在一些实施方案中,图像传感器404还捕获手406的2D彩色视频图像和场景的其他元素。在一些实施方案中,图像传感器404与其他图像传感器结合使用以捕获场景105的物理环境,或者用作捕获场景105的物理环境的图像传感器。在一些实施方案中,以将图像传感器404或其一部分的视场用于限定交互空间的方式相对于用户或用户的环境定位图像传感器,在该交互空间中,由图像传感器捕获的手移动被视为到控制器110的输入。
在一些实施方案中,图像传感器404将包含3D图数据(以及此外,可能的彩色图像数据)的帧序列输出到控制器110,该控制器从该图数据提取高级信息。该高级信息通常经由应用程序接口(API)提供给在控制器上运行的应用程序,该应用程序相应地驱动显示生成部件120。例如,用户可以通过移动他的手406并改变他的手位姿来与在控制器110上运行的软件交互。
在一些实施方案中,图像传感器404将斑点图案投影到包含手406的场景上并且捕获所投影图案的图像。在一些实施方案中,控制器110基于图案中斑点的横向偏移来通过三角测量计算场景中的点(包括用户的手的表面上的点)的3D坐标。这种方法是有利的,因为该方法不需要用户握持或穿戴任何种类的信标、传感器或其他标记。该方法给出了场景中的点在距图像传感器404的特定距离处相对于预先确定的参考平面的深度坐标。在本公开中,假设图像传感器404限定x轴、y轴、z轴的正交集合,使得场景中的点的深度坐标对应于由图像传感器测量的z分量。另选地,图像传感器404(例如,手部跟踪设备)可基于单个或多个相机或其他类型的传感器而使用其他3D映射方法,诸如立体成像或飞行时间测量。
在一些实施方案中,手部跟踪设备140在用户移动他的手部(例如,整个手部或一根或多根手指)时捕获并处理包含用户的手部的深度图的时间序列。在图像传感器404和/或控制器110中的处理器上运行的软件处理3D图数据以提取这些深度图中手的图像块描述符。软件可基于先前的学习过程将这些描述符与存储在数据库408中的图像块描述符匹配,以便估计每个帧中手的位姿。位姿通常包括用户的手关节和手指尖端的3D位置。
软件还可以分析手和/或手指在序列中的多个帧上的轨迹以标识手势。本文所述的位姿估计功能可以与运动跟踪功能交替,使得每两个(或更多个)帧仅执行一次基于图像块的位姿估计,而跟踪用于找到在剩余帧上发生的位姿的变化。经由上述API向在控制器110上运行的应用程序提供位姿、运动和手势信息。该程序可以例如响应于位姿和/或手势信息而移动和修改呈现在显示生成部件120上的图像,或者执行其他功能。
在一些实施方案中,手势包括空中手势。空中手势是在用户不触碰作为设备(例如,计算机系统101、一个或多个输入设备125和/或手部跟踪设备140)的一部分的输入元件(或独立于作为设备的一部分的输入元件)的情况下检测到的并且基于检测到的用户身体的一部分(例如,头部、一个或多个手臂、一只或多只手、一根或多根手指和/或一条或多条腿)穿过空中的运动(包括用户的身体相对于绝对参考的运动(例如,用户的手臂相对于地面的角度或用户的手相对于地面的距离)、相对于用户身体的另一部分的运动(例如,用户的手相对于用户的肩部的移动、用户的一只手相对于用户的另一只手的移动、和/或用户的手指相对于用户的另一手指或手的一部分的移动)、和/或用户身体的一部分的绝对运动(例如,包括手以预先确定位姿将移动预先确定量和/或速度的轻击手势、或包括用户身体的一部分的预先确定的速度或旋转量的摇动手势))的手势。
在一些实施方案中,根据一些实施方案,在本文所述的各种示例和实施方案中使用的输入手势包括通过用户的手指相对于用户的手部的其他手指或部分的移动执行的用于与XR环境(例如,虚拟或混合现实环境)交互的空中手势。在一些实施方案中,空中手势是在用户不触碰作为设备的一部分的输入元件(或独立于作为设备的一部分的输入元件)的情况下检测到的并且基于所检测到的用户身体的一部分穿过空中的运动(包括用户的身体相对于绝对参考的运动(例如,用户的手臂相对于地面的角度或用户的手部相对于地面的距离)、相对于用户身体的另一部分的运动(例如,用户的手部相对于用户的肩部的移动、用户的一只手相对于用户的另一只手的移动、和/或用户的手指相对于用户的另一手指或手部的一部分的移动)、和/或用户身体的一部分的绝对运动(例如,包括手部以预先确定位姿将移动预定量和/或速度的轻击手势、或包括用户身体的一部分的预定速度或旋转量的摇动手势))的手势。
在输入手势是空中手势的一些实施方案中(例如,在不存在与输入设备的物理接触的情况下,该输入设备向计算机系统提供关于哪个用户界面元素是用户输入的目标的信息,诸如与显示在触摸屏上的用户界面元素的接触、或与鼠标或触控板的接触以将光标移动到用户界面元素),手势考虑用户的注意力(例如,注视)以确定用户输入的目标(例如,对于直接输入,如下所述)。因此,在涉及空中手势的实施方案中,例如,输入手势与用户的手指和/或手的移动组合(例如,同时)检测到朝向用户界面元素的注意力(例如,注视)以执行捏合和/或轻击输入,如下所述。
在一些实施方案中,直接或间接地参考用户界面对象来执行指向用户界面对象的输入手势。例如,根据用用户的手部在与三维环境中的用户界面对象的定位相对应的定位(例如,如基于用户的当前视点所确定的)处执行输入手势,直接在用户界面对象上执行用户输入。在一些实施方案中,在检测到用户对用户界面对象的注意力(例如,注视)时,根据在用户执行输入手势的同时用户的手的定位不在与用户界面对象在三维环境中的定位相对应的该定位处,在用户界面对象上间接执行输入手势。例如,对于直接输入手势,用户能够通过在与用户界面对象的显示定位相对应的定位处或附近(例如,从选项的外边缘或选项的中心部分测量的0.5cm、1cm、5cm内或0至5cm之间的距离内)发起手势来将用户的输入引导至用户界面对象。对于间接输入手势,用户能够通过关注用户界面对象(例如,通过注视用户界面对象)来将用户的输入引导至用户界面对象,并且在关注选项的同时,用户发起输入手势(例如,在计算机系统可检测到的任何定位处)(例如,在不对应于用户界面对象的显示定位的定位处)。
在一些实施方案中,根据一些实施方案,在本文所述的各种示例和实施方案中使用的输入手势(例如,空中手势)包括捏合输入和轻击输入,以用于与虚拟或混合现实环境交互。例如,下文所述的捏合输入和轻击输入被执行为空中手势。
在一些实施方案中,捏合输入是空中手势的一部分,该空中手势包括以下中的一者或多者:捏合手势、长捏合手势、捏合并拖动手势或双捏合手势。例如,作为空中手势的捏合手势包括手的两个或更多个手指的移动以彼此接触,即,任选地,随后是彼此立即(例如,在0秒至1秒内)中断接触。作为空中手势的长捏合手势包括在检测到彼此接触的中断之前手的两个或更多个手指彼此接触至少阈值时间量(例如,至少1秒)的移动。例如,长捏合手势包括用户保持捏合手势(例如,其中两个或更多个手指进行接触),并且长捏合手势继续直到检测到两个或更多个手指之间的接触中断为止。在一些实施方案中,作为空中手势的双捏合手势包括彼此立即(例如,在预定义时间段内)连续检测到的两个(例如,或更多个)捏合输入(例如,由同一只手执行)。例如,用户执行第一捏合输入(例如,捏合输入或长捏合输入),释放第一捏合输入(例如,中断两个或更多个手指之间的接触),并且在释放第一捏合输入之后的预定义时间段内(例如,在1秒内或在2秒内)执行第二捏合输入。
在一些实施方案中,作为空中手势的捏合并拖动手势包括与将用户的手的定位从第一定位(例如,拖动的开始定位)改变到第二定位(例如,拖动的结束定位)的拖动输入结合(例如,跟随)执行的捏合手势(例如,捏合手势或长捏合手势)。在一些实施方案中,用户在执行拖动输入的同时保持捏合手势,并且释放捏合手势(例如,打开他们的两个或更多个手指)以结束拖动手势(例如,在第二定位处)。在一些实施方案中,捏合输入和拖动输入由同一只手执行(例如,用户捏合两个或更多个手指以彼此接触并且利用拖动手势将同一只手移动到空中的第二定位)。在一些实施方案中,由用户的第一只手执行捏合输入,并且由用户的第二只手执行拖动输入(例如,在用户用用户的第一只手继续捏合输入的同时,用户的第二只手在空中从第一定位移动到第二定位。在一些实施方案中,作为空中手势的输入手势包括使用用户的两只手执行的输入(例如,捏合和/或轻击输入)。例如,输入手势包括彼此结合(例如,并发地或在预定义时间段内)执行的两个(例如,或更多个)捏合输入。例如,使用用户的第一只手执行第一捏合手势(例如,捏合输入、长捏合输入或捏合并拖动输入),并且结合使用第一只手执行捏合输入,使用另一只手(例如,用户两只手中的第二只手)执行第二捏合输入。
在一些实施方案中,作为空中手势执行的轻击输入(例如,指向用户界面元素)包括用户的手指朝向用户界面元素的移动、用户的手朝向用户界面元素的移动(任选地,用户的手指朝向用户界面元素延伸)、用户的手指的向下运动(例如,模仿鼠标点击运动或触摸屏上的轻击)、或用户的手的其他预定义移动。在一些实施方案中,基于执行手指或手的轻击手势移动的手指或手的移动特性来检测作为空中手势执行的轻击输入,该轻击手势移动是手指或手远离用户的视点和/或朝向作为轻击输入的目标的对象,随后是移动的结束。在一些实施方案中,基于执行轻击手势的手指或手的移动特性的变化来检测移动的结束(例如,远离用户的视点和/或朝向作为轻击输入的目标的对象的移动的结束、手指或手的移动方向的反转和/或手指或手的移动的加速方向的反转)。
在一些实施方案中,基于对指向三维环境的一部分的注视的检测来确定用户的注意力指向三维环境的该部分(任选地,不需要其他条件)。在一些实施方案中,基于利用一个或多个附加条件检测到指向三维环境的一部分的注视来确定用户的注意力指向三维环境的该部分,附加条件诸如要求注视指向三维环境的该部分达至少阈值持续时间(例如,停留持续时间)和/或要求注视在用户的视点在距三维环境的该部分的距离阈值内时指向三维环境的该部分,以便设备确定用户的注意力指向三维环境的该部分,其中如果这些附加条件中的一者未满足,则设备确定注意力未指向注视指向的三维环境的该部分(例如,直到满足该一个或多个附加条件)。
在一些实施方案中,用户或用户的一部分的就绪状态构型的检测由计算机系统检测。手的就绪状态构型的检测由计算机系统用作用户可能正准备使用由手执行的一个或多个空中手势输入(例如,捏合、轻击、捏合并拖动、双捏合、长捏合或本文所述的其他空中手势)与计算机系统交互的指示。例如,基于手是否具有预先确定的手形状(例如,拇指和一个或多个手指延伸并间隔开以准备做出捏合或抓取手势的预捏合形状,或者一个或多个手指延伸并且手掌背对用户的预轻击)、基于手是否处于相对于用户的视点的预先确定的定位中(例如,在用户的头部下方并且在用户的腰部上方并从身体延伸出至少15cm、20cm、25cm、30cm或50cm)和/或基于手是否已以特定方式移动(例如,朝向用户的腰部上方并且在用户的头部下方的用户前方的区域移动或远离用户的身体或腿部移动)来确定手的就绪状态。在一些实施方案中,就绪状态被用来确定用户界面的交互式元素是否对注意力(例如,注视)输入作出响应。
在参考空中手势描述输入的场景中,应当理解,可使用附接到用户的一只或多只手或由用户的一只或多只手握持的硬件输入设备来检测类似手势,其中可使用光学跟踪、一个或多个加速度计、一个或多个陀螺仪、一个或多个磁力计和/或一个或多个惯性测量单元来跟踪硬件输入设备在空间中的定位,并且使用硬件输入设备的定位和/或移动来代替处于对应空中手势的一只或多只手的定位和/或移动。在参考空中位姿描述输入的场景中,应当理解,可使用附接到用户的一只或多只手或由用户的一只或多只手握持的硬件输入设备来检测类似位姿。可利用硬件输入设备中所含有的控件来检测用户输入,这些控件诸如一个或多个触敏输入元件、一个或多个压敏输入元件、一个或多个按钮、一个或多个旋钮、一个或多个拨号盘、一个或多个操纵杆、可检测手和/或手指的部分相对于彼此、相对于用户的身体和/或相对于用户的物理环境的定位或定位的变化的一只或多只手或手指覆盖物,和/或其他硬件输入设备控件,其中使用利用硬件输入设备中所含有的控件进行的用户输入来代替手和/或手指手势诸如处于对应空中手势的空中轻击或空中捏合。例如,被描述为利用空中轻击或空中捏合输入执行的选择输入可以另选地利用按钮按压、触敏表面上的轻击、压敏表面上的按压或其他硬件输入来检测。又如,被描述为利用空中捏合和拖动(例如,空中拖动手势或空中滑动手势)执行的移动输入可基于与硬件输入控件的交互(诸如按钮按压并保持、触敏表面上的触摸、压敏表面上的按压,或硬件输入设备(例如,连同与硬件输入设备相关联的手)穿过空间的移动之后的其他硬件输入)来另选地检测。类似地,包括手相对于彼此的移动的双手输入可利用一个空中手势和手中未在执行空中手势的一个硬件输入设备、在不同的手中握持的两个硬件输入设备、或者由不同的手使用空中手势和/或由上述一个或多个硬件输入设备检测到的输入的各种组合执行的两个空中手势来执行。
在一些实施方案中,软件可以例如通过网络以电子形式下载到控制器110,或者可以另选地在有形非暂态介质诸如光学、磁性或电子存储器介质上提供。在一些实施方案中,数据库408同样存储在与控制器110相关联的存储器中。另选地或除此之外,计算机的所描述的功能中的一些或全部可以在专用硬件(诸如,定制或半定制集成电路或可编程数字信号处理器(DSP))中实现。尽管在图4中示出了控制器110,但是举例来说,作为与图像传感器404分开的单元,控制器的处理功能中的一些处理功能或全部处理功能可以由合适的微处理器和软件或由图像传感器404(例如,手部跟踪设备)的外壳内的专用电路或与图像传感器404相关联的其他设备执行。在一些实施方案中,这些处理功能中的至少一些可由与显示生成部件120(例如,在电视接收机、手持式设备或头戴式设备中)集成或与任何其他合适的计算机化设备(诸如,游戏控制台或媒体播放器)集成的合适处理器执行。图像传感器404的感测功能同样可以集成到将由传感器输出控制的计算机或其他计算机化装置中。
图4还包括根据一些实施方案的由图像传感器404捕获的深度图410的示意图。如上所述,深度图包括具有相应深度值的像素的矩阵。与手406对应的像素412已经从该图中的背景和手腕分割出来。深度图410内的每个像素的亮度与其深度值(即,测量的距图像传感器404的z距离)成反比,其中灰色阴影随着深度的增加而变得更暗。控制器110处理这些深度值以便标识和分割图像的具有人类手特性的组成部分(即,一组相邻像素)。这些特性可包括例如总体大小、形状和从深度图序列中的帧到帧的运动。
图4还示意性地示出了根据一些实施方案的控制器110最终从手部406的深度图410提取的手部骨骼414。在图4中,手部骨骼414重叠在已经从原始深度图分割出来的手部背景416上。在一些实施方案中,手的以及任选地在连接到手的手腕或手臂上的关键特征点(例如,与指关节、手指尖端、手掌中心、手的连接到手腕的端部等对应的点)被标识并位于手骨骼414上。在一些实施方案中,控制器110使用这些关键特征点在多个图像帧上的位置和移动来根据一些实施方案确定由手部执行的手势或手部的当前状态。
图5示出了眼睛跟踪设备130(图1A)的示例实施方案。在一些实施方案中,眼睛跟踪设备130由眼睛跟踪单元243(图2)控制来跟踪用户注视相对于场景105或相对于经由显示生成部件120显示的XR内容的定位和移动。在一些实施方案中,眼睛跟踪设备130与显示生成部件120集成。例如,在一些实施方案中,当显示生成部件120是头戴式设备(诸如,头戴式耳机、头盔、护目镜或眼镜)或放置在可穿戴框架中的手持式设备时,该头戴式设备包括生成XR内容以供用户查看的部件以及用于跟踪用户相对于XR内容的注视的部件两者。在一些实施方案中,眼睛跟踪设备130与显示生成部件120分开。例如,当显示生成部件是手持式设备或XR室时,眼睛跟踪设备130任选地是与手持式设备或XR室分开的设备。在一些实施方案中,眼睛跟踪设备130是头戴式设备或头戴式设备的一部分。在一些实施方案中,头戴式眼睛跟踪设备130任选地与也是头戴式的显示生成部件或不是头戴式的显示生成部件结合使用。在一些实施方案中,眼睛跟踪设备130不是头戴式设备,并且任选地与头戴式显示生成部件结合使用。在一些实施方案中,眼睛跟踪设备130不是头戴式设备,并且任选地是非头戴式显示生成部件的一部分。
在一些实施方案中,显示生成部件120使用显示机构(例如,左近眼显示面板和右近眼显示面板)来在用户眼睛前面显示包括左图像和右图像的帧,从而向用户提供3D虚拟视图。例如,头戴式显示生成部件可包括位于显示器和用户眼睛之间的左光学透镜和右光学透镜(在本文中被称为眼睛透镜)。在一些实施方案中,显示生成部件可包括或耦接到一个或多个外部摄像机,该一个或多个外部摄像机捕获用户的环境的视频以用于显示。在一些实施方案中,头戴式显示生成部件可具有透明或半透明显示器,并且在该透明或半透明显示器上显示虚拟对象,用户可以透过该透明或半透明显示器直接观看物理环境。在一些实施方案中,显示生成部件将虚拟对象投影到物理环境中。虚拟对象可例如被投影在物理表面上或作为全息图被投影,使得个体使用系统观察重叠在物理环境上方的虚拟对象。在这种情况下,可能不需要用于左眼和右眼的单独的显示面板和图像帧。
如图5所示,在一些实施方案中,眼睛跟踪设备130(例如,注视跟踪设备)包括至少一个眼睛跟踪相机(例如,红外(IR)或近红外(NIR)相机),以及朝向用户眼睛发射光(例如,IR或NIR光)的照明源(例如,IR或NIR光源,诸如LED的阵列或环)。眼睛跟踪相机可指向用户眼睛以接收光源直接从眼睛反射的IR或NIR光,或者另选地可指向位于用户眼睛和显示面板之间的“热”镜,这些热镜将来自眼睛的IR或NIR光反射到眼睛跟踪相机,同时允许可见光通过。眼睛跟踪设备130任选地捕获用户眼睛的图像(例如,作为以每秒60帧-120帧(fps)捕获的视频流),分析这些图像以生成注视跟踪信息,并将注视跟踪信息传送到控制器110。在一些实施方案中,用户的两只眼睛通过相应的眼睛跟踪相机和照明源来单独地跟踪。在一些实施方案中,通过相应的眼睛跟踪相机和照明源来跟踪用户的仅一只眼睛。
在一些实施方案中,使用设备特定的校准过程来校准眼睛跟踪设备130以确定用于特定操作环境100的眼睛跟踪设备的参数,例如LED、相机、热镜(如果存在的话)、眼睛透镜和显示屏的3D几何关系和参数。在将AR/VR装备递送给终端用户之前,可以在工厂或另一个设施处执行设备特定的校准过程。设备特定的校准过程可以是自动校准过程或手动校准过程。根据一些实施方案,用户特定的校准过程可以包括对特定用户的眼睛参数的估计,例如瞳孔位置、中央凹位置、光轴、视轴、眼睛间距等。根据一些实施方案,一旦针对眼睛跟踪设备130确定了设备特定参数和用户特定参数,就可以使用闪光辅助方法来处理由眼睛跟踪相机捕获的图像,以确定当前视轴和用户相对于显示器的注视点。
如图5所示,眼睛跟踪设备130(例如,130A或130B)包括眼睛透镜520和注视跟踪系统,该注视跟踪系统包括定位在用户面部的被执行眼睛跟踪的一侧上的至少一个眼睛跟踪相机540(例如,红外(IR)或近红外(NIR)相机),以及朝向用户眼睛592发射光(例如,IR或NIR光)的照明源530(例如,IR或NIR光源,诸如NIR发光二极管(LED)的阵列或环)。眼睛跟踪相机540可指向位于用户眼睛592和显示器510(例如,头戴式显示器的左显示器面板或右显示器面板,或者手持式设备的显示器、投影仪等)之间的镜子550(这些镜子反射来自眼睛592的IR或NIR光,同时允许可见光通过)(例如,如图5的顶部部分所示),或者另选地可指向用户眼睛592以接收来自眼睛592的反射IR或NIR光(例如,如图5的底部部分所示)。
在一些实施方案中,控制器110渲染AR或VR帧562(例如,用于左显示面板和右显示面板的左帧和右帧)并且将帧562提供给显示器510。控制器110将来自眼睛跟踪相机540的注视跟踪输入542用于各种目的,例如用于处理帧562以用于显示。控制器110任选地基于使用闪光辅助方法或其他合适的方法从眼睛跟踪相机540获取的注视跟踪输入542来估计用户在显示器510上的注视点。根据注视跟踪输入542估计的注视点任选地用于确定用户当前正在看向的方向。
以下描述了用户当前注视方向的几种可能的使用案例,并且不旨在进行限制。作为示例使用案例,控制器110可以基于所确定的用户注视的方向不同地渲染虚拟内容。例如,控制器110可以在根据用户当前注视方向确定的中央凹区域中以比在外围区域中的分辨率更高的分辨率生成虚拟内容。作为另一个示例,控制器可至少部分地基于用户当前注视方向来在视图中定位或移动虚拟内容。作为另一个示例,控制器可至少部分地基于用户当前注视方向来在视图中显示特定虚拟内容。作为AR应用程序中的另一个示例使用案例,控制器110可引导用于捕获XR体验的物理环境的外部相机在所确定方向上聚焦。然后,外部相机的自动聚焦机构可以聚焦于显示器510上用户当前正看向的环境中的对象或表面上。作为另一个示例使用案例,眼睛透镜520可以是可聚焦透镜,并且控制器使用注视跟踪信息来调整眼睛透镜520的焦点,使得用户当前正看向的虚拟对象具有适当的聚散度以匹配用户眼睛592的会聚。控制器110可以利用注视跟踪信息来引导眼睛透镜520调整焦点,使得用户正看向的靠近的对象出现在正确距离处。
在一些实施方案中,眼睛跟踪设备是头戴式设备的一部分,该头戴式设备包括安装在可穿戴外壳中的显示器(例如,显示器510)、两个眼睛透镜(例如,眼睛透镜520)、眼睛跟踪相机(例如,眼睛跟踪相机540)、以及光源(例如,照明源530(例如,IR或NIR LED))。光源朝向用户眼睛592发射光(例如,IR或NIR光)。在一些实施方案中,光源可围绕透镜中的每个透镜布置成环或圆圈,如图5所示。在一些实施方案中,例如,八个照明源530(例如,LED)围绕每个透镜520布置。然而,可使用更多或更少的照明源530,并且可使用照明源530的其他布置和位置。
在一些实施方案中,显示器510发射可见光范围内的光,并且不发射IR或NIR范围内的光,并且因此不会在注视跟踪系统中引入噪声。需注意,眼睛跟踪相机540的位置和角度以举例的方式给出,并且不旨在进行限制。在一些实施方案中,单个眼睛跟踪相机540位于用户面部的每一侧上。在一些实施方案中,可在用户面部的每一侧上使用两个或更多个NIR相机540。在一些实施方案中,可在用户面部的每一侧上使用具有较宽视场(FOV)的相机540和具有较窄FOV的相机540。在一些实施方案中,可在用户面部的每一侧上使用以一个波长(例如,850nm)操作的相机540和以不同波长(例如,940nm)操作的相机540。
如图5中所示出的注视跟踪系统的实施方案可例如用于计算机生成的现实、虚拟现实和/或混合现实应用程序,以向用户提供计算机生成的现实、虚拟现实、增强现实和/或增强虚拟体验。
图6示出了根据一些实施方案的闪光辅助的注视跟踪流水线。在一些实施方案中,注视跟踪流水线通过闪光辅助的注视跟踪系统(例如,如图1A和图5所示的眼睛跟踪设备130)来实现。闪光辅助的注视跟踪系统可保持跟踪状态。最初,跟踪状态为关闭或“否”。当处于跟踪状态时,当分析当前帧以跟踪当前帧中的瞳孔轮廓和闪光时,闪光辅助的注视跟踪系统使用来自先前帧的先前信息。当未处于跟踪状态时,闪光辅助的注视跟踪系统尝试检测当前帧中的瞳孔和闪光,并且如果成功,则将跟踪状态初始化为“是”并且在跟踪状态下继续下一个帧。
如图6所示,注视跟踪相机可捕获用户左眼和右眼的左图像和右图像。然后将所捕获的图像输入到注视跟踪流水线以用于在610处开始处理。如返回到元素600的箭头所指示的,注视跟踪系统可例如以每秒60帧至120帧的速率继续捕获用户眼睛的图像。在一些实施方案中,可以将每组所捕获的图像输入到流水线以用于处理。然而,在一些实施方案中或在一些条件下,不是所有所捕获的帧都由流水线处理。
在610处,对于当前所捕获的图像,如果跟踪状态为是,则方法前进到元素640。在610处,如果跟踪状态为否,则如620处所指示的,分析图像以检测图像中的用户瞳孔和闪光。在630处,如果成功检测到瞳孔和闪光,则方法前进到元素640。否则,方法返回到元素610以处理用户眼睛的下一个图像。
在640处,如果从元素610前进,则分析当前帧以部分地基于来自先前帧的先前信息来跟踪瞳孔和闪光。在640处,如果从元素630前进,则基于当前帧中检测到的瞳孔和闪光来初始化跟踪状态。检查元素640处的处理结果以验证跟踪或检测的结果可以是可信的。例如,可检查结果以确定是否在当前帧中成功跟踪或检测到用于执行注视估计的瞳孔和足够数量的闪光。在650处,如果结果不可能是可信的,则在元素660处,跟踪状态被设定为否,并且方法返回到元素610以处理用户眼睛的下一个图像。在650处,如果结果是可信的,则方法前进到元素670。在670处,跟踪状态被设定为是(如果尚未为是),并且瞳孔和闪光信息被传递到元素680以估计用户的注视点。
图6旨在用作可用于特定具体实施的眼睛跟踪技术的一个示例。如本领域普通技术人员所认识到的,根据各种实施方案,在用于向用户提供XR体验的计算机系统101中,当前存在或未来开发的其他眼睛跟踪技术可用于取代本文所述的闪光辅助的眼睛跟踪技术或与该闪光辅助的眼睛跟踪技术组合使用。
在一些实施方案中,现实世界环境602的捕获的部分用于向用户提供XR体验,例如一个或多个虚拟对象重叠在现实世界环境602的表示上方的混合现实环境。
因此,本文的描述描述了包括现实世界对象的表示和虚拟对象的表示的三维环境(例如,XR环境)的一些实施方案。例如,三维环境任选地包括存在于物理环境中的桌子的表示,该桌子被捕获并在三维环境中显示(例如,经由计算机系统的相机和显示器主动地显示或者经由计算机系统的透明或半透明显示器被动地显示)。如先前所述,三维环境任选地是混合现实系统,其中三维环境基于由计算机系统的一个或多个传感器捕获并经由显示生成部件显示的物理环境。作为混合现实系统,该计算机系统任选地能够选择性地显示物理环境的部分和/或对象,使得物理环境的相应部分和/或对象看起来好像它们存在于由计算机系统显示的三维环境中一样。类似地,该计算机系统任选地能够通过将虚拟对象放置在三维环境中在现实世界中具有对应位置的相应位置处来在三维环境中显示虚拟对象以看起来好像虚拟对象存在于现实世界(例如,物理环境)中一样。例如,该计算机系统任选地显示花瓶,使得该花瓶看起来好像现实的花瓶被放置在物理环境中的桌子的顶部上一样。在一些实施方案中,三维环境中的相应位置在物理环境中具有对应位置。因此,当计算机系统被描述为在相对于物理对象的相应位置(例如,诸如在用户的手部处或附近的位置或在物理桌子处或附近的位置)处显示虚拟对象时,计算机系统在三维环境中的特定位置处显示虚拟对象,使得看起来好像虚拟对象在物理环境中的物理对象处或附近一样(例如,虚拟对象显示在三维环境中的与物理环境中如果该虚拟对象是该特定位置处的真实对象则将显示该虚拟对象的位置相对应的位置处)。
在一些实施方案中,在三维环境中显示的(例如,和/或经由显示生成部件可见的)存在于物理环境中的现实世界对象可与仅存在于三维环境中的虚拟对象交互。例如,三维环境可包括桌子和放置在桌子的顶部上的花瓶,其中桌子是物理环境中的物理桌子的视图(或表示),并且花瓶是虚拟对象。
在三维环境(例如,真实环境、虚拟环境或者包括真实对象和虚拟对象的混合的环境)中,对象有时被称为具有深度或模拟深度,或者对象被称为在不同深度处可见、显示或放置。在本上下文中,深度是指不同于高度或宽度的维度。在一些实施方案中,相对于固定坐标集合定义深度(例如,其中房间或对象具有相对于固定坐标集合定义的高度、深度和宽度)。在一些实施方案中,相对于用户的位置或视点定义深度,在这种情况下,深度维度基于用户的位置和/或用户的视点的位置和角度而变化。在其中相对于用户的相对于环境的表面(例如,环境的地板或地面的表面)定位的位置定义深度的一些实施方案中,沿着平行于表面延伸的线更远离用户的对象被认为在环境中具有更大深度,和/或沿着从用户的位置向外延伸并且平行于环境的表面的轴线测量对象的深度(例如,在圆柱或基本上圆柱坐标系中定义深度,其中用户的位置处于从用户的头部朝向用户的脚延伸的圆柱的中心)。在其中相对于用户的视点定义深度(例如,相对于空间中的点的方向,该方向确定环境的哪个部分经由头戴式设备或其他显示器可见)的一些实施方案中,沿着平行于用户的视点的方向延伸的线更远离用户的视点的对象被认为在环境中具有更大深度,和/或沿着从用户的视点延伸并且平行于用户的视点的方向的线向外延伸的轴线来测量对象的深度(例如,在球面或基本上球面坐标系统中定义深度,其中视点的原点处于从用户的头向外延伸的球体的中心)。在一些实施方案中,相对于用户界面容器(例如,其中显示应用程序和/或系统内容的窗口或应用程序)定义深度,其中用户界面容器具有高度和/或宽度,并且深度是与用户界面容器的高度和/或宽度正交的维度。在一些实施方案中,在相对于用户界面容器限定深度的情况下,当容器被放置在三维环境中或被初始显示时(例如,使得容器的深度尺寸向外延伸远离用户或用户的视点),容器的高度和/或宽度通常与从基于用户的位置(例如,用户的视点或用户的位置)延伸到用户界面容器(例如,用户界面容器的中心或用户界面容器的另一特征点)的直线正交或基本上正交。在一些实施方案中,在相对于用户界面容器定义深度的情况下,对象相对于用户界面容器的深度是指对象沿着用户界面容器的深度维度的定位。在一些实施方案中,多个不同容器可具有不同深度维度(例如,在不同方向上和/或从不同起点延伸远离用户或用户的视点的不同深度维度)。在一些实施方案中,当相对于用户界面容器定义深度时,随着用户界面容器的位置、用户和/或用户的视点改变(例如,或当多个不同的观看者正在三维环境中观看同一容器时,诸如在亲自协作会话期间和/或当多个参与者处于具有包括容器的共享虚拟内容的实时通信会话中时),深度维度的方向对于用户界面容器保持恒定。在一些实施方案中,对于弯曲容器(例如,包括具有弯曲表面或弯曲内容物区域的容器),深度维度任选地延伸到弯曲容器的表面中。在一些情况下,z间隔(例如,两个对象在深度维度上的间隔)、z高度(例如,一个对象在深度维度上距另一对象的距离)、z定位(例如,一个对象在深度维度上的定位)、z深度(例如,一个对象在深度维度上的定位)或模拟z维度(例如,用作对象的维度的深度、环境的维度、空间中的方向和/或模拟空间中的方向)用于指代如上描述的深度的概念。
在一些实施方案中,用户任选地能够使用一只或多只手与三维环境中的虚拟对象交互,好像虚拟对象是物理环境中的真实对象一样。例如,如上文所述,计算机系统的一个或多个传感器任选地捕获用户的一只或多只手并且在三维环境中显示用户的手部的表示(例如,以类似于在上文所述的三维环境中显示现实世界对象的方式),或者在一些实施方案中,由于显示生成部件的正显示用户界面的一部分的透明度/半透明度,或由于用户界面到透明/半透明表面上的投影或用户界面到用户的眼睛上或到用户的眼睛的视场中的投影,经由显示生成部件、经由通过用户界面看见物理环境的能力可看到用户的手部。因此,在一些实施方案中,用户的手部在三维环境中的相应位置处显示并且被视为好像它们是三维环境中的对象一样,这些对象能够与三维环境中的虚拟对象交互,好像这些虚拟对象是物理环境中的物理对象一样。在一些实施方案中,计算机系统能够结合用户的手部在物理环境中的移动来更新用户的手部在三维环境中的表示的显示。
在下文所述的实施方案中的一些实施方案中,计算机系统任选地能够确定物理世界中的物理对象和三维环境中的虚拟对象之间的“有效”距离,例如,以用于确定物理对象是否正与虚拟对象直接交互(例如,手部是否正触摸、抓取、握持等虚拟对象或处于虚拟对象的阈值距离内)。例如,与虚拟对象直接交互的手部任选地包括以下中的一者或多者:手部的按压虚拟按钮的手指、用户的抓取虚拟花瓶的手部、用户的手部的合在一起并捏合/保持应用程序的用户界面以及进行本文所述的任何其他类型的交互的两个手指。例如,当确定用户是否正与虚拟对象交互并且/或者用户正如何与虚拟对象交互时,计算机系统任选地确定用户的手部和虚拟对象之间的距离。在一些实施方案中,计算机系统通过确定手部在三维环境中的位置和感兴趣虚拟对象在三维环境中的位置之间的距离来确定用户的手部和虚拟对象之间的距离。例如,用户的该一只或多只手位于物理世界中的特定定位处,计算机系统任选地捕获该一只或多只手并且在三维环境中的特定对应定位(例如,如果手是虚拟手而不是物理手,则该手将在三维环境中被显示的定位)处显示该一只或多只手。任选地将手部在三维环境中的定位与感兴趣虚拟对象在三维环境中的定位进行比较,以确定用户的该一只或多只手和虚拟对象之间的距离。在一些实施方案中,计算机系统任选地通过比较物理世界中的定位(例如,而不是比较三维环境中的定位)来确定物理对象和虚拟对象之间的距离。例如,当确定用户的一只或多只手和虚拟对象之间的距离时,计算机系统任选地确定虚拟对象在物理世界中的对应位置(例如,如果该虚拟对象是物理对象而不是虚拟对象,则该虚拟对象将在物理世界中位于的定位),然后确定对应物理定位和用户的该一只或多只手之间的距离。在一些实施方案中,任选地使用相同的技术来确定任何物理对象与任何虚拟对象之间的距离。因此,如本文所述,当确定物理对象是否与虚拟对象接触或者物理对象是否处于虚拟对象的阈值距离内时,计算机系统任选地执行上文所述的技术中的任一种技术来将物理对象的位置映射到三维环境和/或将虚拟对象的位置映射到物理环境。
在一些实施方案中,使用相同或类似的技术来确定用户的注视指向何处和何物,以及/或者由用户握持的物理触笔指向何处和何物处。例如,如果用户的注视指向物理环境中的特定定位,则计算机系统任选地确定三维环境中的对应定位(例如,注视的虚拟定位),并且如果虚拟对象位于该对应虚拟定位处,则计算机系统任选地确定用户的注视指向该虚拟对象。类似地,该计算机系统任选地能够基于物理触笔的取向来确定该触笔在物理环境中指向的方向。在一些实施方案中,基于该确定,计算机系统确定三维环境中的与物理环境中触笔指向的位置相对应的对应虚拟定位,并且任选地确定触笔指向三维环境中的对应虚拟定位处。
类似地,本文所述的实施方案可指用户(例如,计算机系统的用户)在三维环境中的位置和/或计算机系统在三维环境中的位置。在一些实施方案中,计算机系统的用户正握持、穿戴或以其他方式位于计算机系统处或附近。因此,在一些实施方案中,计算机系统的位置用作用户的位置的代理。在一些实施方案中,计算机系统和/或用户在物理环境中的位置与三维环境中的相应位置相对应。例如,计算机系统的位置将是在物理环境中的位置(及其在三维环境中的对应位置),如果用户站在该位置,面向经由显示生成部件可见的物理环境的相应部分,则用户将从该位置看到物理环境中处于与对象由计算机系统的显示生成部件在三维环境中显示或经由该显示生成部件在三维环境中可见的对象相同的定位、取向和/或大小(例如,绝对意义上和/或相对于彼此)的这些对象。类似地,如果在三维环境中显示的虚拟对象是物理环境中的物理对象(例如,放置在物理环境中与这些虚拟对象在三维环境中的位置相同的位置处的物理对象,以及在物理环境中具有与在三维环境中时相同的大小和取向的物理对象),则计算机系统和/或用户的位置是用户将从该位置看到物理环境中处于与由计算机系统的显示生成部件在三维环境中显示的虚拟对象相同的定位、取向和/或大小(例如,绝对意义上和/或相对于彼此和现实世界对象)的这些虚拟对象的定位。
在本公开中,相对于与计算机系统的交互来描述各种输入方法。当使用一个输入设备或输入方法来提供示例,并且使用另一个输入设备或输入方法来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的输入设备或输入方法兼容并且任选地利用该输入设备或输入方法。类似地,相对于与计算机系统的交互来描述各种输出方法。当使用一个输出设备或输出方法来提供示例,并且使用另一个输出设备或输出方法来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的输出设备或输出方法兼容并且任选地利用该输出设备或输出方法。类似地,相对于通过计算机系统与虚拟环境或混合现实环境进行的交互来描述各种方法。当使用与虚拟环境的交互来提供示例时,并且使用混合现实环境来提供另一个示例时,应当理解,每个示例可与相对于另一个示例描述的方法兼容并且任选地利用这些方法。因此,本公开公开了作为多个示例的特征的组合的实施方案,而无需在每个示例实施方案的描述中详尽地列出实施方案的所有特征。
用户界面和相关联的过程
现在将注意力转向可在具有显示生成部件、一个或多个输入设备以及(任选)一个或多个相机的计算机系统(诸如,便携式多功能设备或头戴式设备)上实现的用户界面(“UI”)和相关联过程的实施方案。
图7A至图7EE示出了响应于检测到第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象相对于三维环境的视觉突出性的计算机系统的示例。在一些实施方案中,计算机系统基于第一虚拟对象相对于第二虚拟对象在三维环境中的空间位置的改变来改变相应虚拟对象的视觉突出性。
图7A示出了计算机系统(例如,电子设备)101经由显示生成部件(例如,图1的显示生成部件120)从计算机系统101的用户(例如,用户712)的视点(例如,面向计算机系统101所处的物理环境的后壁)显示三维环境702。在一些实施方案中,计算机系统101包括显示生成部件(例如,触摸屏)和多个图像传感器(例如,图3的图像传感器314)。图像传感器任选地包括以下中的一者或多者:可见光相机;红外相机;深度传感器;或当用户与计算机系统101交互时计算机系统101能够用来捕获用户或用户的一部分(例如,用户的一只或多只手)的一个或多个图像的任何其他传感器。在一些实施方案中,下文示出和描述的用户界面还可在头戴式显示器上实现,该头戴式显示器包括向用户显示用户界面或三维环境的显示生成部件,以及检测物理环境和/或用户的手部的移动的传感器(例如,从用户面向外的外部传感器)和/或检测用户的注意力(例如,注视)的传感器(例如,朝向用户的面部面向内的内部传感器)。
如图7A所示,计算机系统101在三维环境702中显示第一虚拟对象704a和第二虚拟对象704b。在一些实施方案中,第一虚拟对象704a和第二虚拟对象704b具有参考方法800和/或900描述的第一虚拟对象、第二虚拟对象和/或相应虚拟对象的一个或多个特性。例如,第一虚拟对象704a和/或第二虚拟对象704b与用于在三维环境702中呈现内容的一个或多个应用程序相关联(例如,第一虚拟对象704a与“应用程序A”相关联并且第二虚拟对象704b与“应用程序B”相关联)。在一些实施方案中,第一虚拟对象704a和/或第二虚拟对象704b呈现视频内容(例如,与视频媒体相关联(例如,来自视频流应用程序))、网站内容(例如,来自网络浏览应用程序)、电话和/或消息内容(例如,来自电话、消息和/或社交媒体应用程序)、或交互式内容(例如,来自视频游戏应用程序)。
在图7A中,除了第一虚拟对象704a和第二虚拟对象704b之外的一个或多个对象是可见的。具体地讲,图7A示出了桌子706a、墙上照片706b和门706c。在一些实施方案中,桌子706a、墙上照片706b和门706c是来自用户(例如,下面描述的用户712)的物理环境的透过显示生成部件120上的光学透传可见的物理对象。在一些实施方案中,桌子706a、墙上照片706b和门706c是来自用户的物理环境的透过显示生成部件120上的虚拟透传可见的物理对象的虚拟表示。在一些实施方案中,三维环境702是沉浸式虚拟环境(例如,完全沉浸式或部分沉浸式),并且来自用户的物理环境的一个或多个对象相对于用户的当前视点是不可见的。在一些实施方案中,第一虚拟对象704a和第二虚拟对象704b以第一量的视觉突出性显示(例如,包括相对于三维环境的第一量的视觉突出性的一个或多个特性,如参考方法800所描述的)。例如,第一虚拟对象704a和第二虚拟对象704b以一定量的不透明度、亮度和/或颜色显示,使得与第一虚拟对象704a和第二虚拟对象704b相关联的内容相对于计算机系统101的用户的当前视点可见。在一些实施方案中,以第一量的视觉突出性显示相应虚拟对象(例如,第一虚拟对象704a或第二虚拟对象704b)对应于相应虚拟对象是活动虚拟对象,如参考方法800所描述的。
图7A至图7EE示出了三维环境702的俯视图710。俯视图710示出了三维环境702中的用户712。在一些实施方案中,用户712是计算机系统101的用户(例如,用户712正在从当前视点查看三维环境702)。在一些实施方案中,俯视图710中的用户712表示用户712相对于三维环境702的当前视点。在图7A的俯视图710中,第一虚拟对象704a和第二虚拟对象704b被示出为在三维环境702中不重叠(例如,并且如图7A所示相对于用户712的当前视点不重叠)。具体地讲,第一虚拟对象704a和第二虚拟对象704b在三维环境702中不空间冲突(例如,第一虚拟对象704a的至少一部分和第二虚拟对象的至少一部分不显示在三维环境702中的同一位置处)。如俯视图710所示,第一虚拟对象704a包括相对于用户712的当前视点与第二虚拟对象704b不同的空间布置。具体地讲,相对于三维环境702中的用户712的当前视点,第一虚拟对象704a在三维环境702中位于第一距离处,并且第二虚拟对象704b在三维环境702中位于大于第一距离的第二距离处。
如图7A所示,用户712将输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a。具体地讲,用户712的注视708指向第一虚拟对象704a(例如,由三维环境702中的黑色圆圈表示)并且示出了用户712的手720。在一些实施方案中,用户712用手720执行空中手势(例如,包括参考方法800和/或900描述的一个或多个空中手势),同时用户712的注意力(例如,注视708)被并发地指向第一虚拟对象704a。在一些实施方案中,图7A中所示的输入对应于在三维环境702中移动(例如,和/或改变空间布置)第一虚拟对象704a(例如,和/或改变第一虚拟对象704a相对于用户712的当前视点的空间布置)的请求。例如,输入包括使用手720的对应于第一虚拟对象704a在三维环境702中的所请求的移动的手部移动(例如,在注意力指向第一虚拟对象704a和/或执行空中手势时)。在一些实施方案中,图7A中所示的输入具有参考方法800和/或900描述的第一输入的一个或多个特性。在一些实施方案中,具有图7A中所示的输入的一个或多个特性的输入可以指向第二虚拟对象704b以在三维环境702中移动第二虚拟对象704b(例如,以改变第二虚拟对象704b相对于用户712的当前视点的空间布置)。
图7A1示出了与图7A中所示的概念类似和/或相同的概念(具有许多相同的附图标记)。应当理解,除非下面指出,否则图7A1中所示的具有与图7A至图7EE中所示的元件相同的附图标记的元件具有一个或多个或全部相同特性。图7A1包括计算机系统101,其包括显示生成部件120(或与之相同)。在一些实施方案中,计算机系统101和显示生成部件120分别具有图7A至图7EE中所示的计算机系统101和图1和图3中所示的显示生成部件120的一个或多个特性,并且在一些实施方案中,图7A至图7EE中所示的计算机系统101和显示生成部件120具有图7A1中所示的计算机系统101和显示生成部件120的一个或多个特性。
在图7A1中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分上,以使得能够对用户的左眼和右眼进行眼睛跟踪。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考图7A至图7EE描述的图像传感器314的一个或多个特性。
在图7A1中,显示生成部件120被示出为显示这样的内容,该内容任选地对应于参考图7A至图7EE被描述为经由显示生成部件120显示和/或可见的内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图7A1中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图7A1中所示出的内容的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
在图7A1中,用户被描绘为执行空中捏合手势(例如,用手720)以向计算机系统101提供输入,从而提供针对由计算机系统101显示的内容的用户输入。这种描述旨在是示例性的而不是限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,参考图7A至图7EE所描述的。
在一些实施方案中,计算机系统101响应于用户输入,如参考图7A至图7EE所描述的。
在图7A1的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境内可见。也就是说,用户可以任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。应当理解,如图7A至图7EE中所示或参考图7A至图7EE所述和/或参考对应方法所述的本公开的一个或多个或所有方面任选地以与图7A1中所示类似或相似的方式在计算机系统101和显示生成单元120上实现。
图7B示出了响应于由图7A中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动(例如,相对于用户712的当前视点)。如图7B所示,第一虚拟对象704a在三维环境702中的移动使得第一虚拟对象704a至少部分地与第二虚拟对象704b重叠(例如,第一虚拟对象704a的至少一部分相对于用户712的当前视点在空间上与第二虚拟对象704b冲突(例如,在视觉上遮挡)(例如,从用户的视点来看,第一虚拟对象与第二虚拟对象重叠,并且任选地,第一虚拟对象在深度维度上位于第二虚拟对象的阈值距离内))。具体地讲,第一虚拟对象704a被显示在三维环境702中比第二虚拟对象704b更靠近用户712(例如,相对于用户712的当前视点)的距离处,从而使得第一虚拟对象704a的与第二虚拟对象704b重叠的部分相对于用户712的当前视点在视觉上遮挡第二虚拟对象704b的一部分。
在一些实施方案中,根据计算机系统101检测到第一虚拟对象704a的一部分与第二虚拟对象704b之间的重叠的阈值量,在三维环境702中显示的相应虚拟对象(例如,第一虚拟对象704a或第二虚拟对象704b)以不同的视觉突出性显示(例如,计算机系统101减小相应虚拟对象的至少一部分的视觉突出性)。因此,俯视图710示出了重叠阈值714a的区域(例如,面积)和对应于要由计算机系统101检测以改变三维环境702中显示的相应虚拟对象的视觉突出性的重叠的阈值量(例如,或任选地一个或多个重叠的阈值量)的重叠阈值714b的角度(例如,角距离)的示意图。在一些实施方案中,根据计算机系统101检测到第一虚拟对象704a与第二虚拟对象704b之间的重叠超过重叠区域阈值714a和/或重叠角度阈值716b,第一虚拟对象704a或第二虚拟对象704b的至少一部分以不同的(例如,减小的)视觉突出性显示。例如,根据用户712的注意力指向第一虚拟对象704a(例如,通过注视708,同时并发地用手720执行空中手势(例如,空中捏合)),第二虚拟对象704b以不同的视觉突出性显示(例如,第一虚拟对象704a是活动虚拟对象)。例如,根据用户712的注意力指向第二虚拟对象704b(例如,通过注视708,同时并发地用手720执行空中手势(例如,空中捏合)),第一虚拟对象704a以不同的视觉突出性显示(例如,第二虚拟对象704b是活动虚拟对象)。在一些实施方案中,重叠的阈值量(例如,重叠区域阈值714a和/或重叠角度阈值714b)具有第一虚拟对象的至少一部分与第二虚拟对象之间的重叠的阈值量的一个或多个特性,如参考方法800所描述的。
如图7B所示,第一虚拟对象704a与第二虚拟对象704b之间的重叠不超过重叠区域阈值714a或重叠角度阈值714b。根据第一虚拟对象704a与第二虚拟对象704b之间的重叠不超过重叠的阈值量,计算机系统101保持以相对于三维环境702的第一视觉突出性显示第一虚拟对象704a和第二虚拟对象704b。
在图7B中,用户712将对应于在三维环境702中移动第一虚拟对象704a的请求(例如,对应于指向第一虚拟对象704a的注视708以及由手720执行的空中手势和/或手部移动)的输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a。在一些实施方案中,图7B示出了计算机系统101继续接收由用户712在图7A中发起的输入。例如,图7B中所示的输入是图7A中所示的输入的延续(例如,用户712通过在继续执行图7A中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a)。
图7C示出了基于图7A至图7B中由用户712提供的输入,第一虚拟对象704a在三维环境702中的移动(例如,相对于用户712的当前视点)。由于第一虚拟对象704a在三维环境702中的移动(例如,相对于用户712的当前视点),第一虚拟对象704a相对于用户712的当前视点与第二虚拟对象704b重叠超过重叠的阈值量(例如,超过重叠区域阈值714和/或重叠角度阈值714b,如俯视图710所示)。根据第一虚拟对象704a的移动使得与第二虚拟对象704b的重叠超过阈值量,第二虚拟对象704b(例如,或任选地第二虚拟对象704b的一部分)以第二量的视觉突出性显示(例如,包括第二视觉突出性的一个或多个特性,如参考方法800所描述的)。在一些实施方案中,以第二量的视觉突出性显示第二虚拟对象704b包括以与以第一量的视觉突出性(例如,在图7A至图7B中显示第二虚拟对象704b的量的视觉突出性)显示第二虚拟对象704b相比,以减小量的亮度、颜色、饱和度和/或不透明度显示第二虚拟对象704b(例如,或任选地第二虚拟对象704b的一部分)。在一些实施方案中,以第二量的视觉突出性显示第二虚拟对象704b包括停止在三维环境中显示第二虚拟对象704b的相对于用户712的当前视点被第一虚拟对象704a重叠的部分(例如,第二虚拟对象704b的该部分相对于用户712的当前视点在空间上与第一虚拟对象704a冲突(例如,在视觉上被第一虚拟对象704a遮挡))(例如,从用户的视点来看,第二虚拟对象与第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)。在一些实施方案中,第二虚拟对象704b以第二量的视觉突出性显示,因为用户712的注意力(例如,通过注视708和由手720执行的空中手势和/或手部移动)在执行图7A至图7B中所示的输入时指向第一虚拟对象704a(例如,第一虚拟对象704a是活动虚拟对象)。
如图7C所示,用户712停止将输入指向第一虚拟对象704a(例如,停止将手移动超过阈值时间量、松开用户的手指以进行空中捏合输入、闭上用户的眼睛或指示输入结束的其他输入),并将输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第二虚拟对象704b。具体地讲,注视708指向第二虚拟对象704b。在一些实施方案中,当用户712将注视708指向第二虚拟对象704b时,用户712用手720执行空中手势(例如,空中捏合)。在一些实施方案中,图7C中所示的输入对应于与第二虚拟对象704b交互的请求(例如,以及以第一量的视觉突出性显示第二虚拟对象704b和以第二量的视觉突出性显示第一虚拟对象704a的请求)。例如,图7C中所示的输入对应于使第二虚拟对象704b成为活动虚拟对象的请求。
图7D示出了响应于由图7C中的用户712提供的输入而以第一量的视觉突出性显示的第二虚拟对象704b和以第二量的视觉突出性显示的第一虚拟对象704a。在一些实施方案中,与如图7A至图7C所示相比,第一虚拟对象704a在图7D中以减小量的亮度、颜色、饱和度和/或不透明度显示。在一些实施方案中,计算机系统101停止在三维环境702中显示第一虚拟对象704a的被第二虚拟对象704b重叠的部分(例如,第一虚拟对象704a的该部分具有如参考方法800所描述的相应虚拟对象的相应部分的第一部分的一个或多个特性和/或如参考方法900所描述的第二虚拟对象的至少一部分的第一部分的一个或多个特性)。例如,第一虚拟对象704a的该部分具有相对于三维环境的尺寸,该尺寸对应于第二虚拟对象704b的该部分的相对于用户712的当前视点与第一虚拟对象704a重叠的尺寸。
如图7A至图7D所示(例如,在俯视图710中),与第一虚拟对象704a相比,第二虚拟对象704b显示在距当前视点用户712更远的距离处。在一些实施方案中,根据第二虚拟对象704b与第一虚拟对象704a相比显示在距用户712的当前视点更远的距离处,第一虚拟对象704a的部分718a与以第一量的视觉突出性显示第一虚拟对象704a的部分相比以更大量的透明度显示(例如,第一虚拟对象704a的部分718a具有如参考方法800所描述的相应虚拟对象的相应部分的第二部分的一个或多个特性和/或如参考方法900所描述的第二虚拟对象的至少一部分的第二部分的一个或多个特性)。如图7D所示,第一虚拟对象704a的部分718a围绕第二虚拟对象704b的相对于用户712的当前视点与第一虚拟对象704a重叠的部分(例如,第一虚拟对象704a的部分718a围绕计算机系统101停止在三维环境702中显示的第一虚拟对象704a的部分)。在一些实施方案中,在图7D中,尽管第一虚拟对象704a与第二虚拟对象704b之间存在空间冲突(例如,重叠)并且第一虚拟对象704a相对于用户712的当前视点显示在更近的距离处(例如,因为计算机系统101停止显示第一虚拟对象704a的在视觉上遮挡第二虚拟对象704b的部分并以透明方式显示第一虚拟对象704a的围绕第二虚拟对象704b的部分718a),但第二虚拟对象704b是可见的(例如,在视觉上未被第一虚拟对象704a遮挡)。
在图7D中,用户712将输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向三维环境702中的空白空间(例如,不包括一个或多个虚拟对象(例如,第一虚拟对象704a或第二虚拟对象704b)的三维环境的区域)。在一些实施方案中,三维环境702中的空白空间具有如参考方法800所描述的三维环境中的空白空间的一个或多个特性。如图7D所示,指向三维环境702中的空白空间的输入包括指向空白空间的注视708,同时用户712用手720执行空中手势(例如,空中捏合)。在一些实施方案中,图7D中所示的输入对应于改变以第一量的视觉突出性显示的相应虚拟对象(例如,第一虚拟对象704a或第二虚拟对象704b)(例如,哪个相应虚拟对象显示为活动虚拟对象)的请求。例如,图7D中所示的输入对应于以第一量的视觉突出性显示相对于用户712的当前视点最靠近地显示的相应虚拟对象(例如,第一虚拟对象704a)的请求(例如,以及在三维环境702中以第二量的视觉突出性显示的不同于相应虚拟对象(例如,第二虚拟对象704b)的一个或多个虚拟对象)。
图7E示出了响应于由图7D中的用户712提供的输入而以第一量的视觉突出性显示的第一虚拟对象704a和以第二量的视觉突出性显示的第二虚拟对象704b。在一些实施方案中,以第一量的视觉突出性显示第一虚拟对象704a和以第二量的视觉突出性显示第二虚拟对象704b包括参考图7C所示和描述的以第一量的视觉突出性显示第一虚拟对象704a和以第二量的视觉突出性显示第二虚拟对象704b的一个或多个特性。
在一些实施方案中,计算机系统101基于第一虚拟对象704a相对于第二虚拟对象704b的空间位置的改变来改变第二虚拟对象704b的视觉突出性(例如,包括基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性的一个或多个特性,如参考方法900所描述的)。在图7E中,俯视图710包括空间位置阈值716a和716b的示意图。在一些实施方案中,空间位置阈值716a和716b对应于相对于第二虚拟对象704b的距离阈值。例如,距离阈值对应于三维环境702中在第一维度(例如,相对于用户712的当前视点的深度方向)上距第二虚拟对象704b的距离。在一些实施方案中,空间位置阈值716a和716b对应于相对于用户712的当前视点的距离阈值。例如,距离阈值与三维环境702中在第一维度上距用户712的当前视点的距离相关联,该距离与第二虚拟对象704b距用户712的当前视点的距离相差超过阈值量。
如图7E所示,输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a。在一些实施方案中,输入对应于三维环境中在第一维度上(例如,在相对于用户712的当前视点的深度方向上)移动第一虚拟对象704a的请求。图7E中所示的输入包括用户712的指向第一虚拟对象704a的注意力(例如,注视708)。在一些实施方案中,当注视指向第一虚拟对象704a时,用户712执行相对于三维环境702的空中手势(例如,空中捏合)和/或手部移动(例如,手部移动相对于用户712的当前视点在三维环境702中的深度方向上)。
图7F示出了响应于由图7E中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动。基于图7E中提供的输入,第一虚拟对象704a在三维环境702中移动(例如,在第一维度中)到相对于用户712的当前视点的更大距离。如俯视图710所示,第一虚拟对象704a在三维环境702中在第一维度上的移动使得第一虚拟对象704a相对于第二虚拟对象704b处于空间位置阈值716a和716b内的空间位置处。在一些实施方案中,由于第一虚拟对象704a相对于第二虚拟对象704b在空间位置阈值716a和716b内的空间位置处,因此计算机系统101改变第二虚拟对象704b的部分718b的视觉突出性。在一些实施方案中,改变第二虚拟对象704b的部分718b的视觉突出性包括如上所述改变第一虚拟对象704a的部分718a的视觉突出性的一个或多个特性。在一些实施方案中,改变第二虚拟对象704b的部分718b的视觉突出性包括基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性的一个或多个特性,如参考方法900所描述的。例如,与以第一量的视觉突出性显示部分718b相比,第二虚拟对象704b的部分718b以更大量的透明度显示。在一些实施方案中,基于在第一虚拟对象704a在三维环境702中的移动期间第一虚拟对象704a相对于第二虚拟对象704b的空间位置(例如,并且根据第一虚拟对象704a在空间位置阈值716a和716b内),计算机系统101将第二虚拟对象704b的视觉突出性减小不同的量值。在一些实施方案中,将视觉突出性减小不同量值包括基于第一虚拟对象704a相对于第二虚拟对象704b的空间位置来改变以更大量的透明度显示的部分718b的尺寸。例如,在图7F中,第二虚拟对象704b的部分718b相对于三维环境702具有第一尺寸。在一些实施方案中,部分718b的尺寸随着第一虚拟对象704a在三维环境702中移动得更靠近第二虚拟对象704b(例如,相对于第一维度)而增加(例如,随着第一虚拟对象704a相对于用户712的当前视点的距离与第二虚拟对象704b相对于用户712的当前视点的距离之间的差值变得更小,部分718b的尺寸相对于三维环境702增加)。在图7F中,由于第二虚拟对象704b的部分718b以较大量的透明度显示,因此第二虚拟对象704b的不同于部分718b的部分(例如,第二虚拟对象704b的在部分718b之外的其余部分)继续以第二量的视觉突出性(例如,以如图7E所示的量的视觉突出性)显示。在图7F中,第二虚拟对象704b的相对于用户712的当前视点在空间上与第一虚拟对象704a冲突(例如,在视觉上被第一虚拟对象遮挡)的部分(例如,从用户的视点来看,第二虚拟对象的该部分被第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)停止在三维环境702中显示(例如,如参考图7C所示和所述)。
如图7F所示,对应于在三维环境702中移动第一虚拟对象704a的请求的输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a(例如,图7F中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,图7F示出了计算机系统101继续接收由用户712在图7E中发起的输入。例如,图7F中所示的输入是图7E中所示的输入的延续(例如,用户712通过在执行图7E中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a(例如,在第一维度中))。
图7G示出了响应于由图7F中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动。如俯视图710所示,第一虚拟对象704a相对于三维环境702在空间上与第二虚拟对象704b冲突(例如,第一虚拟对象704a的一部分在三维环境702中与第二虚拟对象704b的一部分位于相同的位置处)(例如,从用户的视点来看,第一虚拟对象与第二虚拟对象重叠,并且任选地,第一虚拟对象在深度维度上位于第二虚拟对象的阈值距离内)。在一些实施方案中,在图7G中,第一虚拟对象704a与第二虚拟对象704b在三维环境702中距用户712的当前视点的距离相同。
由于第一虚拟对象704a相对于第二虚拟对象704b的空间位置改变(例如,与先前在图7F中所示和所述的相比,第一虚拟对象704a已经在三维环境702中移动得更靠近第二虚拟对象704b),因此第二虚拟对象704b的视觉突出性在图7G中减小更大的量值。例如,相对于三维环境702,部分718b具有大于部分718b的第一尺寸的第二尺寸(例如,如参考图7F所示和所述)。例如,与图7F中所示的部分718b相比,部分718b以更大量的透明度显示。在一些实施方案中,部分718b的尺寸是相对于三维环境702的最大尺寸(例如,因为第一虚拟对象704a与第二虚拟对象704b在三维环境702中位于距用户712的当前视点相同距离处)。在一些实施方案中,部分718b以最大量的透明度显示(例如,因为第一虚拟对象704a与第二虚拟对象704b在三维环境702中位于距用户712的当前视点相同距离处)。在图7G中,由于第二虚拟对象704b的部分718b以较大量的透明度显示,因此第二虚拟对象704b的不同于部分718b的部分(例如,第二虚拟对象704b的在部分718b之外的其余部分)继续以第二量的视觉突出性显示。在图7G中,第二虚拟对象704b的相对于用户712的当前视点在空间上与第一虚拟对象704a冲突(例如,在视觉上被第一虚拟对象遮挡)的部分停止在三维环境702中显示(例如,如参考图7C所示和所述)(例如,从用户的视点来看,第二虚拟对象的该部分被第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)。
如图7G所示,对应于在三维环境702中移动第一虚拟对象704a的请求的输入指向第一虚拟对象704a(例如,图7G中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,图7G示出了计算机系统101继续接收由用户712在图7E中发起的输入。例如,图7G中所示的输入是图7E至图7F中所示的输入的延续(例如,用户712通过在继续并发地执行图7E中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a)。在一些实施方案中,图7G中所示的输入对应于在不同于第一维度的第二(例如,和/或第三)维度上移动第一虚拟对象704a的请求(例如,该输入对应于相对于用户712的当前视点横向地和/或垂直地(例如,而不是在深度方向上)移动第一虚拟对象704a的请求)。
图7H示出了响应于由图7G中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动。具体地讲,第一虚拟对象704a相对于用户712的当前视点在三维环境702中垂直地和横向地移动。由于第一虚拟对象704a在三维环境702中的移动(例如,相对于用户712的当前视点),第一虚拟对象704a与第二虚拟对象704b之间的空间冲突(例如,重叠量)改变(例如,第一虚拟对象704a与第二虚拟对象704b重叠更大的量(例如,第一虚拟对象704a与第二虚拟对象704b相对于用户712的当前视点重叠更大的区域))。响应于第一虚拟对象704a的移动,计算机系统101改变以更大量的透明度显示的第二虚拟对象704b的部分718b的显示,并改变停止在三维环境702中显示的第二虚拟对象704b的部分的尺寸(例如,改变第二虚拟对象的部分718b的显示和改变停止在三维环境702中显示的第二虚拟对象的部分的尺寸包括基于在第一虚拟对象在三维环境中的移动期间第二虚拟对象相对于第一虚拟对象的空间冲突的改变,在三维环境中重新显示第二虚拟对象的至少一部分的第一部分并停止显示第二虚拟对象的至少一部分的不同于第一部分的第三部分的一个或多个特性,如参考方法900所述)。如图7H所示,第二虚拟对象704b的部分718b对应于第二虚拟对象704b的不同部分(例如,因为与如图7G所示相比,相对于用户712的当前视点,第二虚拟对象704b的不同部分在空间上与第一虚拟对象704a冲突(例如,从用户的视点来看,第二虚拟对象的该部分与第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内))。在图7H中,第二虚拟对象704b的不同部分(例如,与如图7G所示相比尺寸更大的部分)停止在三维环境702中显示(例如,因为与如图7G所示相比,相对于用户712的当前视点,第一虚拟对象704a的更大部分在空间上与第二虚拟对象704b冲突(例如,从用户的视点来看,第一虚拟对象的该部分与第二虚拟对象重叠,并且任选地,第一虚拟对象在深度维度上位于第二虚拟对象的阈值距离内))。在图7H中,当第二虚拟对象704b的部分718b以更大量的透明度显示时,第二虚拟对象704b的不同于部分718b的部分(例如,第二虚拟对象704b在部分718b之外的其余部分(例如,由于第一虚拟对象704a与第二虚拟对象704b之间的空间冲突的改变,与如图7G所示相比,任选地相对于三维环境702具有不同尺寸))继续以第二量的视觉突出性显示。
如图7H所示,对应于在三维环境702中移动第一虚拟对象704a的请求的输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a(例如,图7H中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,图7F示出了计算机系统101继续接收由用户712在图7E中发起的输入。例如,图7F中所示的输入是图7E至图7G中所示的输入的延续(例如,用户712通过在继续并发地执行图7E中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a)。在一些实施方案中,图7H中所示的输入对应于相对于用户712的当前视点在第一维度上(例如,在深度方向上)移动第一虚拟对象704a的请求。
图7I示出了响应于由图7H中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动。如俯视图710所示,与第二虚拟对象704b相对于用户712的当前视点的距离相比,第一虚拟对象704a在三维环境702中移动到相对于用户712的当前视点距离更大的位置。此外,如俯视图710所示,第一虚拟对象704a显示在三维环境702中空间位置阈值716a和716b内的位置处。由于第一虚拟对象704a在三维环境702中的移动(例如,第一虚拟对象704a相对于用户712的当前视点的空间布置的改变),第一虚拟对象704a相对于第二虚拟对象704b的空间位置改变(例如,与如图7H所示相比(例如,第一虚拟对象704a不再位于与三维环境702中的第二虚拟对象704b距用户712的当前视点相同的距离处))。基于第一虚拟对象704a相对于第二虚拟对象704b的空间位置的改变,计算机系统101改变显示第二虚拟对象704b的视觉突出性。在一些实施方案中,由于第一虚拟对象704a相对于用户712的当前视点的距离与第二虚拟对象704b相对于用户712的当前视点的距离之间的差值与如图7H所示相比更大(例如,并且由于第一虚拟对象704a显示在空间位置阈值716a和716b内),因此计算机系统101以与如图7H所示相比更大量的视觉突出性显示第二虚拟对象704b。例如,如图7I所示,与如图7H所示相比,部分718b相对于三维环境702以减小的尺寸显示。在一些实施方案中,与如图7H所示相比,部分718b以减小量的透明度显示。在图7I中,当第二虚拟对象704b的部分718b以更大量的透明度显示时,第二虚拟对象704b的不同于部分718b的部分(例如,第二虚拟对象704b在部分718b之外的其余部分(例如,由于部分718b的尺寸的改变,与如图7H所示相比,任选地相对于三维环境702具有不同尺寸))继续以第二量的视觉突出性显示。在图7I中,第二虚拟对象704b的相对于用户712的当前视点在空间上与第一虚拟对象704a冲突(例如,在视觉上被第一虚拟对象遮挡)的部分停止在三维环境702中显示(例如,如参考图7H所示和所述)(例如,从用户的视点来看,第二虚拟对象的该部分被第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)。
如图7I所示,对应于在三维环境702中移动第一虚拟对象704a的请求的输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a(例如,图7I中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,图7I示出了计算机系统101继续接收由用户712在图7E中发起的输入。例如,图7I中所示的输入是图7E至图7H中所示的输入的延续(例如,用户712通过在继续并发地执行图7E中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a)。在一些实施方案中,图7I中所示的输入对应于相对于用户712的当前视点在第一维度上(例如,在深度方向上)进一步移动第一虚拟对象704a的请求。
图7J示出了响应于由图7I中的用户712提供的输入,第一虚拟对象704a在三维环境702中的移动。如俯视图710所示,与图7I中所示的第一虚拟对象704a相对于用户712的当前视点的距离相比,第一虚拟对象704a在三维环境702中移动到相对于用户712的当前视点距离更大的位置。由于第一虚拟对象704a的移动,第一虚拟对象704a没有显示在相对于第二虚拟对象704b处于空间位置阈值716a和716b内的空间位置处。由于第一虚拟对象704a移动到三维环境702中不在空间位置阈值716a和716b内的位置,计算机系统101改变显示第二虚拟对象704b的视觉突出性的量。具体地讲,如图7J所示,第二虚拟对象704b相对于用户712的当前视点在视觉上遮挡第一虚拟对象704a(例如,与如图7I所示相比,第一虚拟对象704a的更大部分从用户712的当前视点是不可见的)。在一些实施方案中,计算机系统101根据第一虚拟对象704a显示在相对于用户712的当前视点的更大距离处(例如,与第二虚拟对象704b相比)并且在三维环境702中移动时不在空间位置阈值716b和716b内,以透明度显示第二虚拟对象704b的一部分(例如,不同于部分718b)。例如,如图7J所示,第二虚拟对象704b的部分718c以更大量的透明度显示(例如,在一些实施方案中,第一虚拟对象704a的对应于部分718c的尺寸的部分相对于用户712的当前视点是可见的(例如,因为部分718c显示为透明的))。任选地,计算机系统101停止在三维环境702中显示第二虚拟对象704b的部分718c(例如,部分718c对应于当第一虚拟对象704a在空间位置阈值716a和716b内移动时计算机系统101停止显示的第二虚拟对象704b的部分的较小尺寸(例如,如图7F至图7I所示))。在一些实施方案中,根据第一虚拟对象704a在三维环境702中移动到空间位置阈值716b和716a之外并且位于对应于与第二虚拟对象704b相比距用户712的当前视点的更大距离的位置处,在第一虚拟对象704a在三维环境702中移动时,第二虚拟对象704b在视觉上遮挡第一虚拟对象704a的与第二虚拟对象704b重叠的整个部分(例如,第二虚拟对象704b不与透明部分718c一起显示,并且第一虚拟对象704a的与第二虚拟对象704b重叠的部分相对于用户712的当前视点是不可见的)。
如图7J所示,对应于在三维环境702中移动第一虚拟对象704a的请求的输入(例如,空中捏合输入、空中轻击输入、捏合输入、轻击输入、空中捏合和拖动输入、空中拖动输入、拖动输入、点击和拖动输入、注视输入和/或其他输入)指向第一虚拟对象704a(例如,图7J中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,图7J示出了计算机系统101继续接收由用户712在图7E中发起的输入。例如,图7I中所示的输入是图7E至图7I中所示的输入的延续(例如,用户712通过在继续并发地执行图7E中发起的空中手势和/或手部移动的同时继续将注视708指向第一虚拟对象704a来继续在三维环境702中移动第一虚拟对象704a)。在一些实施方案中,图7I中所示的输入对应于相对于用户712的当前视点在第一维度上(例如,在深度方向上)进一步移动第一虚拟对象704a的请求。在一些实施方案中,根据第一虚拟对象704a响应于图7J中所示的输入而在三维环境702中移动到相对于用户712的当前视点更远的距离,计算机系统101继续改变第二虚拟对象704b的视觉突出性。例如,部分718c相对于三维环境702的尺寸继续改变(例如,当第一虚拟对象704a在三维环境702中从用户712的当前视点移动得更远时,部分718c的尺寸(例如,以及从用户712的当前视点可见的第一虚拟对象704a的量)相对于三维环境702减小)。在一些实施方案中,根据第一虚拟对象704a在三维环境702中移动到空间位置阈值716a和716b内的位置,计算机系统101改变第二虚拟对象704b的视觉突出性,使得第一虚拟对象704a从用户712的当前视点完全可见(例如,因为计算机系统101停止显示第二虚拟对象704b的在空间上与第一虚拟对象704a冲突的部分,并且以更大量的透明度显示部分718b,如参考图7F至图7I所示和所述)。
图7K示出了基于用户712停止提供参考图7E至图7J所示和所述的输入(例如,第一虚拟对象704a在三维环境702中的移动是根据输入与图7E至图7J中由用户712提供的第一虚拟对象704a的继续移动相对应),以第二量的视觉突出性显示的第二虚拟对象704b和以第一量的视觉突出性显示的第一虚拟对象704a(例如,第一虚拟对象704a相对于用户712的当前视点是可见的)。在一些实施方案中,用户712停止提供相对于三维环境702的空中手势和/或手部移动(例如,用手720,如图7E至图7J所示)。在一些实施方案中,以第二量的视觉突出性显示第二虚拟对象704b包括如参考图7G所描述的以第二量的视觉突出性显示第二虚拟对象704b的一个或多个特性(例如,第二虚拟对象704b的与第一虚拟对象704a重叠的部分停止在三维环境702中显示,并且部分718b以更大量的透明度显示(例如,与以第一量的视觉突出性显示第二虚拟对象704b相比))。在一些实施方案中,基于用户712停止提供参考图7E至图7K所示和所述的输入来以第二量的视觉突出性显示第二虚拟对象704b和以第一量的视觉突出性显示第一虚拟对象704a包括响应于检测到第一输入的终止而将第二虚拟对象的至少一部分的视觉突出性减小到小于相对于三维环境的第三视觉突出性的视觉突出性的一个或多个特性,如参考方法900所描述的。在一些实施方案中,在图7K中,第一虚拟对象704a以第一量的视觉突出性显示并且第二虚拟对象704b以第二量的视觉突出性显示,因为用户712先前将输入指向第一虚拟对象704a(例如,并且此后没有将输入指向第二虚拟对象(例如,第一虚拟对象704a是活动虚拟对象))。在一些实施方案中,在图7K中以第一量的视觉突出性显示第一虚拟对象704a和以第二量的视觉突出性显示第二虚拟对象704b包括根据确定第一虚拟对象是活动虚拟对象来以第一视觉突出性显示第一虚拟对象而不管第一虚拟对象是否与其他虚拟对象重叠的一个或多个特性,如参考方法800所描述的。在一些实施方案中,响应于由用户712提供的指向第二虚拟对象704b(例如,如参考图7C所示和所述)或任选地指向三维环境702中的空白空间(例如,如参考图7D所示和所述)的输入,计算机系统101以第一量的视觉突出性显示第二虚拟对象704b和以第二量的视觉突出性显示第一虚拟对象704a(例如,响应于该输入使第二虚拟对象成为活动虚拟对象,并且第一虚拟对象704a不显示包括更大量的透明度的部分718a,因为第一虚拟对象704a位于三维环境702中相对于用户712的当前视点比第二虚拟对象704b更大距离的位置处)。
图7L示出了三维环境702中显示的第一虚拟对象704c和第二虚拟对象704d。在一些实施方案中,第一虚拟对象704c具有参考图7A至图7K所示和所述的第一虚拟对象704a的一个或多个特性。在一些实施方案中,第二虚拟对象704d具有参考图7A至图7K所示和所述的第二虚拟对象704b的一个或多个特性。如图7L中的俯视图710所示,第一虚拟对象704c距用户712的当前视点的距离与第二虚拟对象704d距用户712的当前视点的距离之间的差值大于如图7A至图7E所示的第一虚拟对象704a距用户712的当前视点的距离与第二虚拟对象704b距用户712的当前视点的距离之间的差值(例如,图7L中的第一虚拟对象704c相对于第二虚拟对象704d的距离大于图7A至图7E中所示的第一虚拟对象704a相对于第二虚拟对象704b的距离)。根据图7L中第一虚拟对象704c距用户712的当前视点的距离与第二虚拟对象704d距用户712的当前视点的距离之间的差值不同于图7A至图7E中第一虚拟对象704a距用户712的当前视点的距离与第二虚拟对象704b距用户712的当前视点的距离之间的差值,图7L中所示的第一虚拟对象704c与第二虚拟对象704d之间的重叠的阈值量(例如,用于以第二量的视觉突出性显示相应虚拟对象)不同于图7B至图7D中所示的第一虚拟对象704a与第二虚拟对象704b之间的重叠的阈值量。
如图7L中的俯视图710所示,与如图7B至图7D所示相比,重叠区域阈值714a和重叠角度阈值714b减小(例如,因为第一虚拟对象704c距用户712的当前视点的距离与第二虚拟对象704d距用户712的当前视点的距离之间的差值大于第一虚拟对象704a距用户712的当前视点的距离与第二虚拟对象704b距用户712的当前视点的距离之间的差值)。在一些实施方案中,根据第一虚拟对象704c距用户712的当前视点的距离与第二虚拟对象704d距用户712的当前视点的距离的差值较大(例如,与第一虚拟对象704a和第二虚拟对象704b相比),增加重叠的阈值量(例如,重叠区域阈值714a和/或重叠角度阈值714b)。在一些实施方案中,基于第一相应虚拟对象(例如,第一虚拟对象704c)和第二相应虚拟对象(例如,第二虚拟对象704d)距用户712的当前视点的距离的差值来改变重叠的阈值量包括根据第一虚拟对象与用户的当前视点之间的距离与第二虚拟对象与用户的当前视点之间的距离的差值是第一距离或第二距离,阈值量是第一阈值量和/或第二阈值量的一个或多个特性,如参考方法800所描述的。
图7M示出了在用户712的当前视点相对于三维环境702改变之后以第二量的视觉突出性显示的第二虚拟对象704d和以第一量的视觉突出性显示的第一虚拟对象704c。如俯视图710所示,用户712的当前视点已改变相对于三维环境702的空间布置(例如,位置和取向)(例如,与如图7A至图7L所示相比)。在一些实施方案中,用户712的当前视点的移动具有用户的当前视点从相对于三维环境的第一视点到相对于三维环境的第二视点的移动的一个或多个特性,如参考方法800所描述的。如俯视图710所示,用户712的当前视点的移动导致第一虚拟对象704c与第二虚拟对象704d重叠超过重叠的阈值量(例如,超过相对于用户712的当前视点的阈值重叠角度714b)。基于用户712的当前视点的移动导致第一虚拟对象704c与第二虚拟对象704d重叠超过阈值量,计算机系统101改变第二虚拟对象704d的视觉突出性(例如,因为在用户712的当前视点的移动之前或期间,输入先前指向第一虚拟对象704c(例如,第一虚拟对象704c是活动虚拟对象))。在一些实施方案中,根据在用户712的当前视点的移动之前或期间输入先前指向第二虚拟对象704d(例如,第二虚拟对象704d是活动虚拟对象),计算机系统101以第二量的视觉突出性显示第一虚拟对象704c和以第一量的视觉突出性显示第二虚拟对象704d(例如,计算机系统101停止显示相对于用户712的当前视点在空间上与第二虚拟对象704d冲突的第一虚拟对象704c的第一部分(例如,从用户的视点来看,第一虚拟对象与第二虚拟对象重叠,并且任选地,第一虚拟对象在深度维度上位于第二虚拟对象的阈值距离内),并且以更大量的透明度显示第一虚拟对象704c的围绕第一部分的第二部分(例如,包括参考图7D所示和所述的部分718a的一个或多个特性)。
图7N示出了三维环境702中以第一量的视觉突出性显示的第一虚拟对象704e、以第二量的视觉突出性显示的第二虚拟对象704f以及以第二量的视觉突出性显示的第三虚拟对象704g。在一些实施方案中,第一虚拟对象704e、第二虚拟对象704f和第三虚拟对象704g具有上述第一虚拟对象704a和/或第二虚拟对象704b的一个或多个特性。如俯视图710所示,第一虚拟对象704e显示在相对于用户712的当前视点的第一距离处,第二虚拟对象704f显示在相对于用户712的当前视点的不同于第一距离的第二距离处,并且第三虚拟对象704g显示在相对于用户712的当前视点的不同于第一距离和第二距离的第三距离处。如俯视图710所示,基于第一虚拟对象704e距用户712的当前视点的距离与第二虚拟对象704f距用户712的当前视点的距离的差值是第一距离,第一虚拟对象704e与第二虚拟对象704f之间的重叠的阈值量对应于第一重叠区域阈值量714a-1和第一重叠角度阈值量714b-1。如俯视图710所示,基于第一虚拟对象704e距用户712的当前视点的距离与第三虚拟对象704g距用户712的当前视点的距离的差值是不同于第一距离的第二距离,第一虚拟对象704e与第三虚拟对象704g之间的重叠的阈值量对应于不同于第一重叠区域阈值量714a-1的第二重叠区域阈值量714a-2,以及不同于第一重叠角度阈值量714b-1的第二重叠角度阈值量714b-2。在俯视图710中,第一重叠区域阈值量714a-1小于第二重叠区域阈值量714a-2。在一些实施方案中,根据第一距离小于第二距离,第一重叠区域阈值量714a-1大于第二重叠区域阈值量714a-2。在俯视图710中,第一重叠角度阈值量714b-1小于第二重叠角度阈值量714b-2。在一些实施方案中,根据第一距离小于第二距离,第一重叠角度阈值量714b-1大于第二重叠角度阈值量714b-2。如图7N所示(例如,在俯视图710中),第一虚拟对象704e与第二虚拟对象704f重叠(例如,具有空间冲突)超过第一阈值量(例如,第一重叠区域阈值量714a-1和/或第一重叠角度阈值量714b-1)并且与第三虚拟对象704g重叠超过第二阈值量(例如,第二重叠区域阈值量714a-2和/或第二重叠角度阈值量714b-2)。根据第一虚拟对象704e与第二虚拟对象704f和第三虚拟对象704g重叠超过相应重叠的阈值量,计算机系统101以第二量的视觉突出性显示第二虚拟对象704f和第三虚拟对象704g(例如,因为用户712的注意力指向第一虚拟对象704e)。
如图7N所示,输入指向第一虚拟对象704e。在一些实施方案中,输入对应于三维环境中在第一维度上(例如,在相对于用户712的当前视点的深度方向上)移动第一虚拟对象704a的请求。在一些实施方案中,图7N中所示的输入具有参考图7E所示和所述的输入的一个或多个特性。
图7O示出了响应于由图7N中的用户712提供的输入,第一虚拟对象704e在三维环境702中的移动。如俯视图710所示,与第二虚拟对象704f和第三虚拟对象704g相比,第一虚拟对象704e在三维环境702中移动到相对于用户712的当前视点的更大距离。在一些实施方案中,计算机系统101基于第一虚拟对象704e相对于第二虚拟对象704f和第一虚拟对象704e相对于第三虚拟对象712g的空间位置,在第一虚拟对象704e相对于用户704的当前视点的移动(例如,空间布置的改变)期间改变第二虚拟对象704f和第三虚拟对象704g的视觉突出性。在一些实施方案中,计算机系统101独立于(例如,不基于)第一虚拟对象704e相对于第三虚拟对象704g的空间位置来改变第二虚拟对象704f的视觉突出性。在一些实施方案中,计算机系统101独立于(例如,不基于)第一虚拟对象704e相对于第二虚拟对象704f的空间位置来改变第三虚拟对象704g的视觉突出性。如俯视图710所示,第一空间位置阈值716a-1和716b-1是相对于第二虚拟对象704f在三维环境702中的位置示出的,并且第二空间位置阈值716a-2和716b-2是相对于第三虚拟对象704g在三维环境中的位置示出的。在一些实施方案中,空间位置阈值716a-1、716a-2、716b-1、716b-2具有参考图7E至图7J所示和所述的空间位置阈值716a和716b的一个或多个特性。
在一些实施方案中,计算机系统101基于第一虚拟对象704e相对于第二虚拟对象704f的空间位置将第二虚拟对象704f的视觉突出性减小第一量。例如,如图7O所示,将第二虚拟对象704f的视觉突出性减小第一量包括停止显示第二虚拟对象704f的在空间上与第一虚拟对象704e冲突的部分(例如,第二虚拟对象704f的该部分具有与第一虚拟对象704e的与第二虚拟对象704f重叠的部分的尺寸相对应的尺寸)(例如,从用户的视点来看,第二虚拟对象的该部分与第一虚拟对象重叠,并且任选地,第二虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)。例如,如图7O所示,将第二虚拟对象704f的视觉突出性减小第一量包括相对于三维环境702以与以第一量的视觉突出性显示部分724a相比更大量的透明度来显示包括第一尺寸的部分724a(例如,包括上述部分718a和/或718b的一个或多个特性)。在一些实施方案中,计算机系统101基于第一虚拟对象704e相对于第三虚拟对象704g的空间位置将第三虚拟对象704g的视觉突出性减小小于第一量的第二量(例如,第二量小于第一量,因为第一虚拟对象704e距用户712的当前视点的距离与第二虚拟对象704f距用户712的当前视点的距离的差值小于第一虚拟对象704e距用户712的当前视点的距离与第三虚拟对象704g距用户712的当前视点的距离的差值)。例如,如图7O所示,将第三虚拟对象704g的视觉突出性减小第二量包括停止显示第三虚拟对象704g的在空间上与第一虚拟对象704e冲突的部分(例如,第三虚拟对象704g的该部分具有与第一虚拟对象704e的与第三虚拟对象704g重叠的部分的尺寸相对应的尺寸)(例如,从用户的视点来看,第三虚拟对象的该部分与第一虚拟对象重叠,并且任选地,第三虚拟对象在深度维度上位于第一虚拟对象的阈值距离内)。例如,如图7O所示,将第三虚拟对象704g的视觉突出性减小第二量包括相对于三维环境702以与以第一量的视觉突出性显示部分724b相比更大量的透明度来显示包括小于第一尺寸的第二尺寸的部分724b(例如,包括上述部分718a和/或718b的一个或多个特性)(例如,第二尺寸小于第一尺寸,因为第一虚拟对象704e距用户712的当前视点的距离与第二虚拟对象704f距用户712的当前视点的距离的差值小于第一虚拟对象704e距用户712的当前视点的距离与第三虚拟对象704g距用户712的当前视点的距离的差值)。
如图7O所示,对应于在三维环境702中移动第一虚拟对象704e的请求的输入指向第一虚拟对象704e(例如,图7O中所示的输入具有参考图7E所示和所述的输入的一个或多个特性)。在一些实施方案中,根据第一虚拟对象704e相对于第二虚拟对象704f和/或第三虚拟对象704g移动到三维环境702中的不同空间位置,计算机系统101在第一虚拟对象704e移动期间改变第二虚拟对象704f和/或第三虚拟对象704g的视觉突出性。例如,根据包括在三维环境702中在第一空间位置阈值716a-1和716b-1内且不在第二空间位置阈值716a-2和716b-2内的位置处显示第一虚拟对象704e的第一虚拟对象704e的移动,第三虚拟对象704g相对于用户712的当前视点在视觉上遮挡第一虚拟对象704e,并且第二虚拟对象704f相对于用户712的当前视点在视觉上不遮挡第一虚拟对象704e(例如,计算机系统101停止显示第二虚拟对象704f的对应于第一虚拟对象704e的与第二虚拟对象704f重叠的第一部分的部分,并且不停止显示第三虚拟对象704f的对应于第一虚拟对象704e的相对于用户712的当前视点与第二虚拟对象704重叠的第二部分的部分)。例如,根据第一虚拟对象704e的移动,包括在三维环境702中在第二空间位置阈值716a-2和716b-2内且不在第一空间位置阈值716a-1和716b-1内的位置处显示第一虚拟对象704e,第二虚拟对象704f不显示透明部分724a(例如,因为第一虚拟对象704e显示在三维环境中对应于与第二虚拟对象704f相比距用户712的当前视点更近的距离且不在空间位置阈值716a-1和716b-1内的位置处)并且第三虚拟对象704g显示透明部分724b(例如,因为第一虚拟对象704e位于第二空间位置阈值716a-2和716b-2内的位置处)。
图7P示出了用户712执行与指向第二虚拟对象704f的注意力相对应的输入。如图7P所示,该输入对应于注视708(例如,由图7P中的眼睛表示)指向虚拟对象704f,同时用户712并发地用手720执行空中手势(例如,如图7P所示的空中捏合)(例如,持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))。响应于与指向第二虚拟对象704f的注意力相对应的输入,计算机系统101增加第二虚拟对象704f的视觉突出性(例如,与如图7O所示(例如,第一量的视觉突出性)相比)并且减小第一虚拟对象704e的视觉突出性(例如,与如图7O中所示(例如,第二量的视觉突出性)相比)。例如,响应于与指向第二虚拟对象704f的注意力相对应的输入,计算机系统101增加第二虚拟对象704f的不透明度、亮度、颜色、饱和度和/或清晰度,并减小第一虚拟对象704e的不透明度、亮度、颜色、饱和度和/或清晰度。此外,如图7P所示,响应于与指向虚拟对象704f的注意力相对应的输入,计算机系统101保持以相同量(例如,第二量和/或减小量)的视觉突出性(例如,与图7O中显示第三虚拟对象704g的视觉突出性的量相比)显示第三虚拟对象704g。在一些实施方案中,根据第一虚拟对象704e继续与第三虚拟对象704g重叠超过阈值量,计算机系统101保持以第二量的视觉突出性显示第三虚拟对象704g。在图7P中,与如图7O所示相比,第三虚拟对象704g的部分724b以更大量值的透明度显示(例如,部分724b以增加量的透明度和/或以更大的尺寸显示)(例如,因为用户712终止图7O中所示的对应于移动虚拟对象704e的请求的输入,这使得第三虚拟对象704g以增加的和/或最大量值的第二量的视觉突出性显示)。在一些实施方案中,计算机系统101不响应于与指向第二虚拟对象704f的注意力相对应的输入(例如,从用户712的当前视点来看,使得第一虚拟对象704e的至少一部分被第三虚拟对象704g在视觉上遮挡)而以增加量的透明度显示部分724b(例如,计算机系统101不停止在三维环境702中显示部分724b)。
如图7P(例如,以及图7Q至图7X)所示,第一虚拟对象704e、第二虚拟对象704f和第三虚拟对象704g分别与虚拟元素740a、740b和740c一起显示。在一些实施方案中,虚拟元素740a-740c可由用户712选择以在三维环境702中移动虚拟对象704e-704g。例如,为了在三维环境702中移动虚拟对象704f,用户712提供与指向虚拟元素704a的注意力(例如,注视)相对应的输入,同时并发地执行包括用户712的手(例如,手720)相对于三维环境702的移动的空中手势(例如,诸如图7P中所示的空中捏合)。如图7P所示,虚拟元素740a-740c与虚拟示能表示一起显示(例如,在每个相应虚拟元素740a-740c的右侧)。在一些实施方案中,这些虚拟示能表示能够由用户712选择(例如,通过与在执行空中手势时指向虚拟示能表示的注意力相对应的输入)以停止在三维环境702中显示相应虚拟对象。例如,响应于与虚拟示能表示相关联的虚拟元素740a的选择相对应的用户输入,计算机系统101停止在三维环境中显示第一虚拟对象704e。
图7Q示出了用户712执行与指向第三虚拟对象704g的注意力相对应的输入。如图7Q所示,该输入包括在用户712用手720执行空中手势(例如,如图7Q所示的空中捏合)(例如,持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))时指向虚拟对象704g的注视708。响应于检测到图7Q中所示的输入,计算机系统101以与如图7P所示相比增加的量的视觉突出性(例如,第一量的视觉突出性)显示第三虚拟对象704g。例如,与如图7P所示相比,第三虚拟对象704g在图7Q中以更大量的不透明度、亮度、颜色、饱和度和/或清晰度显示。此外,响应于检测到图7Q中所示的输入,计算机系统101保持以如图7P中所示的相同量的视觉突出性(例如,第一量的视觉突出性)显示第二虚拟对象704f。例如,计算机系统101不响应于图7Q中所示的输入而减小第二虚拟对象704f的视觉突出性,因为第三虚拟对象704g与第二虚拟对象704f重叠不超过阈值量。如图7Q所示,响应于检测到图7Q中所示的输入,计算机系统101保持以如图7P中所示的相同量的视觉突出性(例如,第二量的视觉突出性)显示第一虚拟对象704e。例如,计算机系统101保持以减小量的视觉突出性显示第一虚拟对象704e,因为第一虚拟对象704e被第三虚拟对象704g(例如,其以增加量的视觉突出性显示)重叠超过阈值量。此外,例如,计算机系统101保持以减小量的视觉突出性显示第一虚拟对象704e,因为先前以增加量的视觉突出性显示的第二虚拟对象704f在检测到图7Q中所示的输入时继续与第一虚拟对象704e重叠超过阈值量。
图7R示出了图7P的替代实施方案,其包括当第二虚拟对象704f与第一虚拟对象704e重叠不超过阈值量时,用户712执行与指向第二虚拟对象704f的注意力相对应的输入。如图7R所示,响应于检测到与指向第二虚拟对象704f的注意力相对应的输入,计算机系统101以相对于三维环境702增加量的视觉突出性(例如,第一量的视觉突出性)显示第二虚拟对象704f。此外,如图7R所示,响应于检测到与指向第二虚拟对象704f的注意力相对应的输入,计算机系统101保持以第一量的视觉突出性显示第一虚拟对象704e和以第二量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,计算机系统101保持以第一量的视觉突出性显示第一虚拟对象704e,因为图7R中所示的输入指向的第二虚拟对象704f与第一虚拟对象704e重叠不超过阈值量。在一些实施方案中,计算机系统101保持以第二量的视觉突出性显示第三虚拟对象704g,因为在检测到图7R中所示的输入时,第一虚拟对象704e继续与第三虚拟对象704g重叠超过阈值量,并且当检测到图7R中所示的输入时,第一虚拟对象704e最后以第一量的视觉突出性显示(例如,由于第一虚拟对象704e以第一量的视觉突出性显示并且第一虚拟对象704e与第三虚拟对象704g之间存在超过阈值量的重叠,因此计算机系统101以第二量的视觉突出性显示虚拟对象704g)。在一些实施方案中,部分724b以增加的和/或最大量值的增加的透明度显示(例如,对应于相对于三维环境702的增加量的透明度和/或增加的尺寸),因为与如图7O所示在三维环境702中移动第一虚拟对象704e的请求相对应的输入终止(例如,与在第一虚拟对象704e相对于第三虚拟对象704g在三维环境702中的移动期间图7O中所示的部分724b的减小的和/或最小量值的增加的透明度相比)。
图7S示出了第二虚拟对象704f内显示的多个虚拟元素。具体地讲,虚拟元素730a-730d包括在三维环境702中的第二虚拟对象704f内。在一些实施方案中,虚拟元素730a-730d具有响应于第二输入的检测而在三维环境中移动的虚拟元素的一个或多个特性,如参考方法800所描述的。例如,虚拟元素730a-730d是诸如图像、文件、文档和/或文本的内容。在一些实施方案中,虚拟元素730a-730d是和与第二虚拟对象704f相关联的相应应用程序(例如,文件(例如,图像)存储应用程序)相关联的内容。在一些实施方案中,虚拟元素730a-730d显示在三维环境702中不与相应虚拟对象相关联的一个或多个位置中(例如,虚拟元素730a-730d不包括在三维环境702中的虚拟对象704e-704g内)。应当理解,尽管第二虚拟对象704f内显示了四个虚拟元素,但也可显示更多或更少的虚拟元素。在一些实施方案中,第二虚拟对象704f包括可由用户712滚动(例如,通过用户输入)以显示先前未在第二虚拟对象704f内显示的一个或多个附加虚拟元素的用户界面。
如图7S所示,用户712执行指向虚拟元素730a的输入。该输入包括在用手720执行空中手势(例如,空中捏合)(例如,该空中手势被执行持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))时指向虚拟元素730a的注视708。在一些实施方案中,图7S中所示的输入对应于虚拟元素730a的选择。在一些实施方案中,在选择虚拟元素730a后,用户712可通过保持空中手势(例如,如图7S所示的空中捏合)并用手720相对于三维环境702执行移动来相对于三维环境702移动虚拟元素730a。
图7T示出了用户712执行与将三维环境702中的虚拟元素730a朝向第三虚拟对象704g移动的请求相对应的输入。在一些实施方案中,图7T中所示的输入是图7S中发起的输入的延续(例如,用户712保持由手720执行的空中手势,同时相对于三维环境702移动手720)。在一些实施方案中,虚拟元素730a-2在三维环境702中的移动对应于手720相对于三维环境702的移动(例如,用户712朝向三维环境702中对应于第三虚拟对象704g的位置移动手720)。如图7T所示,当计算机系统101检测到与将三维环境702中的虚拟元素730a朝向第三虚拟对象704g移动的请求相对应的输入时,计算机系统101保持以增加量的视觉突出性(例如,第一量的视觉突出性)显示第一虚拟对象704e、以增加量的视觉突出性显示第二虚拟对象704f以及以减小量的视觉突出性(例如,第二量的视觉突出性)显示第三虚拟对象704g。
在一些实施方案中,当根据图7T中所示的输入在三维环境702中移动虚拟元素730a时,计算机系统101改变虚拟元素730a的视觉外观。在一些实施方案中,在图7S中,虚拟元素730a以第一视觉外观显示(例如,虚拟元素730a的第一视觉外观在图7S中被标记为730a-1)。例如,图7S中所示的虚拟元素730a-1包括第一尺寸、形状和/或不透明度、亮度、颜色、饱和度和/或清晰度的量。在一些实施方案中,在图7T中,虚拟元素730a以不同于第一视觉外观的第二视觉外观显示(例如,虚拟元素730a的第二视觉外观在图7T中被标记为730a-2)。例如,图7T中所示的虚拟元素730a-2包括第二尺寸、形状和/或不透明度、亮度、颜色、饱和度和/或清晰度的量(例如,与图7S中所示的虚拟元素730a-1相比,图7T中所示的虚拟元素730a-2以更小的尺寸、不同的形状和/或以更多或更少的不透明度、亮度、颜色、饱和度和/或清晰度显示)。
图7U示出了三维环境702中虚拟元素730a向第三虚拟对象704g的移动。如图7U所示,用户712继续提供与在图7T中示出(例如,并且在图7S中发起)的朝向第三虚拟对象704g移动虚拟元素730a的请求相对应的输入。在一些实施方案中,根据在虚拟元素730a在三维环境702中的移动期间虚拟元素704a在第三虚拟对象730g的阈值距离(例如,0.01m、0.05m、0.1m、0.2m、0.5m或1m)内,计算机系统101将虚拟元素730a移动到第三虚拟对象704g(例如,如参考方法800所描述的)。如图7U所示,虚拟元素730a显示在三维环境702中对应于第三虚拟对象704g的位置处。例如,根据在虚拟元素730a在三维环境702中的移动期间虚拟元素730a在第三虚拟对象704g的阈值距离内,计算机系统101将虚拟元素730a移动到三维环境702中对应于第三虚拟对象704g的位置。如图7U所示,根据计算机系统101将虚拟元素730a移动到三维环境702中对应于第三虚拟对象704g的位置,计算机系统101保持以减小量的视觉突出性显示第三虚拟对象704g。此外,如图7U所示,计算机系统101保持以增加量的视觉突出性显示第一虚拟对象704e和第二虚拟对象704f。
如图7U所示,虚拟元素730a与视觉项目732一起显示。在一些实施方案中,视觉项目732对应于根据虚拟元素730a移动到三维环境702中对应于第三虚拟对象704g的位置而在三维环境702中显示的视觉反馈。在一些实施方案中,当视觉项目732显示在三维环境702中时,根据用户712终止与朝向第三虚拟对象704g移动虚拟元素730a的请求相对应的输入,计算机系统101将虚拟元素730a添加到第三虚拟对象704g(例如,如参考图7V所描述的)。在三维环境702中显示视觉项目732通知用户712如果用户712停止提供图7U中所示的输入(例如,用户712停止用手720执行空中捏合),则计算机系统101将把虚拟元素730a添加到第三虚拟对象704g(例如,并且为用户712提供在终止输入之前将虚拟元素730a移动到三维环境702中在距第三虚拟对象704g的阈值距离之外的不同位置的机会(例如,为了避免虚拟元素730a被添加到第三虚拟对象704g))。
图7V示出了在用户712终止与朝向第三虚拟对象704g移动虚拟元素730a的请求相对应的输入之后虚拟元素730a被添加到第三虚拟对象704g。在一些实施方案中,将虚拟元素730a添加到第三虚拟对象704g包括将虚拟元素添加到三维环境中的相应虚拟对象的一个或多个特性,如参考方法800所描述的。例如,如图7V所示,虚拟元素730a显示在第三虚拟对象704g内。此外,在图7V中,当虚拟元素730a被添加到第三虚拟对象704g时,计算机系统101保持以第二量的视觉突出性显示第三虚拟对象704g。另外,如图7V所示,计算机系统101保持以增加量的视觉突出性显示第一虚拟对象704e和第二虚拟对象704f。在一些实施方案中,在将虚拟元素730a添加到第三虚拟对象704g之后,计算机系统101以增加量的视觉突出性显示第三虚拟对象704g(例如,第一量的视觉突出性或大于第二视觉突出性的第三视觉突出性,如参考方法800所描述的)。例如,在虚拟元素730a被添加到第三虚拟对象704g之前或者当虚拟元素730a被添加到第三虚拟对象704g时,计算机系统101不以增加量的视觉突出性显示第三虚拟对象704g(例如,计算机系统101保持以第二量的视觉突出性显示第三虚拟对象704g)。在一些实施方案中,根据第三虚拟对象704g以增加量的视觉突出性显示,计算机系统101以减少量的视觉突出性(例如,第二量的视觉突出性)显示第一虚拟对象704e。
在一些实施方案中,将虚拟元素730a添加到第三虚拟对象704g包括改变虚拟元素730a的视觉外观。例如,虚拟元素730a以第三视觉外观显示(例如,虚拟元素730a的第三视觉外观在图7V中被标记为730-3)。以第三视觉外观显示虚拟元素730a任选地不同于以第一视觉外观和/或第二视觉外观显示虚拟元素730a。在一些实施方案中,虚拟元素730a的第三视觉外观包括与以第一视觉外观显示虚拟元素730a相比,以更少的不透明度、颜色、亮度、饱和度和/或清晰度显示虚拟元素730a(例如,因为在图7V中,虚拟元素730a包括在与当以第一视觉外观显示虚拟元素730a时包括虚拟元素730a的相应虚拟对象相比以更少的不透明度、颜色、亮度、饱和度和/或清晰度显示的相应虚拟对象中)。在一些实施方案中,虚拟元素730a-3包括与虚拟元素730-2(例如,图7T至图7U中所示)相比不同的尺寸和/或形状。
图7W示出了图7U的替代实施方案,其包括根据在虚拟元素730a在三维环境702中的移动期间满足一个或多个标准,计算机系统101以增加量的视觉突出性(例如,第一量的视觉突出性或大于第二视觉突出性的第三视觉突出性,如参考方法800所描述的)显示第三虚拟对象704g。在一些实施方案中,一个或多个标准具有参考方法800所述的一个或多个第一标准的一个或多个特性。在一些实施方案中,根据在虚拟元素730a三维环境702中的移动期间虚拟元素730a在第三虚拟对象704g的阈值距离内(例如,持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒)),计算机系统101以增加量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,根据虚拟元素730a的移动小于阈值移动量(例如,在0.1、0.2、0.5、1、2、5或10秒内相对于三维环境702小于0.01m、0.05m、0.1m、0.2m、0.5m或1m,或在0.1、0.2、0.5、1、2、5或10秒内小于0.01m/s、0.02m/s、0.05m/s、0.1m/s、0.2m/s、0.5m/s或1m/s的平均速度),计算机系统101以增加量的视觉突出性显示第三虚拟对象704g。例如,在执行与朝向虚拟对象704g移动虚拟元素730a的请求相对应的输入时,虚拟元素730a在三维环境702中对应于第三虚拟对象704g的位置处显示超过阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒)。根据虚拟元素730a在三维环境702中对应于第三虚拟对象704g的位置处显示超过阈值时间段,计算机系统101以增加量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,根据第三虚拟对象704g的阈值量在三维环境702中可见,计算机系统101以增加量的视觉突出性显示第三虚拟对象704g(例如,如参考一个或多个第一标准所描述的,该一个或多个第一标准包括根据相应虚拟对象的第一部分在方法800中在三维环境中可见而满足的标准)。如图7W所示,根据计算机系统101以增加量的视觉突出性显示第三虚拟对象704g,计算机系统101以减少量的视觉突出性(例如,第二量的视觉突出性)显示第一虚拟对象704e(例如,其继续被第三虚拟对象704g重叠超过阈值量)。此外,如图7W所示,计算机系统101保持以增加量的视觉突出性显示第二虚拟对象704f(例如,因为第二虚拟对象704f在第一虚拟对象704e和第三虚拟对象704g的视觉突出性改变之前以增加量的视觉突出性显示,并且第二虚拟对象704f与第一虚拟对象704e或第三虚拟对象704g重叠不超过阈值量)。
图7X示出了用户712执行与将三维环境702中的虚拟元素730a远离第三虚拟对象704g移动的请求相对应的输入。在一些实施方案中,图7X中所示的输入是图7S中发起并且图7T和图7W中所示的输入的延续(例如,用户712保持空中手势(例如,空中捏合)并且用手720相对于三维环境702执行移动)。如图7X所示,虚拟元素730a被移动到三维环境702中不对应于第三虚拟对象704g的位置(例如,在计算机系统101根据虚拟元素730a在第三虚拟对象704g的阈值距离内而将虚拟元素730a移动到第三虚拟对象704g之后,用户712将虚拟元素730a移动远离第三虚拟对象704g)。在一些实施方案中,在满足一个或多个标准之后,用户712将虚拟元素730a移动远离第三虚拟对象704g(例如,如参考图7W所描述的)以增加第三虚拟对象704g的视觉突出性。如图7X所示,根据虚拟元素730a被移动远离三维环境702中对应于第三虚拟对象704g的位置,计算机系统101保持以增加量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,根据计算机系统101检测到与在虚拟元素730a显示在远离第三虚拟对象704g的位置处时在三维环境702中移动虚拟元素730a的请求相对应的输入终止,计算机系统101保持以增加量的视觉突出性显示第三虚拟对象704g(例如,以及以减少量的视觉突出性显示第一虚拟对象704e和以增加量的视觉突出性显示第二虚拟对象704f)。在一些实施方案中,根据计算机系统101检测到与在虚拟元素730a显示在远离第三虚拟对象704g的位置处时在三维环境702中移动虚拟元素730a的请求相对应的输入终止,计算机系统101放弃将虚拟元素730a添加到第三虚拟对象704g(例如,因为虚拟元素730a不在第三虚拟对象704g的阈值距离内和/或未显示在三维环境702中对应于第三虚拟对象704g的位置处)。例如,在检测到输入终止之后,计算机系统101保持在远离第三虚拟对象704g的位置处显示虚拟元素730a。例如,在检测到输入终止之后,计算机系统101将虚拟元素730a添加(例如,返回)到第二虚拟对象704f。
图7Y示出了具有输入接口的三维环境702中显示的第一虚拟对象和第二虚拟对象。在一些实施方案中,第一虚拟对象704h和第二虚拟对象704i与用户712可提供输入的应用程序相关联。例如,第一虚拟对象704h与文字处理应用程序相关联,而第二虚拟对象704i与网络浏览应用程序或搜索引擎应用程序相关联。在图7Y中,第一虚拟对象704h和第二虚拟对象704i分别与虚拟元素740d和740e一起显示。在一些实施方案中,虚拟元素740d和740e是可选择的(例如,通过与指向虚拟元素740d或虚拟元素740e的注视以及空中手势相对应的输入)以相对于三维环境702移动第一虚拟对象704h或第二虚拟对象704i(例如,虚拟元素740d的选择对应于发起第一虚拟对象704h相对于三维环境702的移动)。如图7Y所示,虚拟元素740d和740e与具有上述虚拟示能表示的一个或多个特性的虚拟示能表示一起显示。
如图7Y所示,输入接口736是虚拟键盘(例如,输入接口736具有参考方法800描述的输入元素的一个或多个特性)。在一些实施方案中,输入接口736与第一虚拟对象704h相关联(例如,通过输入接口736提供的输入对应于提供给与第一虚拟对象704h相关联的相应应用程序的输入)。在一些实施方案中,根据输入接口736与第一虚拟对象704h相关联,用户712可通过输入接口736提供输入以在第一虚拟对象704h的用户界面中添加和/或编辑文本。具体地讲,参考图7Y,由用户712通过输入接口736提供的输入对应于向与第一虚拟对象704h相关联的文本输入用户界面742a添加和/或编辑文本。例如,文本输入用户界面742a与文档相关联。如图7Y所示,光标734a被示出为表示文本输入用户界面742a中将响应于通过输入接口736提供的输入而添加文本的位置。
在一些实施方案中,根据输入接口736与第一虚拟对象704h相关联,输入接口736显示在三维环境702中基于第一虚拟对象704h在三维环境702中的位置的位置处。例如,如图7Y所示,输入接口736被显示为与第一虚拟对象704h对齐(例如,从用户712的当前视点来看(例如,从用户712的当前视点来看,输入接口736以第一虚拟对象704h为中心))。在一些实施方案中,输入接口736被显示在三维环境702中独立于与输入接口736相关联的相应虚拟对象的位置的位置处。例如,在一些实施方案中,输入接口736被显示在基于用户712的当前视点的位置处(例如,在与用户712的当前视点的中心对齐的位置处)。如图7Y中的俯视图710所示,输入接口736被显示在三维环境702中比第一虚拟对象704h更接近用户712的当前视点的位置处。在一些实施方案中,输入接口736被显示在三维环境702中使得用户712能够成功地与输入接口736交互的位置处。例如,根据输入接口736是虚拟键盘(例如,如图7Y所示),输入接口736被显示在距用户712的当前视点一定距离处,使得用户712可以读取虚拟键盘的键。例如,输入接口736被显示在距用户712的当前视点一定距离处,使得输入接口736在用户712的一个或多个部分的附近(例如,在手720的附近,使得用户712可以将手720移动到三维环境702中对应于输入接口736的位置(例如,和/或虚拟键盘的一个或多个键)。如图7Y所示,用户712提供指向输入接口736的输入(例如,对应于指向虚拟键盘的键的空中手势(例如,空中轻击))。该输入包括由手720对输入接口736的对应于虚拟键盘的键的部分执行的空中手势(例如,空中轻击)。在一些实施方案中,输入包括在用户712执行空中手势时指向输入接口736的对应于虚拟键盘的键的部分的注意力(例如,注视)。
图7Z示出了由于指向图7Y中的输入接口736的输入而在与第一虚拟对象704h相关联的文本输入用户接口742a中键入的文本。如图7Z所示,由于输入而在文本输入用户界面742a中键入字母“D”(例如,字母“D”对应于图7Y中输入被引导的虚拟键盘的键)。在图7Z中,由于在文本输入用户界面742a中添加文本,因此光标734a的位置在文本输入用户界面742a内被更新(例如,光标734a的更新位置对应于文本输入用户界面742a中由于通过输入接口736提供的附加输入而将插入附加文本的位置)。在一些实施方案中,响应于文本输入用户接口742a中响应于通过输入接口742提供的输入而发生的文本的添加、修改和/或移除,进一步更新光标734a的位置(例如,响应于通过输入接口736提供的对应于在文本输入用户接口736a内移动光标734a的请求的输入,进一步更新光标734a的位置)。
图7AA示出了用户712提供与在三维环境702中移动第二虚拟对象704i的请求相对应的输入。如图7AA所示,注视708指向虚拟元素740e,同时用户712并发地用手720执行空中手势(例如,空中捏合)。在一些实施方案中,图7AA中所示的输入对应于第二虚拟对象704i的选择。当选择第二虚拟对象704i时,响应于用户712用手720保持空中手势(例如,空中捏合),同时执行手720相对于三维环境702的移动,第二虚拟对象704i可在三维环境702中移动。在一些实施方案中,第二虚拟对象704i在三维环境702中的移动基于与图7AA中所示的输入相关联的手720的移动。
图7BB示出了响应于导致第一虚拟对象704h与第二虚拟对象704i之间的重叠超过阈值量的第二虚拟对象704i的移动而以减少量的视觉突出性显示的输入接口736。如图7BB所示,由图7AA中发起的输入引起的第二虚拟对象704i的移动导致第二虚拟对象704i与第一虚拟对象704h重叠超过阈值量。根据第二虚拟对象704i与第一虚拟对象704h重叠超过阈值量,计算机系统101以第二量的视觉突出性显示第一虚拟对象704h。在一些实施方案中,如图7BB所示,由于输入接口736与第一虚拟对象704h相关联并且第一虚拟对象704h以第二量的视觉突出性显示,因此计算机系统101以减少量的视觉突出性显示输入接口736。例如,与以图7Y至图7AA中所示的量的视觉突出性显示输入接口736相比,以减少量的视觉突出性显示输入接口736包括以更少的不透明度、亮度、颜色、饱和度和/或清晰度显示输入接口736。在一些实施方案中,根据计算机系统101检测到由用户712提供的指向输入接口736的输入,同时输入接口736以减少量的视觉突出性显示(例如,并且同时第二虚拟对象704i与第一虚拟对象704h重叠超过阈值量),计算机系统101放弃根据该输入更新(例如,通过添加和/或修改文本)文本输入用户接口742a。在一些实施方案中,计算机系统101基于第一虚拟对象704h以减少量的视觉突出性显示来以减少量的视觉突出性显示输入接口736(例如,根据第一虚拟对象704h以增加量的视觉突出性显示,计算机系统101以增加量的视觉突出性显示输入接口736)。在一些实施方案中,计算机系统101以独立于第二虚拟对象704i与输入接口736之间的重叠量的减少的视觉突出性显示输入接口736(例如,输入接口736以减少量的视觉突出性显示,因为第一虚拟对象704h以减少量的视觉突出性显示,而不是因为输入接口736与第二虚拟对象704i重叠超过阈值量(例如,如图7BB所示,从用户712的当前视点来看,第二虚拟对象704i在三维环境702中不与输入接口736重叠))。
图7CC示出了用户712向第二虚拟对象704i的文本输入用户界面提供输入。在一些实施方案中,第二虚拟对象704i的文本输入用户界面742b是与搜索引擎相关联的文本字段。如图7CC所示,输入包括指向文本输入用户界面742b的注视708,同时用户712并发地用手720执行空中手势。在一些实施方案中,图7CC中所示的输入对应于将输入接口736与第二虚拟对象704i相关联的请求(例如,用户712请求使用输入接口736在与第二虚拟对象704i相关联的文本字段中键入文本)。
图7DD示出了由于图7CC中由用户712提供的输入而在三维环境702中显示与第二虚拟对象704i相关联的输入接口736。如图7DD所示,输入接口736在三维环境702中以增加量的视觉突出性(例如,对应于输入接口736在图7Y至图7AA中显示的视觉突出性的量)显示。例如,与如图7BB至图7CC所示相比,输入接口736以更大量的不透明度、亮度、颜色、饱和度和/或清晰度显示。在一些实施方案中,将输入接口736与第二虚拟对象704i相关联包括停止在三维环境702中显示与第一虚拟对象704h相关联的输入接口736以及在三维环境702中显示与第二虚拟对象704i相关联的输入接口736。如图7DD所示(例如,在俯视图710中),计算机系统101在三维环境702中基于第二虚拟对象704i的位置的位置处显示输入接口736(例如,输入接口736与第二虚拟对象704i对齐(例如,居中))。此外,如俯视图710所示,与第二虚拟对象704i相比,计算机系统101将输入接口736显示在距用户712的当前视点更近的位置(例如,与如图7Y至图7CC所示相比,计算机系统101将输入接口736显示在距用户712的当前视点在深度方向上的距离处)。在一些实施方案中,将输入接口736与第二虚拟对象704i相关联不包括在三维环境702中移动输入接口736。例如,由于图7CC中由用户712提供的输入,并且当输入接口736显示在三维环境702中独立于与输入接口736相关联的相应虚拟对象(例如,第一虚拟对象704h)的位置的位置处时(例如,如上所述),计算机系统101将输入接口736的显示保持在三维环境702中独立于与输入接口736相关联的相应虚拟对象的位置的位置处(例如,并且根据在检测到输入时以减少量的视觉突出性显示输入接口736来增加输入接口736的视觉突出性)。在一些实施方案中,如图7DD所示,根据第二虚拟对象704i继续与第一虚拟对象704h重叠超过阈值量(例如,并且因为与注视和/或空中手势相对应的输入未指向第一虚拟对象704h),计算机系统101保持以第二量的视觉突出性显示第一虚拟对象704h。
如图7DD所示,由于图7CC中由用户712提供的输入,在文本输入用户界面742b中显示光标734b。在一些实施方案中,光标734b通知用户712输入接口736与第二虚拟对象704i相关联(例如,并且通过输入接口736提供的任何输入将对应于提供给文本输入用户界面742b的输入)。在图7DD中,用户712提供指向输入接口736的输入(例如,对应于指向虚拟键盘的键的空中手势(例如,空中轻击))。在一些实施方案中,输入包括在用户712执行空中手势时指向输入接口736的对应于虚拟键盘的键的部分的注意力(例如,注视)。
图7EE示出了由于指向图7DD中的输入接口736的输入而在与第二虚拟对象704i相关联的文本输入用户接口742b中键入的文本。如图7EE所示,由于输入而在文本输入用户界面742b中键入字母“W”(例如,字母“W”对应于图7DD中输入被引导的虚拟键盘的键)。在图7EE中,由于在文本输入用户界面742b中键入文本,因此光标734b的位置在文本输入用户界面742b内被更新(例如,光标734b的更新位置对应于文本输入用户界面742b中由于通过输入接口736提供的附加输入而将插入附加文本的位置)。在一些实施方案中,响应于文本输入用户接口742b中响应于通过输入接口736提供的输入而发生的文本的添加、修改和/或移除,进一步更新光标734b的位置(例如,响应于通过输入接口736提供的对应于在文本输入用户接口742b内移动光标734b的请求的输入,进一步更新光标734b的位置)。
图8是示出根据一些实施方案的响应于检测到第一虚拟对象与第二虚拟对象之间的重叠的阈值量而改变相应虚拟对象相对于三维环境的视觉突出性的示例性方法800的流程图。在一些实施方案中,方法800在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法800通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法800中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法800在与一个或多个输入设备(例如,一个或多个输入设备314)和显示生成部件(例如,显示生成部件120)通信(例如,包括和/或通信链接)的计算机系统(例如,计算机系统101)处执行。在一些实施方案中,计算机系统是或包括电子设备,诸如移动设备(例如,平板电脑、智能电话、媒体播放器或可穿戴设备)或计算机。在一些实施方案中,显示生成部件是与电子设备集成的显示器(任选地触摸屏显示器)、外部显示器诸如监视器、投影仪、电视机或用于投影用户界面或使得用户界面对一个或多个用户可见的硬件部件(任选地集成的或外部的)。在一些实施方案中,该一个或多个输入设备包括能够接收用户输入(例如,捕获用户输入或检测到用户输入)并向电子设备发送与该用户输入相关联的信息。输入设备的示例包括图像传感器(例如,相机)、位置传感器、手部跟踪传感器、眼睛跟踪传感器、运动传感器(例如,手部运动传感器)取向传感器、麦克风(和/或其他音频传感器)、触摸屏(任选地集成或外部)、遥控设备(例如,外部)、另一移动设备(例如,与电子设备分离)、手持设备(例如,外部)和/或控制器。
在一些实施方案中,计算机系统经由显示生成部件相对于计算机系统的用户的当前视点在三维环境中以第一空间关系(例如,诸如图7A和图7A1中显示的第一虚拟对象704a与第二虚拟对象704b之间的空间关系)显示(802a)包括第一虚拟对象和第二虚拟对象(例如,如图7A和图7A1所示的第一虚拟对象704a和第二虚拟对象704b)的多个虚拟对象,其中以第一空间关系显示第一虚拟对象和第二虚拟对象包括以相对于用户的当前视点没有重叠部分的方式显示第一虚拟对象和第二虚拟对象(例如,诸如图7A和图7A1中第一虚拟对象704a和第二虚拟对象704b没有重叠部分显示),并且以相对于三维环境的第一视觉突出性(诸如图7A和图7A1中所示的第一虚拟对象704a和第二虚拟对象704b的第一视觉突出性)显示第一虚拟对象和第二虚拟对象。在一些实施方案中,三维环境由计算机系统生成、显示或以其他方式使其可见。例如,三维环境是扩展现实(XR)环境,诸如虚拟现实(VR)环境、混合现实(MR)环境或增强现实(AR)环境。在一些实施方案中,三维环境包括一个或多个虚拟对象(例如,不同于第一虚拟对象和/或第二虚拟对象)和/或计算机系统用户的物理环境中的对象的表示。在一些实施方案中,第一虚拟对象和/或第二虚拟对象是三维环境中显示的虚拟窗口、容器、应用程序和/或用户界面。例如,第一虚拟对象和/或第二虚拟对象显示包括内容(例如,音频和/或视频内容(例如,来自流媒体服务应用程序的电影和/或电视节目,和/或来自视频共享服务或社交媒体应用程序的在线视频)、图像和/或文本(例如,来自网络浏览应用程序)、或交互式内容(例如,来自视频游戏媒体))的相应媒体。在一些实施方案中,以第一空间关系显示第一虚拟对象和第二虚拟对象包括显示相对于用户的当前视点重叠小于下述阈值量的第一虚拟对象和第二虚拟对象。在一些实施方案中,第一空间关系包括第一虚拟对象相对于第二虚拟对象在三维环境中的空间布置(例如,相对位置和/或相对取向),和/或第二虚拟对象相对于第一虚拟对象在三维环境中的空间布置(例如,相对位置和/或相对取向)。例如,第一虚拟对象的位置显示在三维环境中在距第二虚拟对象一定距离处,和/或第一虚拟对象相对于第二虚拟对象以一定取向(例如,基于球面坐标或极坐标)显示。例如,第二虚拟对象的位置显示在三维环境中在距第一虚拟对象一定距离处,和/或第二虚拟对象相对于第一虚拟对象以一定取向(例如,基于球面坐标或极坐标)显示。在一些实施方案中,第一虚拟对象和第二虚拟对象在三维环境中的位置使得第一虚拟对象不会相对于用户的当前视点在视觉上遮挡第二虚拟对象(任选地,任何部分),并且第二虚拟对象不会相对于用户的当前视点在视觉上遮挡第一虚拟对象(任选地,任何部分)。在一些实施方案中,以第一视觉突出性显示第一虚拟对象和第二虚拟对象包括以一个或多个视觉特性显示第一虚拟对象和第二虚拟对象,该一个或多个视觉特性包括不透明度、亮度、尺寸和/或颜色饱和度。在一些实施方案中,在三维环境中以第一视觉突出性显示第一虚拟对象和第二虚拟对象包括与第一虚拟对象和第二虚拟对象相关联的内容相对于用户的当前视点对用户可见。例如,第一虚拟对象和/或第二虚拟对象的内容以100%的不透明度(例如,或者任选地不透明度大于阈值不透明度百分比,诸如75%、80%、85%、90%或95%不透明度)显示。
在一些实施方案中,计算机系统经由一个或多个输入设备检测(802b)与相对于用户的当前视点将第一虚拟对象与第二虚拟对象之间的空间关系从第一空间关系改变为不同于第一空间关系的第二空间关系的请求相对应的第一输入,诸如参考图7A和图7B所示和所述的输入(例如,由注视708和手720提供)。在一些实施方案中,改变第一虚拟对象与第二虚拟对象之间的空间关系包括改变第一虚拟对象和/或第二虚拟对象在三维环境中的位置。在一些实施方案中,改变第一虚拟对象与第二虚拟对象之间的空间关系包括改变第一虚拟对象和/或第二虚拟对象相对于用户的当前视点的位置和/或取向(例如,角度位置)。在一些实施方案中,第一输入对应于将第一虚拟对象和/或第二虚拟对象从三维环境中的第一位置移动到三维环境中的第二位置的请求。在一些实施方案中,第一输入包括用户将注意力集中到第一虚拟对象或第二虚拟对象。例如,用户将注视指向第一虚拟对象或第二虚拟对象(例如,任选地持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))。在一些实施方案中,在注意力指向第一虚拟对象或第二虚拟对象时,用户执行空中手势(例如,空中轻击、空中捏合、空中拖动和/或空中长捏合(例如,持续一定时间段(例如,0.1、0.5、1、2、5或10秒)的空中捏合))以便选择第一虚拟对象或第二虚拟对象。用户任选地在并发地执行上述手势的同时执行手部移动(例如,在处于空中捏合手势形状的同时在相对于三维环境的方向上(例如,朝向三维环境中的第二位置)移动他们的手,用户期望将第一虚拟对象或第二虚拟对象移动到该方向)。在一些实施方案中,第一虚拟对象和/或第二虚拟对象在三维环境中响应于第一输入的移动包括相对于三维环境的对应于所执行的手部移动的移动(例如,手部移动的距离和/或方向)。在一些实施方案中,第一输入对应于与计算机系统通信的触敏表面(例如,触控板或触摸屏)上的触摸输入。在一些实施方案中,第一输入对应于通过与计算机系统通信的键盘和/或鼠标提供的输入。在一些实施方案中,第一输入对应于由用户提供的音频输入(例如,口头命令)。
在一些实施方案中,响应于检测到第一输入(802c),并且根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统经由显示生成部件以相对于三维环境小于第一视觉突出性的第二视觉突出性显示(802d)多个虚拟对象中的相应虚拟对象(例如,第一虚拟对象或第二虚拟对象中的一个)的相应部分,诸如在图7C中以第二量的视觉突出性显示第二虚拟对象704b。在一些实施方案中,第一虚拟对象的至少一部分与第二虚拟对象之间的重叠的阈值量包括重叠角度阈值(例如,距用户的当前视点的角距离)。例如,第一虚拟对象的至少一部分相对于用户的当前视点与第二虚拟对象重叠超过0.1、0.5、1、2、5、10、15、20、25、30、35、40或45度。在一些实施方案中,重叠的阈值量是第二虚拟对象相对于用户的当前视点的阈值面积。例如,重叠面积阈值是第二虚拟对象相对于用户的当前视点的总面积的0.5%、1%、2%、5%、10%、25%、35%或50%。在一些实施方案中,相应虚拟对象的相应部分是第一虚拟对象或第二虚拟对象的相应部分。在一些实施方案中,相应虚拟对象对应于注意力未指向的虚拟对象(例如,如果注意力指向第一虚拟对象,则相应虚拟对象是第二虚拟对象,或者如果注意力指向第二虚拟对象,则相应虚拟对象是第一虚拟对象)。在一些实施方案中,如果相应虚拟对象是第一虚拟对象,则第一虚拟对象的相应部分对应于从用户的当前视点来看第一虚拟对象的未被第二虚拟对象的至少一部分重叠的区域(例如,或任选地该区域的一部分)。在一些实施方案中,如果相应虚拟对象是第二虚拟对象,则第二虚拟对象的相应部分对应于从用户的当前视点来看第二虚拟对象的未被第一虚拟对象的至少一部分重叠的区域(例如,或任选地该区域的一部分)。在一些实施方案中,如果相应虚拟对象是第二虚拟对象,则相应部分是第二虚拟对象的围绕从用户的当前视点来看第一虚拟对象的与第二虚拟对象重叠的至少一部分的周边的部分。例如,第二虚拟对象的相应部分包括第二虚拟对象的在从用户的当前视点来看第一虚拟对象的与第二虚拟对象重叠的至少一部分的周边的阈值距离(例如,0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm或50cm)内的区域。在一些实施方案中,如果相应虚拟对象是第一虚拟对象,则相应部分是第一虚拟对象的围绕从用户的当前视点来看第二虚拟对象的与第一虚拟对象重叠的至少一部分的周边的部分。例如,第一虚拟对象的相应部分包括第一虚拟对象的在从用户的当前视点来看第二虚拟对象的与第一虚拟对象重叠的至少一部分的周边的阈值距离(例如,0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm或50cm)内的区域。在一些实施方案中,以第二视觉突出性显示相应虚拟对象的相应部分包括与以第一视觉突出性显示相应虚拟对象的相应部分相比,以更少的不透明度、亮度、尺寸和/或颜色饱和度显示相应虚拟对象的相应部分。在一些实施方案中,以第二视觉突出性显示相应虚拟对象的相应部分包括与以第一视觉突出性显示相应虚拟对象的相应部分相比,以更多的透明度和/或清晰度显示相应虚拟对象的相应部分。在一些实施方案中,与相应虚拟对象的相应部分不同的相应虚拟对象的第二部分以第一视觉突出性显示,而相应虚拟对象的相应部分以第二视觉突出性显示(例如,相应虚拟对象的第二部分是相应虚拟对象的未被第一虚拟对象或第二虚拟对象的至少一部分在视觉上遮挡并且任选地不在第一虚拟对象或第二虚拟对象的至少一部分的周边的阈值距离内的部分)。在一些实施方案中,相应虚拟对象的相应部分包括相应虚拟对象的未被第一虚拟对象或第二虚拟对象的至少一部分重叠的整个部分(例如,相对于用户的当前视点,相应虚拟对象的不与第一虚拟对象或第二虚拟对象的至少一部分在视觉上遮挡的整个部分)。在一些实施方案中,第一虚拟对象或第二虚拟对象在第一虚拟对象与第二虚拟对象之间的空间关系改变之后和/或期间保持第一视觉突出性(例如,基于注意力指向第一虚拟对象还是第二虚拟对象)。在一些实施方案中,相应虚拟对象的相应部分包括相应虚拟对象的与三维环境中不同相应虚拟对象距用户的当前视点的距离相比处于更靠近用户的当前视点的距离处的部分(例如,相应虚拟对象是第二虚拟对象,并且第一虚拟对象在三维环境中被定位在与第二虚拟对象相比在三维环境中距用户的当前视点更大的距离处)。在一些实施方案中,以第二视觉突出性显示相应虚拟对象的相应部分包括减少相应虚拟对象的相应部分(例如,其任选地与第一虚拟对象或第二虚拟对象重叠)的视觉突出性,使得第一虚拟对象或第二虚拟对象从用户的当前视点可见(例如,由于相应虚拟对象的相应部分的透明度增加)。
在一些实施方案中,根据确定从用户的当前视点来看第一虚拟对象与第二虚拟对象重叠不超过阈值量,计算机系统经由显示生成部件以相对于三维环境的第一视觉突出性显示(802e)相应虚拟对象的相应部分,诸如在图7B中以第一量的视觉突出性显示第二虚拟对象704b。在一些实施方案中,相对于用户的当前视点,第一虚拟对象与第二虚拟对象重叠小于阈值量(例如,小于第二虚拟对象的角度阈值和/或阈值面积)的量。在一些实施方案中,改变第一虚拟对象与第二虚拟对象之间的空间关系不会导致第一虚拟对象与第二虚拟对象重叠。在一些实施方案中,相应虚拟对象(例如,第一虚拟对象或第二虚拟对象)的相应部分保持在第一虚拟对象与第二虚拟对象之间的空间关系改变之前显示的相同视觉突出性。在一些实施方案中,在第一虚拟对象与第二虚拟对象之间的空间关系改变之后,第一虚拟对象和第二虚拟对象保持第一视觉突出性。由于相应虚拟对象与虚拟对象之间的空间关系的改变(包括相应虚拟对象的至少一部分相对于用户的当前视点与虚拟对象重叠超过阈值量),在三维环境中以更少的视觉突出性显示虚拟对象的一部分向用户提供空间关系的改变导致三维环境中的虚拟对象与相应虚拟对象之间的空间冲突的视觉反馈,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,并允许与相应虚拟对象继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,根据确定第一输入包括指向第一虚拟对象的注意力,多个虚拟对象中的相应虚拟对象是第二虚拟对象(例如,基于图7A至图7B中指向第一虚拟对象704a的输入,第二虚拟对象704b在图7C中以第二量的视觉突出性显示)。在一些实施方案中,指向第一虚拟对象的注意力具有参考步骤802所述的指向第一虚拟对象的注意力的一个或多个特性。例如,第一输入包括指向第一虚拟对象的注视和/或空中手势。
在一些实施方案中,在检测到第一输入之后,计算机系统检测与指向第二虚拟对象的注意力相对应的第二输入,诸如图7C中所示的输入(例如,包括指向第二虚拟对象704b的注视708)。在一些实施方案中,指向第二虚拟对象的注意力具有参考步骤802所述的指向第二虚拟对象的注意力的一个或多个特性。例如,第一输入包括指向第二虚拟对象的注视和/或空中手势。
在一些实施方案中,响应于检测到第二输入,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统以相对于三维环境的第一视觉突出性(例如,包括参考步骤802所述的第一视觉突出性的一个或多个特性)显示第二虚拟对象的相应部分(例如,如上所述的多个虚拟对象的相应虚拟对象的相应部分),诸如响应于图7C中所示的输入在图7D中以第一量的视觉突出性显示第二虚拟对象704b,并且计算机系统以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分(例如,包括参考步骤802所述的第二视觉突出性的一个或多个特性),诸如响应于图7C中所示的输入在图7D中以第二量的视觉突出性显示第一虚拟对象704a。在一些实施方案中,确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量具有如参考步骤802所述的确定第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量的一个或多个特性。在一些实施方案中,则第一虚拟对象的相应部分对应于从用户的当前视点来看第一虚拟对象的未被第二虚拟对象重叠的区域(例如,或任选地该区域的一部分)。在一些实施方案中,从用户的当前视点来看第一虚拟对象的相应部分围绕第二虚拟对象的至少一部分的周边(例如,包括第一虚拟对象的在周边的阈值距离(例如,0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、40cm、40cm、45cm或50cm)内的区域),该第二虚拟对象与第一虚拟对象具有空间冲突(例如,重叠)。当虚拟对象的至少一部分响应于用户的注意力指向相应虚拟对象而与相应虚拟对象重叠超过阈值量时,在三维环境中以更少的视觉突出性显示虚拟对象的部分允许与用户将其注意力指向的相应虚拟对象交互而不管空间冲突,从而改善用户设备交互。
在一些实施方案中,在检测到第一输入之后并且在以第一视觉突出性显示第一虚拟对象的同时,计算机系统检测与指向第二虚拟对象的注意力相对应的第二输入,诸如与指向图7C中所示的第二虚拟对象704b的注意力相对应的输入。在一些实施方案中,指向第二虚拟对象的注意力具有参考步骤802所述的指向第一虚拟对象的注意力的一个或多个特性。例如,第二输入包括指向第二虚拟对象的注视和/或空中手势(例如,空中轻击、空中捏合、空中拖动和/或空中长捏合(例如,持续一定时间段(例如,0.1、0.5、1、2、5或10秒)的空中捏合))。在一些实施方案中,根据第二虚拟对象是相应虚拟对象,第一虚拟对象以第一视觉突出性显示。
在一些实施方案中,响应于检测到第二输入,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分,诸如在图7D中以第一量的视觉突出性显示第二虚拟对象704b,并且以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分,诸如在图7D中以第二量的视觉突出性显示第一虚拟对象704a。在一些实施方案中,确定从用户的当前视点来看第一虚拟对象与第二虚拟对象重叠超过阈值量具有如参考步骤802所述的确定从用户的当前视点来看第一虚拟对象与第二虚拟对象重叠超过阈值量的一个或多个特性。在一些实施方案中,以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分包括如上所述以第一视觉突出性显示第二虚拟对象的相应部分的一个或多个特性。在一些实施方案中,以第二视觉突出性显示第一虚拟对象的相应部分包括如上所述以第二视觉突出性显示第一虚拟对象的相应部分的一个或多个特性。当虚拟对象的至少一部分与相应虚拟对象重叠超过阈值量时,响应于用户的注意力指向相应虚拟对象而在三维环境中以更少的视觉突出性显示虚拟对象的一部分允许与用户将其注意力指向的相应虚拟对象交互而不管空间冲突,从而改善用户设备交互。
在一些实施方案中,在检测到第二输入之后并且在以第一视觉突出性显示第二虚拟对象的相应部分的同时,计算机系统检测与指向三维环境中的多个虚拟对象中的第三虚拟对象的注意力相对应的第三输入,诸如指向图7P中的第二虚拟对象704f的输入。在一些实施方案中,第三虚拟对象具有三维环境中的多个虚拟对象中的第一虚拟对象和/或第二虚拟对象的一个或多个特性。在一些实施方案中,第三输入具有上述第二输入的一个或多个特性。例如,第三输入包括指向第三虚拟对象的用户的注视(例如,持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))。例如,第三输入包括指向第三虚拟对象的用户的注视,同时并发地执行空中手势(例如,包括上文所述的一个或多个空中手势(例如,参考步骤802))。
在一些实施方案中,响应于检测到第三输入,根据确定从用户的当前视点来看第三虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量(例如,诸如图7Q中第三虚拟对象704g的与第一虚拟对象704e重叠的部分),计算机系统以相对于三维环境的第二视觉突出性显示第二虚拟对象的相应部分,诸如响应于图7P中指向第二虚拟对象704f的输入而以减少量的视觉突出性显示第一虚拟对象704e,并且保持以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分,诸如计算机系统101响应于图7P中所示的输入而保持以减少量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,检测到从用户的当前视点来看第三虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量具有如参考步骤802所述的检测到第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量的一个或多个特性。在一些实施方案中,当从用户的当前视点来看第三虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量时,从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量。在一些实施方案中,当从用户的当前视点来看第三虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量时,从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠不超过阈值量。在一些实施方案中,保持以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分包括独立于第一虚拟对象与第二虚拟对象之间的重叠量保持以在检测到第三输入之前显示的相同视觉突出性显示第一虚拟对象的相应部分。例如,根据在检测到第三输入之前以第二视觉突出性显示第一虚拟对象的相应部分以及第三虚拟对象与第一虚拟对象重叠小于阈值量,计算机系统保持以第二视觉突出性显示第一虚拟对象。例如,根据在检测到第三输入之前以第一视觉突出性显示第一虚拟对象的相应部分以及第三虚拟对象与第一虚拟对象重叠小于阈值量,计算机系统保持以第一视觉突出性显示第一虚拟对象。当提供第三输入时,第二虚拟对象和/或第一虚拟对象任选地位于三维环境的用户的视场中。在一些实施方案中,根据在计算机系统检测到第三输入时第二虚拟对象和/或第一虚拟对象不在三维环境的用户的视场中,计算机系统将第二虚拟对象的视觉突出性从第一视觉突出性改变为第二视觉突出性,同时保持第一虚拟对象的视觉突出性(例如,第一视觉突出性)(例如,使得根据导致三维环境的用户的视场的改变的用户的当前视点的改变,第一虚拟对象和/或第二虚拟对象以相对于三维环境的第二视觉突出性显示)。响应于用户的注意力指向相应虚拟对象而以比与第二虚拟对象重叠超过阈值量的相应虚拟对象更少的视觉突出性来显示第一虚拟对象和与第一虚拟对象重叠超过阈值量的第二虚拟对象允许与相应虚拟对象继续交互而不管与第二虚拟对象的空间冲突,最大限度地减少来自用户正与之交互的相应虚拟对象的干扰(例如,这将由尽管与第二虚拟对象存在空间冲突但仍以更大量的视觉突出性显示第一虚拟对象而引起),并避免以不必要量的视觉突出性显示第一虚拟对象和第二虚拟对象,从而避免交互中的错误、改善用户设备交互并节省计算资源。
在一些实施方案中,响应于检测到第三输入,根据确定从用户的当前视点来看第三虚拟对象与第二虚拟对象重叠不超过阈值量(例如,诸如图7R中的第二虚拟对象704f不与第一虚拟对象704e重叠),计算机系统保持以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分,诸如计算机系统101响应于图7R中所示的输入而保持以增加量的视觉突出性显示第一虚拟对象704e,并且保持以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分,诸如计算机系统101响应于图7R中所示的输入而保持以减少量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,保持以第一视觉突出性显示第二虚拟对象的相应部分包括保持在检测到第三输入之前显示的第二虚拟对象的相应部分的相同量的不透明度、亮度、颜色、饱和度和/或清晰度。在一些实施方案中,保持以第二视觉突出性显示第一虚拟对象的相应部分包括保持在检测到第三输入之前显示的第一虚拟对象的相应部分的相同量的不透明度、亮度、颜色、饱和度和/或清晰度。在一些实施方案中,根据在检测到第二输入时第二虚拟对象不在三维环境的用户的视场中,计算机系统保持第二虚拟对象相对于三维环境的第一视觉突出性(例如,使得根据导致第二虚拟对象在三维环境的用户的视场中可见的用户的当前视点的改变,第二虚拟对象以相对于三维环境的第一视觉突出性显示)。在一些实施方案中,根据第一虚拟对象不在三维环境的用户的视场中,计算机系统保持第一虚拟对象的相应部分具有第二视觉突出性(例如,使得根据导致第一虚拟对象在三维环境的用户的视场中可见的用户的当前视点的改变,第一虚拟对象以相对于三维环境的第二视觉突出性显示)。在一些实施方案中,保持以第二视觉突出性显示第一虚拟对象包括保持停止在三维环境中显示第一虚拟对象的一部分(例如,如下所述的相应虚拟对象的第一部分)。响应于用户的注意力指向与第二虚拟对象重叠不超过阈值量的相应虚拟对象而保持第一虚拟对象和与第一虚拟对象重叠超过阈值量的第二虚拟对象的视觉突出性避免在视觉突出性的改变不必要时改变第一虚拟对象和第二虚拟对象的视觉突出性(例如,因为第三虚拟对象与第二虚拟对象没有空间冲突)并最大限度地减少来自用户正与之交互的相应虚拟对象的干扰(例如,这将由改变第一虚拟对象或第二虚拟对象的视觉突出性引起),从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第二输入,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量并且从用户的当前视点来看第二虚拟对象的至少一部分与三维环境中的多个虚拟对象中的第三虚拟对象重叠超过阈值量(例如,诸如在输入指向图7O中的第一虚拟对象704e时,第一虚拟对象704e与第二虚拟对象704f和第三虚拟对象704g重叠超过阈值量),计算机系统以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分(例如,诸如在图7O中计算机系统101以第一量的视觉突出性显示第一虚拟对象704e),以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分(例如,诸如在图7O中计算机系统101以第二量的视觉突出性显示第二虚拟对象704f),并且以相对于三维环境的第二视觉突出性显示第三虚拟对象的相应部分(例如,诸如在图7O中计算机系统101以第二量的视觉突出性显示第三虚拟对象704g)。在一些实施方案中,第三虚拟对象具有如上所述的第一虚拟对象和/或第二虚拟对象的一个或多个特性。在一些实施方案中,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量并且第二虚拟对象的至少一部分与第三虚拟对象重叠不超过阈值量,计算机系统以第一视觉突出性显示第二虚拟对象的相应部分、以第二视觉突出性显示第一虚拟对象的相应部分,并且保持以第一视觉突出性显示第三虚拟对象的相应部分。在一些实施方案中,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠不超过阈值量并且第二虚拟对象的至少一部分与第三虚拟对象重叠超过阈值量,计算机系统以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分,保持以第一视觉突出性显示第一虚拟对象,并且以第二视觉突出性显示第三虚拟对象的相应部分。响应于用户的注意力指向相应虚拟对象而在三维环境中以更少的视觉突出性显示与相应虚拟对象重叠超过阈值量的第一虚拟对象的一部分和与相应虚拟对象重叠超过阈值量的第二虚拟对象允许与用户将其注意力指向的相应虚拟对象交互而不管空间冲突,从而改善用户设备交互。
在一些实施方案中,当在三维环境中显示多个虚拟对象时,计算机系统在三维环境中显示与相应虚拟对象相关联的输入元素,诸如图7Y至图7EE中的三维环境702中显示的输入接口736。在一些实施方案中,输入元素是虚拟键盘(例如,用于将文本键入到与相应虚拟对象相关联的相应应用程序的文本字段中(例如,诸如图7Y至图7EE中所示的输入接口736))。在一些实施方案中,输入元素是用于与相应虚拟对象相关联的相应应用程序的菜单(例如,包括与相应应用程序的一个或多个设置相关联的一个或多个可选择元素)。在一些实施方案中,输入元素包括对应于回放控件(例如,用于控制与相应虚拟对象相关联的相应应用程序的内容的回放)的可选择选项。在一些实施方案中,输入元素与相应虚拟对象同时显示(例如,输入元素是在三维环境中显示的不同于相应虚拟对象的虚拟对象)。在一些实施方案中,输入元素显示在相应虚拟对象内。在一些实施方案中,输入元素显示在三维环境中与相应虚拟对象的位置相邻的位置处(例如,相对于用户的当前视点在相应虚拟对象的侧面、上方、下方和/或前方)。在一些实施方案中,输入元素显示在三维环境中距对应于三维环境中的用户的当前视点的位置在阈值距离内的位置处(例如,阈值距离对应于用户从其当前视点可访问的距离(例如,0.01m、0.05m、0.1m、0.2m、0.3m、0.4m、0.5m或1m))。例如,输入元素显示在三维环境中比三维环境中相应虚拟对象的位置更靠近用户在三维环境中的当前视点的位置处。在一些实施方案中,输入元素显示在三维环境中基于相应虚拟对象在三维环境中相对于用户的当前视点的位置的位置处(例如,输入元素以相应虚拟对象为中心和/或被布置在相对于用户的当前视点的取向处,该取向基于相应虚拟对象相对于用户的当前视点的取向)。在一些实施方案中,响应于与在三维环境中显示输入元素的请求相对应的输入(例如,该输入对应于将文本键入到在相应虚拟对象内显示的文本字段中的请求)来显示输入元素。在一些实施方案中,当在三维环境中显示与相应虚拟对象相关联的输入元素时,输入元素以基于相应虚拟对象的视觉突出性的视觉突出性显示。例如,根据相应虚拟对象以相对于三维环境的第一视觉突出性显示,输入元素以相对于三维环境的第一视觉突出性显示(例如,或者任选地以大于第二视觉突出性的视觉突出性(例如,如下所述的第四视觉突出性))。
在一些实施方案中,响应于检测到第一输入,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统以相对于三维环境小于第一视觉突出性的第三视觉突出性显示输入元素,诸如在图7BB中计算机系统101以减少量的视觉突出性显示输入接口736。在一些实施方案中,第三视觉突出性包括参考步骤802所述的第二视觉突出性的一个或多个特性。例如,以第三视觉突出性显示输入元素包括与以在接收第一输入之前显示输入元素的视觉突出性的量(例如,如下所述的第一视觉突出性或第四视觉突出性)显示输入元素相比,以更少的不透明度、亮度、颜色、饱和度和/或清晰度显示输入元素。在一些实施方案中,根据计算机系统的用户改变其相对于三维环境的当前视点(例如,使得输入元素不再在三维环境的用户的视场中),计算机系统保持输入元素在三维环境中以第三视觉突出性显示(例如,使得输入元素根据导致输入元素在三维环境的用户的视场中的用户的当前视点的改变以第三视觉突出性对三维环境中的用户可见)。
在一些实施方案中,响应于检测到第一输入,根据确定从用户的当前视点来看第一虚拟对象与第二虚拟对象重叠不超过阈值量,以相对于三维环境大于第二视觉突出性的第四视觉突出性显示输入元素,诸如在图7Y中计算机系统101以增加量的视觉突出性显示输入接口736。在一些实施方案中,第四视觉突出性包括如上所述的第一视觉突出性的一个或多个特性。在一些实施方案中,以第四视觉突出性显示输入元素包括保持以第四视觉突出性显示输入元素(例如,在计算机系统检测到第一输入之前,以相对于三维环境的第四视觉突出性显示输入元素)。在一些实施方案中,以第四视觉突出性显示输入元素包括当从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量时(例如,如上所述的第二视觉突出性或第三视觉突出性),与以显示输入元素的视觉突出性的量显示输入元素相比,以更大量的不透明度、亮度、颜色、饱和度和/或清晰度显示输入元素。在一些实施方案中,根据计算机系统的用户改变其相对于三维环境的当前视点(例如,使得输入元素不再在三维环境的用户的视场中),计算机系统保持输入元素在三维环境中具有第四视觉突出性(例如,使得根据导致输入元素在三维环境的用户的视场中可见的用户的当前视点的改变,输入元素以相对于三维环境的第四视觉突出性显示)。基于与输入元素相关联的相应虚拟对象是否与不同于相应虚拟对象的虚拟对象重叠超过阈值量来在三维环境中以不同量的视觉突出性显示输入元素防止在与输入元素的交互不太可能或不被允许(例如,由于空间冲突)时在三维环境中以不必要量的视觉突出性显示输入元素,从而节省计算资源。
在一些实施方案中,在检测到第一输入之后,计算机系统检测与在三维环境中显示与多个虚拟对象中的第三虚拟对象相关联的输入元素的请求相对应的第二输入,诸如指向图7CC中所示的文本输入用户界面742b的输入(例如,以将输入接口736与第二虚拟对象704i相关联)。在一些实施方案中,与第三虚拟对象相关联的输入元素具有与相应虚拟对象相关联的输入元素的一个或多个特性。在一些实施方案中,第二输入对应于将输入元素从与相应虚拟对象相关联改变为与第三虚拟对象相关联的请求(例如,输入元素是虚拟键盘,并且第二输入对应于将虚拟键盘与和第三虚拟对象相关联的相应应用程序一起使用(例如,并且停止将虚拟键盘与和相应虚拟对象相关联的相应应用程序一起使用)的请求)。在一些实施方案中,第二输入包括指向第三虚拟对象的注视和/或空中手势。在一些实施方案中,虚拟元素显示在第三虚拟对象内(例如,与和第三虚拟对象相关联的相应应用程序相关联的文本字段),并且第二输入包括指向虚拟元素的注视和/或空中手势。在一些实施方案中,第二输入包括音频输入(例如,口头命令)或在与计算机系统通信的触敏表面(例如,触控板)上提供的触摸输入。
在一些实施方案中,响应于检测到第二输入,计算机系统停止在三维环境中显示与相应虚拟对象相关联的输入元素,并在三维环境中显示与第三虚拟对象相关联的输入元素,诸如通过计算机系统101将输入接口736从与图7CC中的第一虚拟对象704h相关联改变为与图7DD中的第二虚拟对象704i相关联(例如,包括输入接口736在三维环境702中的移动)所示。在一些实施方案中,响应于检测到第二输入,根据以第一视觉突出性(例如,或以大于第二视觉突出性的视觉突出性)显示的第三虚拟对象,计算机系统以相对于三维环境的第四视觉突出性(例如,或以大于第二视觉突出性的视觉突出性)显示输入元素。在一些实施方案中,根据以第二视觉突出性(例如,或以小于第一视觉突出性的视觉突出性)显示的第三虚拟对象,计算机系统以相对于三维环境的第三视觉突出性(例如,或以相对于三维环境小于第一视觉突出性的视觉突出性)显示输入元素。在一些实施方案中,停止显示与相应虚拟对象相关联的输入元素并且在三维环境中显示与第三虚拟对象相关联的输入元素包括停止在三维环境中基于相应虚拟对象在三维环境中的位置的位置处显示输入元素并且在三维环境中基于第三虚拟对象在三维环境中的位置的位置处显示输入元素(例如,从用户的当前视点来看,输入元素显示在以三维环境中的第三虚拟对象为中心的位置处)。在一些实施方案中,响应于检测到第二输入而显示的与第三虚拟对象相关联的输入元素是在检测到第二输入之前显示的与相应虚拟对象相关联的相同输入元素。例如,响应于检测到第二输入,计算机系统在将输入元素与第三虚拟对象相关联的同时将输入元素的显示保持在三维环境中的相同位置和/或取向(例如,将输入元素与第三虚拟对象相关联包括停止将输入元素与相应虚拟对象相关联)。在一些实施方案中,在检测到第二输入之前,输入元素显示在三维环境中对应于如上所述的用户的当前视点的位置的阈值距离内的位置处,并且响应于检测到第二输入,计算机系统保持输入元素在该位置处的显示(例如,并且任选地基于相应虚拟对象与第三虚拟对象之间的视觉突出性的差异来改变输入元素的视觉突出性)。例如,在三维环境中对应于用户的当前视点的位置的阈值距离内的输入元素的位置是输入元素相对于用户的当前视点显示的默认位置(例如,或由用户设置并存储在计算机系统的存储器中的优选位置)(例如,输入元素显示在与三维环境中与输入元素当前相关联的多个虚拟对象中的相应虚拟对象无关的默认位置处)。响应于显示与相应虚拟对象相关联的输入元素的请求而停止在三维环境中显示与虚拟对象相关联的输入元素以及在三维环境中显示与相应虚拟对象相关联的输入元素避免在不必要时显示与虚拟对象相关联的输入元素并向用户提供相应输入元素与哪个虚拟对象相关联的视觉反馈,从而节省计算资源并避免交互中的错误。
在一些实施方案中,多个虚拟对象中的相应虚拟对象的相应部分是第二虚拟对象的相应部分(例如,第二虚拟对象704b在图7C中以第二量的视觉突出性显示。在一些实施方案中,在检测到第一输入之后,计算机系统检测与指向三维环境中的位置(例如,不同于三维环境中与多个虚拟对象相关联的一个或多个位置)的注意力相对应的第二输入,该位置与三维环境中的空白空间相对应,诸如如参考图7D所示和所述的指向空白空间的输入。在一些实施方案中,三维环境中的位置与不包括由计算机系统显示的一个或多个虚拟对象(例如,不包括第一虚拟对象和第二虚拟对象)的三维环境的区域(例如,三维环境的体积)相关联(例如,布置在该区域内)。在一些实施方案中,第二输入对应于指向三维环境中的空白空间的注视(例如,任选地持续阈值时间段(例如,0.1、0.5、1、2、5或10秒))。在一些实施方案中,第二输入对应于在注视指向空白空间时执行的空中手势(例如,包括参考步骤802所述的一个或多个空中手势的一个或多个特性)。
在一些实施方案中,响应于检测到第二输入,根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分(例如,如参考步骤802所述的相应虚拟对象的相应部分)(例如,包括参考步骤802所述的以相对于三维环境的第一视觉突出性显示相应虚拟对象的相应部分的一个或多个特性),并且计算机系统以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分,诸如响应于图7D中由用户712提供的输入,在图7E中以第一量的视觉突出性显示第一虚拟对象704a并且以第二量的视觉突出性显示第二虚拟对象704b。在一些实施方案中,确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量具有如参考步骤802所述的确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量的一个或多个特性。在一些实施方案中,以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分包括如上所述以第二视觉突出性显示第一虚拟对象的相应部分的一个或多个特性。当虚拟对象的至少一部分响应于用户的注意力指向三维环境中的空白空间而与相应虚拟对象重叠超过阈值量时,在三维环境中以更少的视觉突出性显示虚拟对象的一部分向用户提供用以与相应虚拟对象交互的有效方法而不管虚拟对象与相应虚拟对象的空间冲突,从而改善用户设备交互。
在一些实施方案中,响应于检测到第一输入,计算机系统将相应虚拟对象从三维环境中的第一位置移动到三维环境中的第二位置,其中相应虚拟对象的移动导致第一虚拟对象的至少一部分与第二虚拟对象重叠,诸如由图7A至图7C中的第一虚拟对象704a的移动引起的图7C中的第一虚拟对象704a与第二虚拟对象704b之间的重叠所示。在一些实施方案中,将相应虚拟对象从三维环境中的第一位置移动到三维环境中的第二位置包括从用户的当前视点改变相应虚拟对象在三维环境中的空间布置(例如,相应虚拟对象相对于用户的当前视点的距离和/或相应虚拟对象的取向根据第一输入在三维环境中改变)。在一些实施方案中,相应虚拟对象的移动基于第一输入中包括的手部移动(例如,手部移动由用户相对于三维环境执行,同时用手保持空中手势(例如,空中捏合)。例如,相对于三维环境的手部移动包括手从对应于三维环境中的第一位置的方向到对应于三维环境中的第二位置的方向的移动。在一些实施方案中,计算机系统在接收第一输入时(例如,在用户正在提供相对于三维环境的手部移动时)移动相应虚拟对象。在一些实施方案中,第一输入的终止对应于当第一用户停止提供手部移动和/或空中手势(例如,第一用户停止用他们的手执行空中捏合)时。在一些实施方案中,相应虚拟对象在三维环境中沿着与用户相对于三维环境的手部移动(例如,包括相对于三维环境的移动的方向、距离和/或速度)的路径相对应的移动路径移动。在一些实施方案中,导致第一虚拟对象的至少一部分与第二虚拟对象重叠的相应虚拟对象的移动对应于导致第一虚拟对象的至少一部分与第二虚拟对象重叠的第一虚拟对象在三维环境中的移动(例如,第一输入指向第一虚拟对象)。在一些实施方案中,导致第一虚拟对象的至少一部分与第二虚拟对象重叠的相应虚拟对象的移动对应于导致第一虚拟对象的至少一部分与第二虚拟对象重叠的第二虚拟对象在三维环境中的移动(例如,第一输入指向第二虚拟对象)。在一些实施方案中,相应虚拟对象的移动导致第一虚拟对象和第二虚拟对象的至少一部分被布置在三维环境中的相同位置处(例如,导致相对于三维环境的空间冲突)。在一些实施方案中,相应虚拟对象的移动导致第二虚拟对象在三维环境中比第一虚拟对象距用户的当前视点更远的距离(例如,导致相对于第一用户的当前视点的空间冲突)。在一些实施方案中,相应虚拟对象的移动导致第一虚拟对象在三维环境中比第二虚拟对象距用户的当前视点更远的距离(例如,导致相对于用户的当前视点的空间冲突)。由于导致相应虚拟对象的至少一部分与虚拟对象的重叠超过相对于用户的当前视点的阈值量的相应虚拟对象在三维环境中的移动而在三维环境中以更少的视觉突出性显示虚拟对象的一部分向用户提供相应虚拟对象的移动导致虚拟对象与相应虚拟对象之间的空间冲突的视觉反馈,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,并允许与相应虚拟对象继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,检测第一输入包括检测用户的当前视点从相对于三维环境的第一视点到相对于三维环境的第二视点的移动,其中用户的当前视点相对于三维环境的移动导致从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠,诸如图7M中由用户712的当前视点的移动引起的第一虚拟对象704c与第二虚拟对象704d之间的重叠。在一些实施方案中,用户的当前视点相对于三维环境的移动对应于用户的第一部分(例如,用户的头部和/或眼睛)相对于用户的物理环境的物理移动。例如,用户移动到用户的物理环境中的新位置,和/或将他们的第一部分旋转到不同的取向(例如,用户将他们的头部转到相对于物理环境的新取向)。在一些实施方案中,用户的当前视点相对于三维环境的移动对应于用户输入,该用户输入与独立于用户的物理移动而改变相对于三维环境的用户的当前视点的请求相对应(例如,用户输入是音频输入(例如,口头命令)、在与计算机系统通信的触敏表面上提供的触摸输入和/或通过与计算机系统通信的键盘和/或鼠标提供的键盘和/或鼠标输入)。在一些实施方案中,用户的当前视点相对于三维环境的移动导致用户的当前视点的视角和/或视角相对于第一虚拟对象和/或第二虚拟对象改变(例如,用户的当前视点的移动导致第一虚拟对象与用户的当前视点之间以及第二虚拟对象与用户的当前视点之间相对于三维环境的空间关系的改变)。在一些实施方案中,用户的当前视点相对于三维环境的移动导致第一虚拟对象和/或第二虚拟对象与用户的当前视点的位置的差异(例如,用户的当前视点的移动导致第一虚拟对象和/或第二虚拟对象从用户的第一视点到第二视点的位置之间的模拟视差)。在一些实施方案中,用户的当前视点相对于第一虚拟对象和/或第二虚拟对象从第一视点到第二视点的视角和/或视角的差异导致从用户的当前视点来看第一虚拟对象的至少第一部分与第二虚拟对象重叠。在一些实施方案中,用户的视点相对于三维环境从第一视点到第二视点的移动不会导致第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量。根据用户的视点的移动不会导致第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量,计算机系统放弃以第二视觉突出性显示相应虚拟对象的至少相应部分。由于导致相应虚拟对象的至少一部分与虚拟对象的重叠超过相对于用户的当前视点的阈值量的用户的当前视点相对于三维环境的移动而在三维环境中以更少的视觉突出性显示虚拟对象的一部分向用户提供其当前视点的移动导致虚拟对象与相应虚拟对象之间的空间冲突的视觉反馈,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,并允许与相应虚拟对象继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,根据确定第一虚拟对象与用户的当前视点之间的距离与第二虚拟对象与用户的当前视点之间的距离的差值是第一距离,阈值量是第一阈值量,诸如图7C中所示的重叠区域阈值714a和重叠角度阈值714b所示。在一些实施方案中,阈值量是重叠角度阈值(例如,距用户的当前视点的角距离),并且第一阈值量是相对于用户的当前视点的0.1、0.5、1、2、5、10、15、20、25、30、35、40或45度。在一些实施方案中,阈值量是重叠距离阈值,并且第一阈值量是第一虚拟对象和第二虚拟对象相对于第一用户的第一视点超过0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm、50cm或100cm的重叠。在一些实施方案中,第一虚拟对象与用户的当前视点之间的差异对应于第一虚拟对象与用户的当前视点之间的第一空间布置,并且第二虚拟对象与用户的当前视点之间的差异对应于第一虚拟对象与用户的当前视点之间的第二空间布置。在一些实施方案中,相对于用户的当前视点以第一空间布置显示第一虚拟对象包括从用户的当前视点在三维环境中的第一深度处显示第一虚拟对象。在一些实施方案中,相对于用户的当前视点以第二空间布置显示第二虚拟对象包括从用户的当前视点在三维环境中以不同于第一深度的第二深度显示第二虚拟对象。在一些实施方案中,根据第一虚拟对象的至少一部分与第二虚拟对象重叠超过第一阈值量,相应对象的相应部分以相对于三维环境的第二视觉突出性显示。在一些实施方案中,根据第一虚拟对象的至少一部分与第二虚拟对象重叠小于第一阈值量,相应对象的相应部分以相对于三维环境的第一视觉突出性显示。
在一些实施方案中,根据确定第一虚拟对象与用户的当前视点之间的距离与第二虚拟对象与用户的当前视点之间的距离的差值是不同于第一距离的第二距离,阈值量是不同于第一阈值量的第二阈值量,诸如图7L中所示的重叠区域阈值714a和重叠角度阈值714b所示。在一些实施方案中,阈值量是重叠角度阈值(例如,距用户的当前视点的角距离),并且第二阈值量是相对于用户的当前视点的0.1、0.5、1、2、5、10、15、20、25、30、35、40或45度。在一些实施方案中,阈值量是重叠距离阈值,并且第二阈值量是第一虚拟对象和第二虚拟对象相对于第一用户的第一视点超过0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm、50cm或100cm的重叠。在一些实施方案中,第一距离和第二距离对应于相对于三维环境中的第一方向(例如,在从用户的当前视点在三维环境中的深度方向上)的距离。在一些实施方案中,根据第一虚拟对象的至少一部分与第二虚拟对象重叠超过第二阈值量,相应对象的相应部分以相对于三维环境的第二视觉突出性显示。在一些实施方案中,根据第一虚拟对象的至少一部分与第二虚拟对象重叠小于第二阈值量,相应对象的相应部分以相对于三维环境的第一视觉突出性显示。基于三维环境中相应虚拟对象与虚拟对象之间的距离来改变相应虚拟对象与虚拟对象之间的重叠的阈值量(其被要求超过以在三维环境中以更少的视觉突出性显示虚拟对象的一部分)使得仅当相应虚拟对象与虚拟对象之间的重叠导致阻碍与相应虚拟对象的交互的空间冲突时才能够减小虚拟对象的视觉突出性,从而改善用户设备交互。
在一些实施方案中,根据第一距离大于第二距离,第一阈值量大于第二阈值量,诸如重叠区域阈值714a和重叠角度阈值714b(例如,图7C中所示)基于第一虚拟对象704a相对于用户712的当前视点与第二虚拟对象704相对于用户712的当前视点之间的距离的差值变得更大而更大。在一些实施方案中,第一距离大于第二距离对应于相对于三维环境中的第一方向的第一距离大于第二距离(例如,第一方向对应于三维环境中从用户的当前视点来看的深度方向)。例如,与第一虚拟对象和第二虚拟对象之间相对于三维环境中的第一方向的第二距离相比,第一虚拟对象与第二虚拟对象之间的第一距离对应于第一虚拟对象与第二虚拟对象之间相对于三维环境中的第一方向的更大距离。在一些实施方案中,第一阈值量和第二阈值量对应于第一虚拟对象与第二虚拟对象之间相对于用户的当前视点的角度重叠量,并且第一阈值量对应于与第二阈值量相比更大的角度。在一些实施方案中,第一阈值量和第二阈值量对应于第一虚拟对象与第二虚拟对象之间的重叠相对于用户的当前视点的距离,并且第一阈值量对应于与第二阈值量相比更大的距离。在一些实施方案中,根据第一距离大于第二距离,第一阈值量小于第二阈值量(例如,并且第一阈值量对应于小于第二阈值量的角度和/或距离)。
在一些实施方案中,根据第二距离大于第一距离,第二阈值量大于第一阈值量,诸如重叠区域阈值714a和重叠角度阈值714b(例如,图7C中所示)基于第一虚拟对象704a相对于用户712的当前视点与第二虚拟对象704相对于用户712的当前视点之间的距离的差值变得更大而更大。在一些实施方案中,第二距离大于第一距离对应于相对于三维环境中的第一方向的第二距离大于第一距离(例如,第一方向对应于三维环境中从用户的当前视点来看的深度方向)。例如,与第一虚拟对象和第二虚拟对象之间相对于三维环境中的第一方向的第一距离相比,第一虚拟对象与第二虚拟对象之间的第二距离对应于第一虚拟对象与第二虚拟对象之间相对于三维环境中的第一方向的更大距离。在一些实施方案中,第一阈值量和第二阈值量对应于第一虚拟对象与第二虚拟对象之间相对于用户的当前视点的角度重叠量,并且第二阈值量对应于与第一阈值量相比更大的角度。在一些实施方案中,第一阈值量和第二阈值量对应于第一虚拟对象与第二虚拟对象之间的重叠相对于用户的当前视点的距离,并且第二阈值量对应于与第一阈值量相比更大的距离。在一些实施方案中,根据第二距离大于第一距离,第二阈值量小于第一阈值量(例如,并且第一阈值量对应于大于第二阈值量的角度和/或距离)。当相应虚拟对象与虚拟对象之间的距离相对于三维环境较大时,增加相应虚拟对象与虚拟对象之间的重叠的阈值量(其被要求超过以在三维环境中以更少的视觉突出性显示虚拟对象的一部分)使得仅当相应虚拟对象与虚拟对象之间的重叠导致阻碍与相应虚拟对象的交互的空间冲突时才能够减小虚拟对象的视觉突出性,从而改善用户设备交互。
在一些实施方案中,以相对于三维环境的第一视觉突出性显示多个虚拟对象中的相应虚拟对象的相应部分包括以第一视觉特性的第一值显示相应虚拟对象的相应部分,诸如以图7A和图7A1中所示的亮度量显示第二虚拟对象704b。在一些实施方案中,以相对于三维环境的第二视觉突出性显示多个虚拟对象中的相应虚拟对象的相应部分包括以第一视觉特性的小于第一值的第二值显示相应虚拟对象的相应部分,诸如以图7C中所示的亮度量显示第二虚拟对象704b。在一些实施方案中,第一视觉特性是相应虚拟对象的相应部分的亮度、颜色、饱和度和/或不透明度。在一些实施方案中,与以第一视觉突出性显示相应虚拟对象的相应部分相比,以第二视觉突出性显示相应虚拟对象的相应部分包括相对于三维环境将亮度降低10%、25%、50%、75%、95%或100%。在一些实施方案中,以第一视觉突出性显示相应虚拟对象的相应部分包括以一种或多种第一颜色显示相应虚拟对象的相应部分,并且以第二视觉突出性显示相应虚拟对象的相应部分包括以一种或多种第二颜色(例如,单个颜色(例如,灰色))显示相应虚拟对象的相应部分。在一些实施方案中,与以第一视觉突出性显示相应虚拟对象的相应部分相比,以第二视觉突出性显示相应虚拟对象的相应部分包括相对于三维环境将相应虚拟对象的相应部分的不透明度降低10%、25%、50%、75%、95%或100%。在一些实施方案中,以第二视觉突出性显示相应虚拟对象的相应部分包括与以第一视觉突出性显示相应虚拟对象的相应部分相比,以减少量的清晰度显示相应虚拟对象的相应部分(例如,与以第一视觉突出性显示相应虚拟对象的相应部分相比,当以第二视觉突出性显示相应虚拟对象的相应部分时,以更大量的模糊显示相应虚拟对象的相应部分)。由于相应虚拟对象与虚拟对象之间的空间关系的改变(包括相应虚拟对象的至少一部分相对于用户的当前视点与虚拟对象重叠超过阈值量),在三维环境中以减小的视觉特性(例如,不透明度、饱和度和/或亮度)显示虚拟对象的一部分向用户提供空间关系的改变导致三维环境中的虚拟对象与相应虚拟对象之间的空间冲突的视觉反馈,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,并允许与相应虚拟对象继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,以相对于三维环境的第二视觉突出性显示相应虚拟对象的相应部分包括停止在三维环境中显示相应虚拟对象的相应部分的第一部分(例如,诸如图7D中停止显示的第一虚拟对象704a的部分),其中相应虚拟对象的相应部分的第一部分具有与第一虚拟对象的与第二虚拟对象重叠的至少一部分的相对尺寸相对应的相对尺寸。在一些实施方案中,第一虚拟对象显示在相对于用户的当前视点的与第二虚拟对象相比更近的距离处,并且相应虚拟对象是第一虚拟对象。在一些实施方案中,第一虚拟对象的相应部分的第一部分相对于用户的当前视点在视觉上遮挡第二虚拟对象的一部分(例如,从用户的当前视点来看,第二虚拟对象的该部分显示在第一虚拟对象的相应部分的第一部分后面)。在一些实施方案中,停止显示第一虚拟对象的相应部分的第一部分使得第二虚拟对象的该部分从用户的当前视点在三维环境中可见(例如,因为停止显示第一虚拟对象的相应部分的第一部分将第一虚拟对象的该部分从三维环境中移除,该部分从用户的当前视点在视觉上遮挡第二虚拟对象)。在一些实施方案中,第二虚拟对象显示在相对于用户的当前视点的与第一虚拟对象相比更近的距离处,并且相应虚拟对象是第二虚拟对象。在一些实施方案中,第二虚拟对象的相应部分的第一部分相对于用户的当前视点在视觉上遮挡第一虚拟对象的一部分(例如,从用户的当前视点来看,第一虚拟对象的该部分显示在第二虚拟对象的相应部分的第一部分后面)。在一些实施方案中,停止显示第二虚拟对象的相应部分的第一部分使得第一虚拟对象的该部分从用户的当前视点在三维环境中可见(例如,因为停止显示第二虚拟对象的相应部分的第一部分将第二虚拟对象的该部分从三维环境中移除,该部分从用户的当前视点在视觉上遮挡第一虚拟对象)。在一些实施方案中,根据包括第一虚拟对象与第二虚拟对象之间的重叠量的改变(例如,较大重叠量或较小重叠量)的第一虚拟对象和第二虚拟对象的空间关系的改变,计算机系统停止显示的相应虚拟对象的相应部分的第一部分的尺寸基于第一虚拟对象与第二虚拟对象之间的重叠的尺寸而改变(例如,如果空间布置的改变导致第一虚拟对象与第二虚拟对象之间的重叠增加,则计算机系统停止显示增大尺寸的相应虚拟对象的相应部分的第一部分,或者如果空间布置的改变导致第一虚拟对象与第二虚拟对象之间的重叠减少(例如,重叠的减少继续超过重叠的阈值量),则计算机系统停止显示减小尺寸的相应虚拟对象的相应部分的第一部分)。在一些实施方案中,根据与第一虚拟对象相对于第二虚拟对象的空间布置的改变相对应的第二输入,该改变导致第一虚拟对象的至少一部分与第二虚拟对象重叠不超过阈值量,在三维环境中重新显示相应虚拟对象的相应部分(例如,以第一视觉突出性)。在一些实施方案中,停止显示相应虚拟对象的相应部分的第一部分具有停止在三维环境中显示第二虚拟对象的至少一部分的第一部分的一个或多个特性,如参考方法900所描述的。由于相应虚拟对象与虚拟对象之间的空间关系的改变(包括相应虚拟对象的至少一部分相对于用户的当前视点与虚拟对象的该部分重叠),停止在三维环境中显示虚拟对象的一部分向用户提供空间关系的改变导致三维环境中的虚拟对象与相应虚拟对象之间的空间冲突的视觉反馈,向用户提供校正虚拟对象与相应虚拟对象之间的空间冲突的机会,并允许与相应虚拟对象继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,以相对于三维环境的第二视觉突出性显示相应虚拟对象的相应部分包括与以第一视觉突出性显示相应虚拟对象的相应部分的第二部分(例如,诸如图7D中所示的第一虚拟对象704a的部分718a)相比,以更大量的透明度显示相应虚拟对象的相应部分的第二部分,其中相应虚拟对象的相应部分的第二部分围绕相应虚拟对象的相应部分的第一部分。在一些实施方案中,与以第一视觉突出性显示相应虚拟对象的相应部分的第二部分相比,以更大量的透明度显示相应虚拟对象的相应部分的第二部分包括与以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第二部分的一个或多个特性,如参考方法900所描述的。在一些实施方案中,以第二视觉突出性显示相应虚拟对象的相应部分的第二部分包括与以第一视觉突出性显示相应虚拟对象的相应部分的第二部分相比,以高10%、20%、25%、30%、40%、50%、60%、70%、75%、80%、90%、95%或100%的透明度显示相应虚拟对象的相应部分的第二部分。在一些实施方案中,相应虚拟对象的相应部分的第二部分的不同区域以不同量的透明度显示。例如,与距相应虚拟对象的相应部分的第一部分较远距离处的相应虚拟对象的相应部分的第二部分的第二区域相比,与距相应虚拟对象的相应部分的第一部分较近距离处的相应虚拟对象的相应部分的第二部分的第一区域以更大量的透明度显示(例如,第二部分相对于三维环境的透明度的量从相应虚拟对象的第一部分的周边(例如,逐渐地)减小)。在一些实施方案中,相应虚拟对象的相应部分的第二部分看起来具有来自相应虚拟对象的相应部分的第一部分(例如,并且任选地来自第一虚拟对象或第二虚拟对象的从用户的当前视点在视觉上遮挡相应虚拟对象的相应部分的部分)的羽化效果。在相应虚拟对象的至少一部分相对于用户的当前视点与虚拟对象的第一部分重叠的同时,在三维环境中停止显示虚拟对象的第一部分并以增加的透明度显示虚拟对象的围绕第一部分的第二部分允许与相应虚拟对象继续交互而不管虚拟对象与相应虚拟对象之间的空间冲突,并且通过将原本将直接与相应虚拟对象的至少一部分相邻的与虚拟对象相关联的内容(例如,因为从用户的当前视点来看虚拟对象的第二部分围绕相应虚拟对象的至少一部分)显示为相对于用户的当前视点是透明的来改善继续交互,从而改善用户设备交互。
在一些实施方案中,以相对于三维环境的第二视觉突出性显示相应虚拟对象的相应部分包括:在第一虚拟对象是与第二虚拟对象重叠的活动虚拟对象(例如,诸如图7K中第一虚拟对象704a以第一量的视觉突出性显示)时,根据确定第一虚拟对象比第二虚拟对象更远离用户的视点(例如,诸如图7K中与第二虚拟对象704b相比,第一虚拟对象704a显示在三维环境702中更远离用户712的当前视点的位置处),停止在三维环境中显示第二虚拟对象的相应部分(例如,诸如计算机系统101停止显示图7K中的部分718b),并且根据确定第一虚拟对象比第二虚拟对象更靠近用户的视点(例如,诸如图7K中与第二虚拟对象704b相比,第一虚拟对象704a显示在三维环境702中更靠近用户712的当前视点的位置处),保持在三维环境中显示第二虚拟对象的相应部分(例如,诸如图7E中计算机系统101保持(例如,放弃停止)显示部分718b)。在一些实施方案中,活动虚拟对象对应于多个虚拟对象中的以相对于三维环境的第一视觉突出性显示的虚拟对象(例如,第一虚拟对象以第一视觉突出性显示并且第二虚拟对象以第二视觉突出性显示)。在一些实施方案中,第一虚拟对象与第二虚拟对象重叠超过阈值量。在一些实施方案中,用户的视点对应于用户的当前视点。在一些实施方案中,由于第一虚拟对象与第二虚拟对象之间的空间关系的改变(例如,第一虚拟对象被用户移动以与第二虚拟对象重叠超过阈值量),第一虚拟对象是活动虚拟对象。在一些实施方案中,第一虚拟对象与第二虚拟对象之间的空间关系的改变包括第一虚拟对象和/或第二虚拟对象相对于用户的视点在深度上的移动(例如,第一虚拟对象和/或第二虚拟对象被移动到更靠近三维环境中用户的当前视点或更远离三维环境中用户的视点的位置)。在一些实施方案中,根据确定从用户的当前视点来看第一虚拟对象与第二虚拟对象重叠不超过阈值量并且第一虚拟对象与第二虚拟对象相比处于距用户的视点更远的距离,计算机系统保持在三维环境中显示(例如,放弃停止显示)第二虚拟对象的相应部分(例如,因为第二虚拟对象以第一视觉突出性显示)。在一些实施方案中,保持显示第二虚拟对象的相应部分包括以与以第二视觉突出性显示第二虚拟对象相关联的不透明度、亮度、颜色、饱和度和/或清晰度的量(例如,根据第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量)在三维环境中显示第二虚拟对象的相应部分。当虚拟对象在三维环境中比相应虚拟对象更靠近用户的当前视点的距离处显示时,停止在三维环境中显示与相应虚拟对象在空间上冲突的虚拟对象的一部分允许与相应虚拟对象的继续交互而不管空间冲突(例如,因为从用户的当前视点来看视觉上遮挡相应虚拟对象的虚拟对象的一部分被移除),从而改善用户设备交互。
在一些实施方案中,响应于检测到第一输入,根据确定从用户的当前视点来看多个虚拟对象中的第三虚拟对象的第一部分与第一虚拟对象重叠超过阈值量(例如,诸如图7N中所示的第一虚拟对象704e与第三虚拟对象704g之间的重叠)以及(例如,同时)从用户的当前视点来看第三虚拟对象的第二部分与第二虚拟对象重叠超过阈值量(例如,诸如图7N中所示的第一虚拟对象704e与第二虚拟对象704f之间的重叠),计算机系统以第二视觉突出性显示多个虚拟对象中的第一相应虚拟对象的第一相应部分,诸如以第二量的视觉突出性显示第三虚拟对象704g,如图7N中所示,并且计算机系统以第二视觉突出性显示多个虚拟对象中的第二相应虚拟对象的第二相应部分,诸如以第二量的视觉突出性显示第二虚拟对象704f,如图7N中所示。在一些实施方案中,第三虚拟对象具有上述第一虚拟对象和/或第二虚拟对象的一个或多个特性(例如,参考步骤802)。在一些实施方案中,第一相应虚拟对象和第二相应虚拟对象具有上述相应虚拟对象的一个或多个特性(例如,参考步骤802)。第一相应虚拟对象任选地是第一虚拟对象、第二虚拟对象或第三虚拟对象(例如,如果第一输入指向第三虚拟对象,则第一相应虚拟对象是第一虚拟对象或第二虚拟对象,如果第一输入指向第二虚拟对象,则第一相应虚拟对象是第一虚拟对象或第三虚拟对象,或者如果第一输入指向第一虚拟对象,则第一相应虚拟对象是第二虚拟对象或第三虚拟对象)。第二相应虚拟对象任选地是第一虚拟对象、第二虚拟对象或第三虚拟对象(例如,如果第一输入指向第三虚拟对象,则第二相应虚拟对象是第一虚拟对象或第二虚拟对象,如果第一输入指向第二虚拟对象,则第二相应虚拟对象是第一虚拟对象或第三虚拟对象,或者如果第一输入指向第一虚拟对象,则第二相应虚拟对象是第二虚拟对象或第三虚拟对象)。在一些实施方案中,以第二视觉突出性显示第一相应虚拟对象的第一相应部分包括以第二视觉突出性显示相应虚拟对象的相应部分的一个或多个特性,如参考步骤802所描述的。在一些实施方案中,以第二视觉突出性显示第二相应虚拟对象的第二相应部分包括以第二视觉突出性显示相应虚拟对象的相应部分的一个或多个特性,如参考步骤802所描述的。在一些实施方案中,以第二视觉突出性显示第一相应虚拟对象的第一相应部分与以第二视觉突出性显示第二相应虚拟对象的第二相应部分无关。例如,以第二视觉突出性显示第一相应虚拟对象(例如,第一虚拟对象或第三虚拟对象)的相应部分是基于第三虚拟对象与第一虚拟对象之间的重叠(例如,而不是基于第三虚拟对象与第二虚拟对象之间的重叠)。例如,以第二视觉突出性显示第二相应虚拟对象(例如,第二虚拟对象或第三虚拟对象)的相应部分是基于第三虚拟对象与第二虚拟对象之间的重叠(例如,而不是基于第三虚拟对象与第一虚拟对象之间的重叠)。由于相应虚拟对象、第一虚拟对象和第二虚拟对象之间的空间关系的改变(包括相对于用户的当前视点相应虚拟对象的至少第一部分与第一虚拟对象重叠超过阈值量以及相应虚拟对象的至少第二部分与第二虚拟对象重叠超过阈值量),在三维环境中以更少的视觉突出性显示第一虚拟对象的第一部分和第二虚拟对象的第二部分向用户提供空间关系的改变导致三维环境中相应虚拟对象、第一虚拟对象和第二虚拟对象之间的空间冲突的视觉反馈,向用户提供校正空间冲突的机会,并允许与相应虚拟对象的继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,显示多个虚拟对象包括:根据确定第一虚拟对象是活动虚拟对象(例如,因为第一虚拟对象是诸如间接输入的用户输入的最近主体,其中在检测到诸如空中手势的选择输入或交互输入的同时用户的注意力指向第一虚拟对象,或者在对应于第一虚拟对象的位置处检测到直接空中手势),以第一视觉突出性显示第一虚拟对象(例如,基于第一虚拟对象与第二虚拟对象之间的重叠而被削弱的相应虚拟对象是第二虚拟对象),而不管第一虚拟对象是否与其他虚拟对象重叠,诸如由图7K中以第一量的视觉突出性显示第一虚拟对象704a所示。在一些实施方案中,在用户的注意力指向第一虚拟对象之后,第一虚拟对象是活动虚拟对象(例如,指向第一虚拟对象的注意力具有如参考步骤802所描述的指向第一虚拟对象的注意力的一个或多个特性)。例如,用户将注视和/或空中手势(例如,包括上文(例如,参考步骤802)所描述的一个或多个个空中手势)指向第一虚拟对象。在一些实施方案中,在第一虚拟对象以第一视觉突出性显示时,第二虚拟对象显示在三维环境中与第一虚拟对象相比距用户的当前视点更大距离的位置处。在一些实施方案中,在第一虚拟对象以第一视觉突出性显示时,第一虚拟对象显示在三维环境中与第二虚拟对象相比距用户的当前视点更大距离的位置处。
在一些实施方案中,根据确定第二虚拟对象是活动虚拟对象(例如,因为第二虚拟对象是诸如间接输入的用户输入的最近主体,其中在检测到诸如空中手势的选择输入或交互输入的同时用户的注意力指向第二虚拟对象,或者在对应于第二虚拟对象的位置处检测到直接空中手势),以第一视觉突出性显示第二虚拟对象(例如,基于第一虚拟对象与第二虚拟对象之间的重叠而被削弱的相应虚拟对象是第一虚拟对象),而不管第一虚拟对象是否与其他虚拟对象重叠,诸如由图7D中以第一量的视觉突出性显示第二虚拟对象704b所示。在一些实施方案中,在用户的注意力指向第二虚拟对象之后,第二虚拟对象是活动虚拟对象(例如,指向第二虚拟对象的注意力具有如参考步骤802所描述的指向第二虚拟对象的注意力的一个或多个特性)。例如,用户将注视和/或空中手势(例如,包括上文(例如,参考步骤802)所描述的一个或多个个空中手势)指向第二虚拟对象。在一些实施方案中,在第二虚拟对象以第一视觉突出性显示时,第一虚拟对象显示在三维环境中与第二虚拟对象相比距用户的当前视点更大距离的位置处。在一些实施方案中,在第二虚拟对象以第一视觉突出性显示时,第二虚拟对象显示在三维环境中与第一虚拟对象相比距用户的当前视点更大距离的位置处。
在一些实施方案中,根据确定第一虚拟对象不是活动虚拟对象(例如,因为除第一虚拟对象之外的虚拟对象是诸如间接输入的用户输入的最近主体,其中在检测到诸如空中手势的选择输入或交互输入的同时用户的注意力指向另一虚拟对象,或者在对应于另一虚拟对象的位置处检测到直接空中手势),第一虚拟对象以取决于第一虚拟对象是否与其他虚拟对象重叠(例如,从用户的视点来看)的视觉突出性的程度显示(例如,根据确定第一虚拟对象不与其他虚拟对象重叠,第一虚拟对象以第一视觉突出性显示,而根据确定第一虚拟对象与一个或多个其他虚拟对象重叠(例如,重叠超过阈值量),第一虚拟对象以更低程度的视觉突出性(例如,第二视觉突出性)显示)。
在一些实施方案中,根据确定第二虚拟对象不是活动虚拟对象(例如,因为除第二虚拟对象之外的虚拟对象是诸如间接输入的用户输入的最近主体,其中在检测到诸如空中手势的选择输入或交互输入的同时用户的注意力指向另一虚拟对象,或者在对应于另一虚拟对象的位置处检测到直接空中手势),第二虚拟对象以取决于第二虚拟对象是否与其他虚拟对象重叠(例如,从用户的视点来看)的视觉突出性的程度显示(例如,根据确定第二虚拟对象不与其他虚拟对象重叠,第二虚拟对象以第一视觉突出性显示,而根据确定第二虚拟对象与一个或多个其他虚拟对象重叠(例如,重叠超过阈值量),第二虚拟对象以更低程度的视觉突出性(例如,第二视觉突出性)显示)。
根据用户的注意力指向相应虚拟对象并且根据相应虚拟对象的至少一部分相对于用户的当前视点与虚拟对象重叠超过阈值量,在三维环境中以更少的视觉突出性显示虚拟对象的一部分向用户提供虚拟对象与相应虚拟对象之间存在空间冲突的视觉反馈,向用户提供校正空间冲突的机会,并允许与用户的注意力指向的相应虚拟对象的继续交互而不管空间冲突,从而避免交互中的错误并改善用户设备交互。
在一些实施方案中,在以第二视觉突出性显示相应虚拟对象时,计算机系统检测与将三维环境中的虚拟元素朝向与三维环境中的相应虚拟对象相关联的位置移动的请求相对应的第二输入,诸如对应于由图7S中的用户712发起的移动虚拟元素730a的请求的输入。在一些实施方案中,虚拟元素与三维环境中的多个虚拟对象中的不同于相应虚拟对象的虚拟对象相关联。例如,虚拟元素是与不同于相应虚拟对象的虚拟对象相关联的内容(例如,图像、文件、文档和/或文本)。在一些实施方案中,虚拟元素包括在不同于相应虚拟对象的虚拟对象中(例如,在检测到第二输入之前)。在一些实施方案中,虚拟元素独立于三维环境中显示的多个虚拟对象中的虚拟对象(例如,不与其相关联)。在一些实施方案中,虚拟元素是与应用程序(例如,网络浏览应用程序和/或图像、视频、文件和/或文档存储应用程序)相关联的内容。在一些实施方案中,相应虚拟对象以小于第一视觉突出性的第三视觉突出性显示。例如,与第一视觉突出性相比,第三视觉突出性包括更少的不透明度、颜色、饱和度、亮度和/或清晰度。在一些实施方案中,第二输入具有第一输入的一个或多个特性。例如,第二输入包括指向虚拟元素的空中手势(例如,包括上文和/或参考方法900所描述的一个或多个个空中手势)和/或计算机系统的用户的手相对于三维环境的移动(例如,同时保持与空中手势相关联的手部姿势)。
在一些实施方案中,在检测到第二输入时,计算机系统根据与第二输入相关联的移动在三维环境中移动虚拟元素,同时以第二视觉突出性显示相应虚拟对象,诸如图7S至图7T中所示的三维环境中虚拟元素730a的移动,同时以减少量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,虚拟元素在三维环境中的移动对应于计算机系统的用户的手相对于三维环境与第二输入相关联(例如,与包括在第二输入中的空中手势相关联)的移动。例如,虚拟元素在三维环境中的移动的方向、距离、幅度、速度和/或加速度对应于用户的手相对于三维环境的移动的方向、距离、幅度、速度和/或加速度。在一些实施方案中,以第二视觉突出性显示相应虚拟对象包括在虚拟元素在三维环境中移动时保持以第二视觉突出性显示相应虚拟对象(例如,在检测到第二输入时保持第二视觉突出性)。在根据用户输入在三维环境中移动虚拟元素的同时在三维环境中以减小的视觉突出性显示虚拟对象最大限度地减少来自用户在三维环境中正与之交互的虚拟元素的干扰,从而改善用户设备交互并避免交互中的错误。
在一些实施方案中,在将虚拟元素移动到与相应虚拟对象相关联的位置(例如,如图7U中的虚拟元素730a的位置所示)之后,计算机系统经由一个或多个输入设备检测第二输入的终止,诸如用户712停止提供与和在图7V中所示的三维环境702中移动虚拟元素730a的请求相对应的输入相关联的空中手势。在一些实施方案中,响应于检测到第二输入的终止,计算机系统将虚拟元素添加到三维环境中的相应虚拟对象,同时保持以第二视觉突出性显示相应虚拟对象的相应部分,诸如在图7V中计算机系统101将虚拟元素730a添加到第三虚拟对象704g,同时以减少量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,检测第二输入的终止包括检测用户停止执行与第二输入相关联的空中手势(例如,用户停止用他们的手执行空中捏合和/或停止执行手部移动)。在一些实施方案中,检测第二输入的终止包括检测虚拟元素相对于三维环境的位置保持阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒)。在一些实施方案中,将虚拟元素添加到三维环境中的相应虚拟对象包括在相应虚拟对象内显示虚拟元素(例如,从用户的当前视点来看,虚拟元素在相应虚拟对象内部可见)。在一些实施方案中,当检测到第二输入的终止时,计算机系统根据相应虚拟对象与相应虚拟对象的阈值距离(例如,0.01m、0.05m、0.1m、0.2m、0.5m或1m)来将虚拟元素添加到三维环境中的相应虚拟对象。在一些实施方案中,根据当检测到第二输入的终止时虚拟元素不在相应虚拟对象的阈值距离内,计算机系统放弃将虚拟元素添加到三维环境中的相应虚拟对象。在一些实施方案中,相应虚拟对象包括不同于虚拟元素的一个或多个相应虚拟元素,并且将虚拟元素添加到三维环境中的相应虚拟对象包括将相应虚拟对象与一个或多个相应虚拟元素和虚拟元素一起显示(例如,从用户的当前视点来看,一个或多个相应虚拟元素和虚拟元素都在相应虚拟对象内部可见)。在一些实施方案中,保持以第二视觉突出性显示相应虚拟对象包括在检测到第二输入之前和/或同时保持显示相应虚拟对象的不透明度、颜色、亮度、饱和度和/或清晰度的量。在将虚拟元素添加到相应虚拟对象的同时保持以减少量的视觉突出性显示相应虚拟对象避免当用户的意图在添加虚拟元素之后不继续与相应虚拟对象交互时以不必要量的视觉突出性显示相应虚拟对象,从而节省计算资源。
在一些实施方案中,在检测到第二输入时,根据确定虚拟元素在三维环境中的移动满足一个或多个第一标准,计算机系统以大于第二视觉突出性的第三视觉突出性显示相应虚拟对象的相应部分,诸如在图7W中计算机系统101响应于满足一个或多个标准而以增加量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,根据确定虚拟元素在三维环境中的移动不满足一个或多个第一标准,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分,诸如在图7V中计算机系统101以减少量的视觉突出性显示第三虚拟对象704g。在一些实施方案中,计算机系统将一个或多个第一标准存储在计算机系统的存储器中。在一些实施方案中,在检测到第二输入的同时确定虚拟元素在三维环境中的移动满足一个或多个第一标准之后(例如,在第二输入终止之后),计算机系统保持以第三视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分,直到满足一个或多个第一标准。在一些实施方案中,根据计算机系统检测到第二输入的终止并且不满足一个或多个第一标准,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,以第三视觉突出性显示相应虚拟对象的相应部分包括与以第二视觉突出性显示相应虚拟对象的相应部分相比,以更大量的不透明度、亮度、颜色、饱和度和/或清晰度显示相应虚拟对象的相应部分。在一些实施方案中,以第三视觉突出性显示相应虚拟对象包括在三维环境中显示(例如,重新显示)计算机系统在以第二视觉突出性显示相应虚拟对象时停止显示的相应虚拟对象的一部分。在一些实施方案中,保持以第二视觉突出性显示相应虚拟对象的相应部分包括如上所述保持以第二视觉突出性显示相应虚拟对象的相应部分的一个或多个特性。当基于满足一个或多个标准而在三维环境中移动虚拟元素时以增加量的视觉突出性显示相应虚拟对象使得相应虚拟对象能够以基于移动虚拟元素的用户是否意图与相应虚拟对象交互的视觉突出性的量来显示,从而改善用户设备交互并节省计算资源。
在一些实施方案中,一个或多个第一标准包括当虚拟元素在相应虚拟对象的阈值距离内(诸如图7W中虚拟元素730a在第三虚拟对象704g的阈值距离内)时满足的标准。在一些实施方案中,距三维环境中对应于相应虚拟对象的位置的阈值距离是0.01m、0.05m、0.1m、0.2m、0.5m或1m。在一些实施方案中,当虚拟元素从计算机系统的用户的当前视点来看在三维环境中相对于相应虚拟对象的一个或多个方向上在相应虚拟对象的阈值距离内时,满足该标准。例如,当虚拟元素从用户的当前视点来看在三维环境中的深度方向、水平方向和/或树脂方向上在对应于相应虚拟对象的位置的0.01m、0.05m、0.1m、0.2m、0.5m或1m内时,虚拟元素在阈值距离内。在一些实施方案中,阈值距离对应于虚拟元素距相应虚拟对象的捕捉距离。例如,根据在虚拟元素的移动期间(例如,在检测到第二输入时)虚拟元素在相应虚拟对象的阈值距离内,计算机系统将虚拟元素移动到与相应虚拟对象相关联的三维环境中的位置(例如,将虚拟元素添加到相应虚拟对象)。例如,根据当检测到第二输入的终止时虚拟元素在相应虚拟对象的阈值距离内,计算机系统将虚拟元素移动到三维环境中与相应虚拟对象相关联的位置(例如,将虚拟元素添加到相应虚拟对象)。在一些实施方案中,根据虚拟元素不在相应虚拟对象的阈值距离内,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。当基于虚拟元素在相应虚拟对象的阈值距离内而在三维环境中移动虚拟元素时以增加量的视觉突出性显示相应虚拟对象使得相应虚拟对象能够以基于移动虚拟元素的用户是否意图与相应虚拟对象交互的视觉突出性的量来显示,从而改善用户设备交互并节省计算资源。
在一些实施方案中,一个或多个第一标准包括当虚拟元素的移动小于阈值移动量(例如,持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))时满足的标准,诸如图7W中虚拟元素730a的移动小于阈值移动量。在一些实施方案中,阈值移动量对应于移动的距离和/或幅度(例如,0.001m、0.005m、0.01m、0.05m、0.1m、0.2m、0.5m或1m)。在一些实施方案中,阈值移动量对应于移动速度(例如,0.01m/s、0.02m/s、0.05m/s、0.1m/s、0.2m/s、0.5m/s或1m/s)。在一些实施方案中,当虚拟元素的移动小于阈值移动量时并且根据如上所述确定虚拟元素在相应虚拟对象的阈值距离内,满足该标准。例如,根据虚拟元素的移动小于阈值移动量并且虚拟元素不在相应虚拟对象的阈值距离内(例如,当检测到小于虚拟元素的阈值移动量时),计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,根据虚拟元素的移动小于阈值移动量,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。当基于虚拟元素具有小于阈值移动量(例如,在虚拟元素的移动期间)而在三维环境中移动虚拟元素时以增加量的视觉突出性显示相应虚拟对象使得相应虚拟对象能够以基于移动虚拟元素的用户是否意图与相应虚拟对象交互的视觉突出性的量来显示,从而改善用户设备交互并节省计算资源。
在一些实施方案中,一个或多个第一标准包括当虚拟元素在相应虚拟对象的阈值距离内超过阈值时间段(诸如图7W中虚拟元素730a在第三虚拟对象704g的阈值距离内超过阈值时间段)时满足的标准。在一些实施方案中,阈值距离具有如上所述的阈值距离的一个或多个特性。在一些实施方案中,阈值时间段是0.1、0.2、0.5、1、2、5或10秒。在一些实施方案中,当虚拟元素在相应虚拟对象的阈值距离内超过阈值时间段并且虚拟元素的移动小于如上所述的阈值移动量时,满足该标准。在一些实施方案中,根据虚拟元素不在相应虚拟对象的阈值距离内持续阈值时间段,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分(例如,虚拟元素不在阈值距离内或虚拟对象在相应虚拟对象的阈值距离内持续小于阈值时间段)。当基于虚拟元素在相应虚拟对象的阈值距离内超过阈值时间段而在三维环境中移动虚拟元素时以增加量的视觉突出性显示相应虚拟对象使得相应虚拟对象能够以基于移动虚拟元素的用户是否意图与相应虚拟对象交互的视觉突出性的量来显示,从而改善用户设备交互并节省计算资源。
在一些实施方案中,一个或多个第一标准包括当相应虚拟对象的第一部分从用户的当前视点在三维环境中可见时满足的标准,诸如图7S至图7V中从用户712的当前视点可见的第三虚拟对象704g的部分。在一些实施方案中,相应虚拟对象的第一部分具有相应虚拟对象的相应部分的一个或多个特性。在一些实施方案中,相应虚拟对象的第一部分对应于相应虚拟对象的未被多个虚拟对象中不同于相应虚拟对象的虚拟对象(例如,第一虚拟对象或第二虚拟对象)重叠的部分。在一些实施方案中,第一部分对应于相应虚拟对象的阈值量(例如,相应虚拟对象的表面的表面积的1%、2%、5%、10%、20%、25%、50%、75%或95%,或宽度为0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm或50cm的部分)。例如,根据从用户的当前视点在三维环境中可见的相应虚拟对象的一部分小于相应虚拟对象的阈值量,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。当在三维环境中移动虚拟元素时基于从移动虚拟元素的用户的视点在三维环境中可见的相应虚拟对象的一部分来以增加量的视觉突出性显示相应虚拟对象防止在移动虚拟元素时增加三维环境中用户不可能和/或不能与之交互的虚拟对象的视觉突出性,从而节省计算资源。
在一些实施方案中,在检测到第二输入时,计算机系统根据与第二输入相关联的移动在相应虚拟对象的阈值距离(例如,0.01m、0.05m、0.1m、0.2m、0.5m或1m)内移动虚拟元素,诸如在图7T中计算机系统101根据由用户712提供的输入移动虚拟元素730a。在一些实施方案中,根据确定虚拟元素在三维环境中的移动满足一个或多个第一标准,计算机系统101在以第三视觉突出性显示相应虚拟对象的相应部分之前将虚拟元素移动(例如,没有用于这样做的输入)到三维环境中的相应虚拟对象(例如,在小于相应虚拟对象的阈值距离的距离内),诸如计算机系统101将虚拟元素730移动到对应于图7U中的第三虚拟对象704g的位置,同时以减少量的视觉突出性显示第三虚拟对象704g(例如,在以增加量的视觉突出性显示第三虚拟对象704g之前,如图7W所示)。在一些实施方案中,在相应虚拟对象的阈值距离内移动虚拟元素包括虚拟元素在如上所述的相应虚拟对象的阈值距离内的一个或多个特性。在一些实施方案中,根据与第二输入相关联的移动来移动虚拟元素包括根据用户的手相对于三维环境的移动的方向、距离、幅度、速度和/或加速度来移动虚拟元素(例如,同时用手保持空中捏合形状)。例如,第二输入对应于包括朝向相应虚拟对象在三维环境中的位置的方向的手部移动的空中手势。在一些实施方案中,将虚拟元素移动到相应虚拟对象包括将三维环境中的虚拟元素移动到三维环境中与相应虚拟对象相关联的位置(例如,从用户的当前视点来看,该位置至少部分地在相应虚拟对象内)。例如,虚拟元素在三维环境中到相应虚拟对象的移动不基于与第二输入相关联的移动(例如,空中手势的手部移动)(例如,一旦虚拟元素在相应虚拟对象的阈值距离内移动,用户就不控制(例如,通过与第二输入相关联的移动)虚拟元素到相应虚拟对象的移动)。在一些实施方案中,根据虚拟元素在与相应虚拟对象相关联的位置处显示持续阈值时间段(例如,具有上述阈值时间段的一个或多个特性),计算机系统以第三视觉突出性显示相应虚拟对象的相应部分(例如,在将虚拟元素添加到相应虚拟对象之前)。在一些实施方案中,根据在虚拟元素显示在与相应虚拟对象相关联的位置处时计算机系统检测到的第二输入的终止,计算机系统将虚拟元素添加到相应虚拟对象(例如,将虚拟元素添加到相应虚拟对象包括如上所述在三维环境中将虚拟元素添加到相应虚拟对象的一个或多个特性)。在一些实施方案中,在将虚拟元素添加到三维环境中的相应虚拟对象之后,计算机系统保持以第二视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,计算机系统响应于虚拟元素被添加到相应虚拟对象(例如,在此之后),以第三视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,一个或多个第一标准包括上述标准中的一个或多个。在一些实施方案中,根据确定虚拟元素在三维环境中的移动不满足一个或多个第一标准,计算机系统放弃将虚拟元素移动到三维环境中的相应虚拟对象(例如,并保持以第二视觉突出性显示相应虚拟对象的相应部分)。在基于满足一个或多个标准将虚拟元素添加到三维环境中的相应虚拟对象之后增加相应虚拟对象的视觉突出性防止当用户的意图在添加虚拟元素之后不继续与相应虚拟对象交互时显示不必要量的视觉突出性,并向意图继续与相应虚拟对象交互的用户提供虚拟元素已被添加到相应虚拟对象的视觉反馈,从而改善用户设备交互并节省计算资源。
在一些实施方案中,在根据确定虚拟元素在三维环境中的移动满足一个或多个第一标准来以第三视觉突出性显示相应虚拟对象的相应部分的同时,计算机系统经由一个或多个输入设备检测第二输入的终止,诸如由用户712提供的用于在如图7V所示的三维环境702中移动虚拟元素730a的输入的终止。在一些实施方案中,检测第二输入的终止包括如上所述的检测第二输入的终止的一个或多个特性。在一些实施方案中,响应于检测到第二输入的终止,根据虚拟元素处于三维环境中远离相应虚拟对象的位置处(例如,诸如图7X中所示的虚拟元素730a的位置),计算机系统保持以第三视觉突出性显示相应虚拟对象的相应部分,诸如在图7X中计算机系统101保持以增加量的视觉突出性显示第三虚拟对象704g,同时虚拟元素730a远离第三虚拟对象704g显示。在一些实施方案中,处于三维环境中远离相应虚拟对象的位置处的虚拟元素对应于未根据第二输入添加到相应虚拟对象的虚拟元素。例如,虚拟元素不显示在相应虚拟对象内(例如,根据虚拟元素的移动或响应于检测到第二输入的终止)。在一些实施方案中,处于三维环境中远离相应虚拟对象的位置处的虚拟元素对应于在检测到第二输入的终止时不在相应虚拟对象的阈值距离内的虚拟元素(例如,如上所述)。例如,虚拟元素根据第二输入的移动不会导致相应虚拟对象在检测到第二输入的终止之前在阈值距离内移动。例如,虚拟元素在检测到第二输入时在阈值距离内移动,但在检测到第二输入的终止之前远离阈值距离移动(例如,使得当检测到第二输入的终止时虚拟元素不在相应虚拟对象的阈值距离内)。在一些实施方案中,响应于检测到第二输入的终止,根据虚拟元素处于三维环境中在相应虚拟对象内(例如,或在相应虚拟对象的阈值距离内)的位置处,计算机系统保持以第三视觉突出性显示相应虚拟对象的相应部分。在一些实施方案中,响应于检测到第二输入的终止,根据虚拟元素处于三维环境中在相应虚拟对象内的位置处,计算机系统保持以第三视觉突出性相应虚拟对象的相应部分(例如,并且虚拟元素被任选地添加到相应虚拟对象)。响应于导致虚拟元素在三维环境中朝向满足一个或多个标准的虚拟对象移动的用户输入而增加虚拟对象在三维环境中的视觉突出性,并且在检测到用户输入的终止之后并且在虚拟元素远离虚拟对象时保持以增加的视觉突出性显示虚拟对象确保当基于虚拟元素的移动确定用户意图与虚拟对象交互时用户可与相应虚拟对象交互,从而改善用户设备交互。
应当理解,对方法800中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图9是示出根据一些实施方案的基于第一虚拟对象相对于第二虚拟对象在三维环境中的空间位置的改变来改变相应虚拟对象的视觉突出性的示例性方法900的流程图。在一些实施方案中,方法900在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法900通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法900中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法900在与一个或多个输入设备和显示生成部件通信(例如,包括和/或通信链接)的计算机系统处执行:在一些实施方案中,计算机系统具有参考方法800、1100、1300和/或1500所描述的计算机系统的特性中的一个或多个特性。在一些实施方案中,输入设备具有参考方法800、1100、1300和/或1500所描述的输入设备的特性中的一个或多个特性。在一些实施方案中,显示生成部件具有参考方法800、1100、1300和/或1500所描述的显示生成部件的特性中的一个或多个特性。
在一些实施方案中,计算机系统经由显示生成部件在三维环境中显示(902a)第一虚拟对象和第二虚拟对象(例如,诸如图7A和图7A1中在三维环境702中显示的第一虚拟对象704a和第二虚拟对象704b),其中三维环境从计算机系统的用户的当前视点可见,第二虚拟对象具有相对于三维环境的第一视觉突出性(例如,诸如图7A和图7A1中以第一量的视觉突出性显示的第二虚拟对象704b),并且第二虚拟对象在空间上不与第一虚拟对象冲突(例如,诸如图7A和图7A1中在空间上不冲突的第一虚拟对象704a和第二虚拟对象704b)。在一些实施方案中,三维环境包括参考方法800所描述的三维环境的一个或多个特性,和/或参考方法1100、1300和/或1500所描述的三维和/或虚拟环境的一个或多个特性。在一些实施方案中,第一虚拟对象和/或第二虚拟对象包括参考方法800所描述的第一虚拟对象和/或第二虚拟对象的一个或多个特性。在一些实施方案中,第一虚拟对象和第二虚拟对象相对于三维环境包括在用户的视场中。在一些实施方案中,以第一视觉突出性显示第二虚拟对象包括如参考方法800所描述的以第一视觉突出性显示第一虚拟对象和/或第二虚拟对象的一个或多个特性。在一些实施方案中,第一虚拟对象和第二虚拟对象同时以第一视觉突出性显示。在一些实施方案中,第一虚拟对象和第二虚拟对象相对于用户的当前视点不显示为具有重叠部分(例如,相对于用户的当前视点,第一虚拟对象不在视觉上遮挡第二虚拟对象,并且第二虚拟对象不在视觉上遮挡第一虚拟对象)。在一些实施方案中,第一虚拟对象和第二虚拟对象在三维环境中以第一空间关系显示(例如,包括参考方法800所描述的第一虚拟对象与第二虚拟对象之间的第一空间关系的一个或多个特性)。
在一些实施方案中,在三维环境中显示第一虚拟对象和第二虚拟对象的同时,计算机系统经由一个或多个输入设备检测(902b)与将第一虚拟对象在三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入,诸如参考图7A和图7A1所示和所述的输入。在一些实施方案中,第一输入对应于如参考方法800所描述的改变第一虚拟对象与第二虚拟对象之间的空间关系的请求。在一些实施方案中,移动第一虚拟对象包括改变第一虚拟对象相对于用户的当前视点的位置和/或取向(例如,角度位置)。在一些实施方案中,第一输入包括用户将注意力指向第一虚拟对象(例如,任选地持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))。在一些实施方案中,在将注意力指向第一虚拟对象时,用户执行空中手势(例如,空中轻击、空中捏合、空中拖动和/或空中长捏合(例如,持续一定时间段(例如,0.1、0.5、1、2、5或10秒)的空中捏合))以便选择第一虚拟对象。用户任选地在并发地执行上述空中手势的同时执行手部移动(例如,在处于空中捏合手势形状的同时在相对于三维环境的方向上(例如,朝向三维环境中的第二位置)移动他们的手,用户期望将第一虚拟对象移动到该方向)。在一些实施方案中,第一输入包括触敏显示器上的触摸输入、通过键盘和/或鼠标提供的输入、或如参考方法800中的第一输入所描述的音频输入。
在一些实施方案中,响应于接收到第一输入,计算机系统将第一虚拟对象从三维环境中的第一位置移动(902c)到第二位置,诸如图7A至图7C和/或图7E至图7K中所示的第一虚拟对象704a的移动。在一些实施方案中,第一位置是三维环境中与第二位置相比包括三维环境中距用户的当前视点的位置更小距离的位置(例如,响应于接收到第一输入,第一虚拟对象相对于用户的当前视点在深度上移动得更远)。在一些实施方案中,第一位置是三维环境中与第二位置相比包括三维环境中距用户的当前视点的位置更大距离的位置(例如,响应于接收到第一输入,第一虚拟对象相对于用户的当前视点在深度上移动得更近)。在一些实施方案中,第二虚拟对象显示在三维环境中相对于用户的当前视点的深度在第一位置的深度与第二位置的深度之间的位置处。在一些实施方案中,如果计算机系统未接收到第一输入,则计算机系统将第一虚拟对象保持在三维环境中的第一位置处。
在一些实施方案中,将第一虚拟对象从第一位置移动到第二位置包括:当第二虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少一部分冲突时(902d),诸如在图7E至图7K中所示的第一虚拟对象704a的移动期间第一虚拟对象704a与第二虚拟对象704b之间的空间冲突,将第二虚拟对象的至少一部分的视觉突出性相对于三维环境从第一视觉突出性减小到小于第一视觉突出性的第二视觉突出性(902e),诸如图7E至图7K中所示的第二虚拟对象704b的第二量的视觉突出性所示,以及基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变(902f),诸如图7F至图7I中第二虚拟对象704b的部分718b的改变,改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性。
在一些实施方案中,对于第一虚拟对象从第一位置到第二位置的移动的一部分,第二虚拟对象相对于用户的当前视点在空间上不与第一虚拟对象的至少一部分冲突(例如,在第一虚拟对象从第一位置到第二位置的移动的整个持续时间期间,第一虚拟对象的至少一部分在空间上不与第二虚拟对象冲突)。在一些实施方案中,第二虚拟对象在空间上与第一虚拟对象的至少一部分冲突至少阈值量(例如,包括如参考方法800所描述的重叠的阈值量的一个或多个特性)。在一些实施方案中,第二虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少一部分冲突包括第二虚拟对象相对于三维环境在空间上与第一虚拟对象冲突(例如,第一虚拟对象从第一位置到第二位置的移动导致第一虚拟对象在三维环境中在空间上与第二虚拟对象的位置、面积和/或体积相交)。在一些实施方案中,第二虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少一部分冲突不包括第二虚拟对象相对于三维环境在空间上与第一虚拟对象冲突(例如,第一虚拟对象从第一位置到第二位置的移动不导致第一虚拟对象在三维环境中在空间上与第二虚拟对象的位置、面积和/或体积相交)。
在一些实施方案中,将第二虚拟对象的至少一部分的视觉突出性减小到第二视觉突出性包括如参考方法800所描述的以第二视觉突出性显示第二虚拟对象的第一部分的一个或多个特性(例如,与第一视觉突出性相比,以小于100%的不透明度显示第二虚拟对象的至少一部分,和/或以更高的透明度、更低的亮度、更低的清晰度和/或更少的颜色显示第二虚拟对象的至少一部分)。在一些实施方案中,以第二视觉突出性显示的第二虚拟对象的至少一部分包括相对于用户的当前视点在第一虚拟对象的至少一部分的周边的阈值距离(例如,0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm或50cm)内的第二虚拟对象的一部分(例如,以第二视觉突出性显示的第二虚拟对象的至少一部分以相对于用户的当前视点从第一虚拟对象的至少一部分的羽毛外观显示)。在一些实施方案中,以第二视觉突出性显示的第二虚拟对象的至少一部分是和/或包括第二虚拟对象的相对于用户的当前视点在视觉上遮挡第一虚拟对象的至少一部分的部分。在一些实施方案中,被第二虚拟对象在视觉上遮挡的第一虚拟对象的至少一部分相对于用户的当前视点是可见的(例如,因为第二虚拟对象的至少一部分的视觉突出性被减小)。在一些实施方案中,以第二视觉突出性显示的第二虚拟对象的至少一部分不包括在空间上不与第一虚拟对象的至少一部分冲突的第二虚拟对象的整个部分(例如,以第一视觉突出性显示的第二虚拟对象的一部分与以第二视觉突出性显示的第二虚拟对象的一部分同时显示)。在一些实施方案中,以第二视觉突出性显示的第二虚拟对象的至少一部分是第二虚拟对象的在空间上不与第一虚拟对象的至少一部分冲突的整个部分。在一些实施方案中,计算机系统在以第二视觉突出性显示第二虚拟对象的至少一部分时(例如,并且在第一虚拟对象从第一位置移动到第二位置时),保持以第一视觉突出性显示第一虚拟对象。
在一些实施方案中,改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性包括改变第二虚拟对象的至少一部分相对于三维环境的第二视觉突出性的量值。例如,基于在第一虚拟对象从第一位置移动到第二位置期间第一虚拟对象相对于第二虚拟对象的空间位置(例如,距离和/或取向),以不同量(例如,基于对应视觉效果的百分比)的不透明度、透明度、清晰度、亮度和/或颜色显示第二虚拟对象的至少一部分。例如,当计算机系统接收到第一输入时,第一虚拟对象以第一视觉突出性显示,并且第一虚拟对象从第一位置到第二位置的移动包括第一虚拟对象与第二虚拟对象的位置相交(例如,相对于三维环境在空间上)(例如,第二虚拟对象的位置包括相对于用户的当前视点的第一位置与第二位置之间的空间位置)。随着第一虚拟对象与第二虚拟对象在三维环境中的位置相交,第二虚拟对象的至少一部分的第二视觉突出性的量值任选地减小(例如,与以减小量值的第二视觉突出性显示第二虚拟对象的至少一部分相比,第二虚拟对象的至少一部分任选地以更小的不透明度、更大的透明度、更小的亮度、更小的清晰度和/或更少的颜色显示)。在一些实施方案中,随着第一虚拟对象在空间位置上(例如,在距离和/或取向上)从第二虚拟对象向第二位置移动得更远,第二虚拟对象的至少一部分的第二视觉突出性的量值任选地增加(例如,与以减小量值的第二视觉突出性显示第二虚拟对象的至少一部分相比,第二虚拟对象的至少一部分任选地以更大的不透明度、更小的透明度、更大的亮度、更大的清晰度和/或更多的颜色显示)。在一些实施方案中,如果第一虚拟对象相对于用户的当前视点在空间位置上(例如,在距离和/或取向上)相对于第二虚拟对象移动得更近,则第二虚拟对象的至少一部分以减小量值的第二视觉突出性显示(例如,与虚拟对象相对于用户的当前视点在空间位置上(例如,在距离和/或取向上)相对于第二虚拟对象移动得更远相比)。在一些实施方案中,随着第一虚拟对象相对于用户的当前视点在空间位置上(例如,在距离和/或取向上)相对于第二虚拟对象移动得更远,第二虚拟对象的至少一部分以更大量值的第二视觉突出性显示。基于虚拟对象相对于三维环境中相应虚拟对象的空间位置来改变三维环境中相应虚拟对象的一部分的视觉突出性向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,基于第一虚拟对象相对于第二虚拟对象的空间位置来改变第二虚拟对象的至少一部分的视觉突出性包括基于第一虚拟对象相对于用户的当前视点的深度的改变来改变第二虚拟对象的至少一部分的视觉突出性,诸如图7F至图7I中所示的基于第一虚拟对象704a相对于用户712的当前视点的深度的改变的部分718b的改变所示。在一些实施方案中,第一虚拟对象在三维环境中从第一位置到第二位置的移动包括改变第一虚拟对象相对于用户的当前视点的深度。例如,第一位置是三维环境中距用户的当前视点的第一距离,并且第二位置是三维环境中距用户的当前视点的不同于第一距离的第二距离。在一些实施方案中,第一距离大于第二距离。在一些实施方案中,第二距离大于第一距离。在一些实施方案中,第二虚拟对象的至少一部分的第二视觉突出性的量值基于第一虚拟对象相对于用户的当前视点的深度的改变而改变。例如,在三维环境中距用户的当前视点的第一距离处,第二虚拟对象的至少一部分以第一量的不透明度、透明度、清晰度、亮度和/或颜色显示,并且在三维环境中距用户的当前视点的第二距离处,第二虚拟对象的至少一部分以不同于第一量的第二量的不透明度、透明度、清晰度、亮度和/或颜色显示。在一些实施方案中,计算机系统基于第一虚拟对象相对于用户的当前视点的深度相对于第二虚拟对象相对于用户的当前视点的深度来改变第二虚拟对象的至少一部分的视觉突出性。例如,根据第二虚拟对象在三维环境中相对于三维环境中用户的当前视点处于第一距离处的位置,计算机系统根据第一虚拟对象相对于用户的当前视点的相应距离在第一距离的阈值量(例如,0.1m、0.5m、1m、2m、5m或10m)内来改变第二虚拟对象的至少一部分的视觉突出性。在一些实施方案中,根据第一虚拟对象相对于用户的当前视点的相应距离在第一距离的阈值量内来改变第二虚拟对象的至少一部分的视觉突出性包括基于在第一虚拟对象的移动期间第一距离与第一虚拟对象相对于用户的当前视点的相应距离之间的差值来改变第二虚拟对象的至少一部分的第二视觉突出性的量值。例如,在第一虚拟对象的移动期间,第一虚拟对象从三维环境中相对于用户的当前视点的第二距离移动到三维环境中相对于用户的当前视点的第三距离。在一些实施方案中,根据第二距离与第一距离相差第一量以及第三距离与第一距离相差小于第一量的第二量,当第二虚拟对象在三维环境中相对于用户的当前视点处于第三距离处时,与在三维环境中相对于用户的当前视点处于第二距离处相比,第二虚拟对象的至少一部分以更大量值的第二视觉突出性显示。在一些实施方案中,根据在第一虚拟对象的移动期间第一虚拟对象相对于用户的当前视点处于第一距离处,第二虚拟对象的至少一部分以最大量值的第二视觉突出性显示。基于虚拟对象相对于三维环境中相应虚拟对象的深度的改变来改变三维环境中相应虚拟对象的一部分的视觉突出性向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分的第二视觉突出性的量值,诸如在图7F至图7I中所示的第一虚拟对象704a的移动期间第二虚拟对象704b的部分718b的尺寸和/或透明度的改变。在一些实施方案中,改变第二虚拟对象的至少一部分的第二视觉突出性的量值包括在第一虚拟对象在三维环境中的移动期间改变第二虚拟对象的至少一部分的不透明度、透明度、清晰度、亮度和/或颜色的改变量。在一些实施方案中,根据在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置与第一虚拟对象相对于第二虚拟对象的第一距离相对应,第二虚拟对象的至少一部分以第一量值的第二视觉突出性显示。在一些实施方案中,根据在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置与第一虚拟对象相对于第二虚拟对象的不同于第一距离的第二距离相对应,第二虚拟对象的至少一部分以不同于第一量值的第二量值的第二视觉突出性显示。在一些实施方案中,根据第一距离大于第二距离,与当第一虚拟对象相对于第二虚拟对象处于第一距离处时相比,当第一虚拟对象相对于第二虚拟对象处于第二距离处时,第二虚拟对象的至少一部分以更大量值的第二视觉突出性显示(例如,在第一虚拟对象在三维环境中的移动期间三维环境中的第一虚拟对象越靠近第二虚拟对象,显示第二虚拟对象的至少一部分的第二视觉突出性的量值越大)。在一些实施方案中,随着第一虚拟对象朝向三维环境中对应于第二虚拟对象的位置移动,计算机系统增加第二虚拟对象的至少一部分的第二视觉突出性的量值。在一些实施方案中,随着第一虚拟对象远离三维环境中对应于第二虚拟对象的位置移动,计算机系统减小第二虚拟对象的至少一部分的第二视觉突出性的量值。基于虚拟对象相对于三维环境中相应虚拟对象的空间位置来改变三维环境中相应虚拟对象的一部分的视觉突出性的量值向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括改变以相对于三维环境的减小的视觉突出性显示的第二虚拟对象的至少一部分的尺寸,诸如在图7F至图7I中所示的第一虚拟对象704a的移动期间第二虚拟对象704b的部分718b的尺寸的改变。在一些实施方案中,改变以相对于三维环境的减小的视觉突出性显示的第二虚拟对象的至少一部分的尺寸包括在第一虚拟对象在三维环境中的移动期间改变以不同量的不透明度、透明度、清晰度、亮度和/或颜色显示的第二虚拟对象的区域。在一些实施方案中,根据在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象具有第一距离,第二虚拟对象的至少一部分相对于三维环境具有第一尺寸。在一些实施方案中,根据在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象具有不同于第一距离的第二距离,第二虚拟对象的至少一部分相对于三维环境具有不同于第一尺寸的第二尺寸。在一些实施方案中,根据第一距离大于第二距离,第二虚拟对象的至少一部分的第二尺寸大于第二虚拟对象的至少一部分的第一尺寸。在一些实施方案中,根据第一虚拟对象在三维环境中在空间上与第二虚拟对象冲突(例如,在第一虚拟对象在三维环境中的移动期间第一虚拟对象的位置对应于第二虚拟对象在三维环境中的位置),第二虚拟对象的至少一部分包括最大尺寸(例如,第二虚拟对象的至少一部分包括第二视觉突出性的最大量值)。在一些实施方案中,随着第一虚拟对象朝向三维环境中对应于第二虚拟对象的位置移动,第二虚拟对象的至少一部分的尺寸相对于三维环境增加。在一些实施方案中,随着第一虚拟对象远离三维环境中对应于第二虚拟对象的位置移动,第二虚拟对象的至少一部分的尺寸相对于三维环境减小。基于虚拟对象相对于三维环境中相应虚拟对象的空间位置来改变三维环境中以减小的视觉突出性显示的相应虚拟对象的一部分的尺寸向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,在接收第一输入的同时以相对于三维环境小于第一视觉突出性的第三视觉突出性显示第二虚拟对象的至少一部分时,计算机系统检测第一输入的终止,诸如检测用户712停止提供与第一虚拟对象704a的移动相对应的输入,如图7K所示。在一些实施方案中,第三视觉突出性对应于第二视觉突出性的更大量值。例如,以第三视觉突出性显示第二虚拟对象的至少一部分包括与以第二视觉突出性显示第二虚拟对象的至少一部分相比,以减小量的不透明度、清晰度、亮度和/或颜色和/或增加量的透明度显示第二虚拟对象的至少一部分。在一些实施方案中,第一输入的终止对应于用户停止提供空中手势(例如,包括参考步骤902所描述的空中手势的一个或多个特性)。例如,用户停止执行空中捏合。在一些实施方案中,第一输入的终止对应于用户停止提供相对于三维环境的手部移动(例如,在执行空中手势时)。在一些实施方案中,第一输入的终止对应于用户的注意力不再指向第一虚拟对象(例如,注视指向三维环境中不对应于第一虚拟对象的不同位置)。
在一些实施方案中,响应于检测到第一输入的终止,计算机系统将第二虚拟对象的至少一部分相对于三维环境的视觉突出性减小到小于第三视觉突出性的视觉突出性,诸如与图7I相比,图7K中的第二虚拟对象704b的部分718b的尺寸和/或透明度的改变。在一些实施方案中,以小于第三视觉突出性的视觉突出性显示第二虚拟对象的至少一部分包括与以第二视觉突出性和/或第一视觉突出性显示第二虚拟对象的至少一部分相比,以更大量的透明度显示第二虚拟对象的至少一部分。在一些实施方案中,以小于第三视觉突出性的视觉突出性显示第二虚拟对象的至少一部分包括与以第二视觉突出性和/或第一视觉突出性显示第二虚拟对象的至少一部分相比,以减小量的不透明度、清晰度、亮度和/或颜色显示第二虚拟对象的至少一部分。在一些实施方案中,以小于第三视觉突出性的视觉突出性显示第二虚拟对象的至少一部分包括与第二视觉突出性和第三视觉突出性相比,以更大尺寸显示第二虚拟对象的至少一部分。在一些实施方案中,相对于三维环境小于第三视觉突出性的视觉突出性对应于第二视觉突出性的最大量值(例如,第二虚拟对象的至少一部分以最大尺寸和/或以最大量的透明度和/或以最小量的不透明度、清晰度、亮度和/或颜色显示)。在三维环境中相对于相应虚拟对象移动虚拟对象之后改变三维环境中相应虚拟对象的一部分的视觉突出性防止显示基于由虚拟对象在三维环境中的移动引起的空间冲突而原本对用户不可见的内容,并允许与虚拟对象的继续交互而不管空间冲突,从而节省计算资源、减少交互中的错误并改善用户设备交互。
在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括在第一虚拟对象的移动期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,减小第二虚拟对象的至少一部分的视觉突出性,诸如随着第一虚拟对象704a移动到相对于用户712的当前视点的更大距离,增加第二虚拟对象704b的部分718b的尺寸,如图7F至图7G所示。在一些实施方案中,三维环境中的第一位置是相对于三维环境中的用户的当前视点的第一距离,并且三维环境中的第二位置是相对于三维环境中的用户的当前视点的大于第一距离的第二距离(例如,将第一虚拟对象从第一位置移动到第二位置对应于将第一虚拟对象移动到相对于用户的当前视点的更大距离)。在一些实施方案中,第一虚拟对象从第一位置到第二位置的移动包括在三维环境中将第一虚拟对象朝向第二虚拟对象的位置移动的同时增加第一虚拟对象距用户的当前视点的距离(例如,在第一虚拟对象的移动期间,与第一虚拟对象相比,第二虚拟对象位于相对于用户的当前视点的更大距离处)。例如,随着第一虚拟对象从第一位置移动到第二位置,第一虚拟对象相对于用户的当前视点的相应距离在值上变得与第二虚拟对象相对于用户的当前视点的距离更相似。在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的相应距离与第二虚拟对象相对于用户的当前视点的距离在值上变得更相似,第二虚拟对象的至少一部分的视觉突出性任选地减小更大的量(例如,随着第一虚拟对象相对于用户的当前视点在深度上移动到更靠近第二虚拟对象,第二虚拟对象的至少一部分的视觉突出性减小更大的量)。根据第一虚拟对象在空间上与第二虚拟对象冲突(例如,在三维环境中占据与第二虚拟对象相同的位置),第二虚拟对象的至少一部分的视觉突出性任选地减小最大量。在一些实施方案中,随着第一虚拟对象相对于用户的当前视点在第二虚拟对象的阈值距离内(例如,在第二虚拟对象的0.1m、0.5m、1m、2m、5m或10m内)移动,计算机系统减小视觉突出性。在一些实施方案中,一旦第一虚拟对象在第二虚拟对象的阈值距离内(例如,在第二虚拟对象的阈值距离内移动之后),计算机系统就开始减小第二虚拟对象的至少一部分的视觉突出性。例如,在第一虚拟对象相对于用户的当前视点在第二虚拟对象的阈值距离内之后,随着第一虚拟对象从用户的当前视点朝向第二虚拟对象的位置移动得更远,第一计算机系统增加第二虚拟对象的至少一部分的透明度和/或尺寸。在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括在第一虚拟对象的移动期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离减小,增加第二虚拟对象的至少一部分的视觉突出性。例如,第一虚拟对象从第一位置到第二位置的移动包括减小第一虚拟对象相对于用户的当前视点的距离,同时将第一虚拟对象远离第二虚拟对象在三维环境中的位置移动。在一些实施方案中,随着第一虚拟对象远离第二虚拟对象的位置朝向对应于用户的当前视点的位置移动,第二虚拟对象的至少一部分的透明度相对于三维环境降低(例如,和/或第二虚拟对象的至少一部分的不透明度、清晰度、亮度和/或颜色增加)。在一些实施方案中,随着第一虚拟对象远离第二虚拟对象的位置朝向对应于用户的当前视点的位置移动,第二虚拟对象的至少一部分的尺寸相对于三维环境减小。在将虚拟对象从用户的当前视点移动到更大距离的同时减小三维环境中相应虚拟对象的一部分的视觉突出性向用户提供将虚拟对象移动到三维环境中的更大距离导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括在第一虚拟对象的移动期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,增加第二虚拟对象的至少一部分的视觉突出性,诸如在第一虚拟对象704b移动到相对于用户712的当前视点的更大距离的同时,减小部分718b的尺寸,如图7H至图7I所示。在一些实施方案中,第一虚拟对象从第一位置到第二位置的移动包括在三维环境中将第一虚拟对象远离第二虚拟对象的位置移动的同时增加第一虚拟对象距用户的当前视点的距离(例如,在第一虚拟对象的移动期间,与第二虚拟对象相对于用户的当前视点的距离相比,第一虚拟对象位于相对于用户的当前视点的更大距离处)。例如,随着第一虚拟对象从第一位置移动到第二位置,第一虚拟对象相对于用户的当前视点的相应距离在值上变得与第二虚拟对象相对于用户的当前视点的距离更不同。在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的相应距离在值上变得更不同,第二虚拟对象的至少一部分任选地增加更大的量(例如,随着第一虚拟对象相对于用户的当前视点在深度上移动到更远离第二虚拟对象,第二虚拟对象的至少一部分的视觉突出性增加更大的量)。在一些实施方案中,随着第一虚拟对象相对于用户的当前视点在第二虚拟对象的阈值距离内(例如,在第二虚拟对象的0.1m、0.5m、1m、2m或10m内)移动,计算机系统增加第二虚拟对象的至少一部分的视觉突出性。在一些实施方案中,计算机系统增加第二虚拟对象的至少一部分的视觉突出性,直到第一虚拟对象相对于用户的当前视点在到第二虚拟对象的阈值距离之外。在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括在第一虚拟对象的移动期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离减小,减小第二虚拟对象的至少一部分的视觉突出性。例如,第一虚拟对象从第一位置到第二位置的移动包括减小第一虚拟对象相对于用户的当前视点的距离,同时将第一虚拟对象朝向第二虚拟对象在三维环境中的位置移动。在一些实施方案中,随着第一虚拟对象朝向第二虚拟对象的位置(例如,并且朝向三维环境中对应于用户的当前视点的位置)移动,第二虚拟对象的至少一部分的透明度相对于三维环境增加(例如,和/或第二虚拟对象的至少一部分的不透明度、清晰度、亮度和/或颜色增加)。在一些实施方案中,随着第一虚拟对象朝向第二虚拟对象的位置(例如,并且朝向三维环境中对应于用户的当前视点的位置)移动,第二虚拟对象的至少一部分的尺寸相对于三维环境增加。在将虚拟对象从用户的当前视点移动到更大距离的同时增加三维环境中相应虚拟对象的一部分的视觉突出性向用户提供将虚拟对象移动到三维环境中的更大距离导致与相应虚拟对象的空间冲突的视觉反馈,并向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,从而减少交互中的错误。
在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括在第一虚拟对象的移动的第一部分期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,减小第二虚拟对象的至少一部分的视觉突出性(例如,随着第一虚拟对象704a移动到相对于用户712的当前视点的更大距离,增加第二虚拟对象704b的部分718b的尺寸,如图7F至图7G所示),以及在第一虚拟对象的移动的第一部分之后并且在减小第二虚拟对象的至少一部分的视觉突出性之后,在第一虚拟对象的移动的第二部分期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,增加第二虚拟对象的至少一部分的视觉突出性(例如,在第一虚拟对象704b移动到相对于用户712的当前视点的更大距离的同时,减小部分718b的尺寸,如图7H至图7I所示)。
在一些实施方案中,第一虚拟对象的移动的第一部分对应于将第一虚拟对象朝向三维环境中对应于第二虚拟对象的位置移动,同时并发地增加第一虚拟对象相对于用户的当前视点的距离(例如,三维环境中的第一位置是比第二虚拟对象更靠近用户的当前视点的位置,并且第一虚拟对象的移动的第一部分包括从第一位置到第二虚拟对象在三维环境中的位置的移动),诸如由图7E至图7G中的第一虚拟对象704a朝向第二虚拟对象704b的移动所示。在一些实施方案中,在计算机系统继续接收对应于第一虚拟对象在三维环境中在第一方向上的移动(例如,在三维环境中在第一方向上的移动对应于相对于三维环境在远离用户的当前视点的方向上的移动)的移动输入(例如,通过相对于三维环境的手部移动和/或空中手势)的同时,第二虚拟对象的至少一部分的视觉突出性减小。在一些实施方案中,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,减小第二虚拟对象的至少一部分的视觉突出性包括随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,减小第二虚拟对象的至少一部分的视觉突出性的一个或多个特性,如上所述。在一些实施方案中,第一虚拟对象的移动的第一部分对应于将第一虚拟对象朝向三维环境中对应于第二虚拟对象的位置移动,同时并发地减小第一虚拟对象相对于用户的当前视点的距离(例如,三维环境中的第一位置是比第二虚拟对象更远离用户的当前视点的位置,并且第一虚拟对象的移动的第一部分包括从第一位置到第二虚拟对象在三维环境中的位置的移动)。在一些实施方案中,在计算机系统继续接收对应于第一虚拟对象在三维环境中在第二方向上的移动(例如,在三维环境中在第二方向上的移动对应于相对于三维环境在朝向用户的当前视点的方向上的移动)的移动输入(例如,通过相对于三维环境的手部移动和/或空中手势)的同时,第二虚拟对象的至少一部分的视觉突出性减小。在一些实施方案中,随着三维环境中第一虚拟对象与用户的当前视点之间的距离减小,计算机系统减小第二虚拟对象的至少一部分的视觉突出性(例如,包括随着第一虚拟对象与用户的当前视点之间的距离减小,减小第二虚拟对象的至少一部分的视觉突出性的一个或多个特性,如上所述)。
在一些实施方案中,第一虚拟对象的移动的第二部分对应于第一虚拟对象的移动的第一部分的延续(例如,第一虚拟对象在三维环境中继续在相同方向上移动),诸如由图7H至图7J中的第一虚拟对象704a的移动所示。在一些实施方案中,第一虚拟对象的移动的第二部分对应于将第一虚拟对象远离三维环境中对应于第二虚拟对象的位置移动,同时并发地增加第一虚拟对象相对于用户的当前视点的距离(例如,三维环境中的第二位置是比第二虚拟对象更远离用户的当前视点的位置,并且第一虚拟对象的移动的第二部分包括从第二虚拟对象的位置到三维环境中的第二位置的移动)。在一些实施方案中,随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,增加第二虚拟对象的至少一部分的视觉突出性包括随着三维环境中第一虚拟对象与用户的当前视点之间的距离增加,增加第二虚拟对象的至少一部分的视觉突出性的一个或多个特性,如上所述。在一些实施方案中,第一虚拟对象的移动的第二部分对应于将第一虚拟对象远离三维环境中对应于第二虚拟对象的位置移动,同时并发地减小第一虚拟对象相对于用户的当前视点的距离(例如,三维环境中的第二位置是比第二虚拟对象更靠近用户的当前视点的位置,并且第一虚拟对象的移动的第二部分包括从第二虚拟对象的位置到三维环境中的第二位置的移动)。在一些实施方案中,在第一虚拟对象的移动的第二部分期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离减小,计算机系统增加第二虚拟对象的至少一部分的视觉突出性(例如,包括在第一虚拟对象的移动期间,随着三维环境中第一虚拟对象与用户的当前视点之间的距离减小,增加第二虚拟对象的至少一部分的视觉突出性的一个或多个特性,如上所述)。在将虚拟对象从用户的当前视点移动到更大距离的同时改变三维环境中相应虚拟对象的一部分的视觉突出性向用户提供将虚拟对象移动到三维环境中的更大距离导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,在三维环境中显示第一虚拟对象和第二虚拟对象的同时,计算机系统在三维环境中显示第三虚拟对象(例如,诸如图7N中所示的第三虚拟对象704g),其中第三虚拟对象在空间上不与第一虚拟对象和第二虚拟对象冲突。在一些实施方案中,第三虚拟对象具有上述第一虚拟对象和/或第二虚拟对象的一个或多个特性。在一些实施方案中,第三虚拟对象的位置不对应于第一虚拟对象或第二虚拟对象在三维环境中的位置(例如,从用户的当前视点来看)。
在一些实施方案中,在三维环境中显示第一虚拟对象、第二虚拟对象和第三虚拟对象的同时,计算机系统检测与将第一虚拟对象在三维环境中的位置从第二位置改变到第三位置的请求相对应的第二输入,诸如指向参考图7N所示和所述的第一虚拟对象704e的输入。在一些实施方案中,与将第一虚拟对象在三维环境中的位置从第二位置改变到第三位置的请求相对应的第二输入具有与将第一虚拟对象在三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入的一个或多个特性。
在一些实施方案中,响应于接收到第二输入,并且在第二虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少第一部分冲突并且第三虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少第二部分冲突时(例如,诸如图7N中第一虚拟对象704e与第二虚拟对象704f以及第一虚拟对象704e与第三虚拟对象704g之间所示的空间冲突),计算机系统将第二虚拟对象的至少一部分的视觉突出性相对于三维环境从第一视觉突出性减小到低于第一视觉突出性的第三视觉突出性,诸如由图7N中的第二虚拟对象704f的视觉突出性所示)。
在一些实施方案中,在接收第二输入的同时第一虚拟对象的移动导致第二虚拟对象相对于用户的当前视点在空间上与第一虚拟对象的至少第一部分冲突并且第三虚拟对象在空间上与第一虚拟对象的至少第二部分冲突。在一些实施方案中,在空间上与第一虚拟对象的至少第一部分冲突的第二虚拟对象具有如参考步骤902所描述的在空间上与第一虚拟对象的至少一部分冲突的第二虚拟对象的一个或多个特性。在一些实施方案中,在空间上与第一虚拟对象的至少第二部分冲突的第三虚拟对象具有如参考步骤902所描述的在空间上与第一虚拟对象的至少一部分冲突的第二虚拟对象的一个或多个特性。
在一些实施方案中,第三视觉突出性具有如上所述的第二视觉突出性的一个或多个特性。在一些实施方案中,将第二虚拟对象的至少一部分的视觉突出性从第一视觉突出性减小到第三视觉突出性包括将第二虚拟对象的至少一部分的视觉突出性从第一视觉突出性减小到第二视觉突出性的一个或多个特性,如参考步骤902所描述的。在一些实施方案中,计算机系统独立于减小第三虚拟对象的至少一部分的视觉突出性而减小第二虚拟对象的至少一部分的视觉突出性(例如,计算机系统基于第一虚拟对象与第二虚拟对象之间的空间冲突而不是基于第一虚拟对象与第三虚拟对象之间的空间冲突来减小第二虚拟对象的至少一部分的视觉突出性)。
在一些实施方案中,计算机系统将第三虚拟对象的至少一部分的视觉突出性相对于三维环境从第一视觉突出性减小到低于第一视觉突出性的第四视觉突出性,诸如由图7N中的第三虚拟对象704g的视觉突出性所示。在一些实施方案中,第四视觉突出性具有如上所述的第二视觉突出性的一个或多个特性(例如,参考步骤902)。在一些实施方案中,第三虚拟对象的至少一部分具有如上所述的第二虚拟对象的至少一部分的一个或多个特性(例如,参考步骤902)。在一些实施方案中,将第二虚拟对象的至少一部分的视觉突出性从第一视觉突出性减小到第四视觉突出性包括将第二虚拟对象的至少一部分的视觉突出性从第一视觉突出性减小到第二视觉突出性的一个或多个特性,如参考步骤902所描述的。在一些实施方案中,计算机系统独立于减小第二虚拟对象的至少一部分的视觉突出性而减小第三虚拟对象的至少一部分的视觉突出性(例如,计算机系统基于第一虚拟对象与第三虚拟对象之间的空间冲突而不是基于第一虚拟对象与第二虚拟对象之间的空间冲突来减小第三虚拟对象的至少一部分的视觉突出性)。
在一些实施方案中,计算机系统基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性,诸如由图7O中以更大量的透明度显示部分724a所示。在一些实施方案中,改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性包括改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性的一个或多个特性,如上所述(例如,参考步骤902)。在一些实施方案中,计算机系统独立于改变第三虚拟对象的至少一部分的视觉突出性来改变第二虚拟对象的至少一部分的视觉突出性(例如,计算机系统基于在第一虚拟对象的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变而不基于在第一虚拟对象的移动期间第一虚拟对象相对于第三虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分的视觉突出性)。
在一些实施方案中,计算机系统基于在第一虚拟对象在三维环境中的移动期间第一虚拟对象相对于第三虚拟对象的空间位置的改变来改变第三虚拟对象的至少一部分相对于三维环境的视觉突出性,诸如由图7O中以更大量的透明度显示部分724b所示。在一些实施方案中,改变第三虚拟对象的至少一部分相对于三维环境的视觉突出性包括改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性的一个或多个特性,如上所述(例如,参考步骤902)。在一些实施方案中,计算机系统独立于改变第二虚拟对象的至少一部分的视觉突出性来改变第三虚拟对象的至少一部分的视觉突出性(例如,计算机系统基于在第一虚拟对象的移动期间第一虚拟对象相对于第三虚拟对象的空间位置的改变而不基于在第一虚拟对象的移动期间第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第三虚拟对象的至少一部分的视觉突出性)。基于虚拟对象相对于三维环境中多个相应虚拟对象的空间位置来改变三维环境中多个相应虚拟对象的多个部分的视觉突出性向用户提供在三维环境中移动虚拟对象导致与多个相应虚拟对象的一个或多个空间冲突的视觉反馈,向用户提供关于如何解决一个或多个空间冲突(例如,或一个或多个空间冲突的一个或多个特性)的视觉反馈,并防止显示基于由虚拟对象的移动导致的一个或多个空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,将第二虚拟对象的至少一部分的视觉突出性相对于三维环境减小到第二视觉突出性包括:停止在三维环境中显示第二虚拟对象的至少一部分的第一部分(例如,诸如图7G中计算机系统101停止显示的第二虚拟对象704b的该部分),其中第二虚拟对象的至少一部分的第一部分具有与第一虚拟对象的至少一部分的相对尺寸相对应的第一尺寸;以及与以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第二部分(例如,如图7G所示的第二虚拟对象704b的部分718b),其中第二虚拟对象的至少一部分的第二部分至少部分地围绕第二虚拟对象的至少一部分的第一部分的周边,诸如由围绕第二虚拟对象704b的该部分的周边的部分718b所示,在图7G中计算机系统101停止在三维环境702中显示。
在一些实施方案中,第二虚拟对象的至少一部分的第一部分对应于第二虚拟对象的相对于用户的当前视点与第一虚拟对象重叠的部分,诸如图7G中停止在三维环境702中显示的第二虚拟对象704b的部分。在一些实施方案中,第二虚拟对象的至少一部分的第一部分在空间上与第一虚拟对象的至少一部分冲突。在一些实施方案中,在停止在三维环境中显示第二虚拟对象的至少一部分的第一部分之后,第一虚拟对象的至少一部分从用户的当前视点在三维环境中可见。在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括基于第一虚拟对象相对于第二虚拟对象的空间位置来改变第二虚拟对象的至少一部分的至少第一部分相对于三维环境的尺寸。在一些实施方案中,在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的距离增加,第二虚拟对象的至少一部分的至少第一部分的尺寸相对于三维环境扩大。在一些实施方案中,在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的距离增加,第二虚拟对象的至少一部分的至少第一部分的尺寸相对于三维环境减小。在一些实施方案中,在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的距离减小,第二虚拟对象的至少一部分的至少第一部分的尺寸相对于三维环境减小。在一些实施方案中,在第一虚拟对象的移动期间,随着第一虚拟对象相对于用户的当前视点的距离减小,第二虚拟对象的至少一部分的尺寸相对于三维环境增加。
在一些实施方案中,与以第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以高10%、20%、25%、30%、40%、50%、60%、70%、75%、80%、90%、95%或100%的透明度显示第二虚拟对象的至少一部分的第二部分。在一些实施方案中,第二虚拟对象的至少一部分的第二部分具有如参考方法800所描述的相应虚拟对象的相应部分的第二部分的一个或多个特性。在一些实施方案中,与以第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第二部分包括与以第一视觉突出性显示相应虚拟对象的相应部分的第二部分相比,以更大量的透明度显示相应虚拟对象的相应部分的第二部分的一个或多个特性,如参考方法800所描述的。在相应虚拟对象的至少一部分相对于用户的当前视点在空间上与虚拟对象的第一部分冲突的同时,在三维环境中停止显示虚拟对象的第一部分并以增加的透明度显示虚拟对象的围绕第一部分的第二部分允许与相应虚拟对象继续交互而不管虚拟对象与相应虚拟对象之间的空间冲突,并且通过将原本将直接与相应虚拟对象的至少一部分相邻的与虚拟对象相关联的内容(例如,因为从用户的当前视点来看虚拟对象的第二部分围绕相应虚拟对象的至少一部分)显示为相对于用户的当前视点是透明的来改善继续交互,从而改善用户设备交互。
在一些实施方案中,基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性包括基于在第一虚拟对象在三维环境中的移动期间第二虚拟对象与第一虚拟对象的空间冲突的改变来在三维环境中重新显示第二虚拟对象的至少一部分的第一部分并停止在三维环境中显示第二虚拟对象的至少一部分的不同于第一部分的第三部分,诸如与图7G相比,在图7H中改变停止在三维环境702中显示的第二虚拟对象704b的部分;以及与以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分的第四部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的不同于第三部分的第四部分,其中第二虚拟对象的至少一部分的第四部分至少部分地围绕第二虚拟对象的至少一部分的第三部分的周边,诸如与图7G相比,图7H中的部分718b的改变所示。
在一些实施方案中,在第一虚拟对象在三维环境中的移动期间第二虚拟对象与第一虚拟对象的空间冲突的改变对应于第二虚拟对象与第一虚拟对象的至少一部分之间相对于用户的当前视点的重叠尺寸的改变,诸如图7G至图7H中第一虚拟对象704a与第二虚拟对象704b之间所示的重叠尺寸的改变。例如,在第一虚拟对象在三维环境中的移动期间,第二虚拟对象与第一虚拟对象的至少一部分之间相对于用户的当前视点的重叠区域改变(例如,增加或减小)。例如,第一虚拟对象相对于用户的当前视点横向地和/或竖直地移动(例如,导致第一虚拟对象相对于用户的当前视点与第二虚拟对象的不同区域重叠)。例如,第一虚拟对象移动到三维环境中对应于距用户的当前视点的不同距离(例如,深度)的位置(例如,导致显示第一虚拟对象相对于用户的当前视点与第二虚拟对象的不同显示区域重叠)。在一些实施方案中,根据第二虚拟对象与第一虚拟对象的至少一部分之间的重叠区域改变,计算机系统停止显示的第二虚拟对象的至少一部分的部分的尺寸改变(例如,基于第二虚拟对象与第一虚拟对象的至少一部分之间的重叠区域相对于用户的当前视点的改变)。在一些实施方案中,第二虚拟对象的至少一部分的第三部分具有如上所述的第二虚拟对象的至少一部分的第一部分的一个或多个特性。在一些实施方案中,第二虚拟对象的至少一部分的第三部分和第二虚拟对象的至少一部分的第一部分相对于用户的当前视点至少部分地重叠(例如,第二虚拟对象的区域包括在第二虚拟对象的至少一部分的第一部分和第二虚拟对象的至少一部分的第三部分两者中)。在一些实施方案中,第二虚拟对象的至少一部分的第三部分相对于用户的当前视点不重叠。
在一些实施方案中,第二虚拟对象的至少一部分的第四部分(例如,图7H中所示的部分718b)具有如上所述的第二虚拟对象的至少一部分的第二部分的一个或多个特性。在一些实施方案中,与以第一视觉突出性显示第二虚拟对象的至少一部分的第四部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第四部分包括与以第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第二部分的一个或多个特性,如上所述。在一些实施方案中,第二虚拟对象的至少一部分的第四部分的尺寸是基于第二虚拟对象的空间冲突的改变(例如,因为第二虚拟对象的至少一部分的第四部分围绕第二虚拟对象的至少一部分的第三部分的周边),并且停止显示第二虚拟对象的至少一部分的第三部分是基于第二虚拟对象与第一虚拟对象的空间冲突的改变。基于相应虚拟对象的至少一部分相对于虚拟对象的空间冲突的改变而改变停止在三维环境中显示的虚拟对象的第一部分和围绕第一部分并具有增加的透明度的虚拟对象的第二部分允许与相应虚拟对象的继续交互,而不管相应虚拟对象与虚拟对象之间的空间冲突的改变,并通过将原本将与相应虚拟对象的至少一部分相邻的与虚拟对象相关联的内容显示为相对于用户的当前视点是透明的来改善继续交互,从而改善用户设备交互。
在一些实施方案中,第二虚拟对象的至少一部分相对于用户的当前视点至少部分地围绕第一虚拟对象的至少一部分的周边,诸如图7G中由第二虚拟对象704b的部分718b围绕第一虚拟对象704a的与第二虚拟对象704b重叠的部分的周边所示。在一些实施方案中,改变第二虚拟对象的至少一部分的视觉突出性包括改变相对于用户的当前视点至少部分地围绕第一虚拟对象的至少一部分的周边的第二虚拟对象的至少一部分的透明度,具有与以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分的第二部分相比,以更大量的透明度显示第二虚拟对象的至少一部分的第二部分的一个或多个特性,如上所述。在一些实施方案中,第二虚拟对象的至少一部分的不同区域以不同的透明量显示(例如,基于第二虚拟对象的至少一部分的相应区域相对于第一虚拟对象的至少一部分的周边的距离)。例如,与相对于用户的当前视点距第一虚拟对象的至少一部分更大距离的第二虚拟对象的至少一部分的第二区域相比,第二虚拟对象的至少一部分的第一区域以更大量的透明度显示。在一些实施方案中,第二虚拟对象的至少一部分相对于三维环境的透明度的量从第一虚拟对象的至少一部分的周边(例如,逐渐地)减小。在一些实施方案中,相对于用户的当前视点,第二虚拟对象的至少一部分从第一虚拟对象的至少一部分的周边看起来具有羽化效果。在一些实施方案中,第二虚拟对象的至少一部分的尺寸(例如,从第一虚拟对象的至少一部分的周边延伸的第二虚拟对象的至少一部分的显示厚度)基于第一虚拟对象相对于第二虚拟对象相对于用户的当前视点的空间位置而改变。例如,根据第一虚拟对象相对于第二虚拟对象相对于用户的当前视点的空间位置与第一距离相关联,第二虚拟对象的至少一部分以第一尺寸显示,并且根据第一虚拟对象相对于第二虚拟对象的空间位置为不同于第一距离的第二距离,第二虚拟对象的至少一部分以不同于第一尺寸的第二尺寸显示。在一些实施方案中,根据第一距离大于第二距离,相对于用户的当前视点,第二虚拟对象的至少一部分的第二尺寸大于第二虚拟对象的至少一部分的第一尺寸。在一些实施方案中,根据第二距离大于第一距离,相对于用户的当前视点,第二虚拟对象的至少一部分的第一尺寸大于第二虚拟对象的至少一部分的第二尺寸。基于虚拟对象相对于三维环境中相应虚拟对象的空间位置来改变三维环境中围绕虚拟对象的一部分的相应虚拟对象的一部分的视觉突出性向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突(例如,或空间冲突的一个或多个特性)的视觉反馈,防止显示原本将直接与相应虚拟对象的该部分相邻的内容(例如,因为从用户的当前视点来看虚拟对象的至少一部分围绕虚拟对象的至少一部分),从而节省计算资源并减少交互中的错误。
在一些实施方案中,在减小第二虚拟对象的至少一部分的视觉突出性的同时,计算机系统在三维环境中距用户的当前视点的第一距离处显示第一虚拟对象,并且在三维环境中距用户的当前视点的大于第一距离的第二距离处显示第二虚拟对象,诸如如图7F所示由与第二虚拟对象704b距用户712的当前视点的距离相比第一虚拟对象704a距用户712的当前视点的距离所示。在一些实施方案中,在减小第二虚拟对象的至少一部分的视觉突出性的同时,计算机系统在三维环境中距用户的当前视点的第三距离处显示第一虚拟对象,并且在三维环境中距用户的当前视点的小于第三距离的第四距离处显示第二虚拟对象。在一些实施方案中,基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性包括在第一虚拟对象在三维环境中的移动期间在小于第二虚拟对象相对于用户的当前视点的距离的相对于用户的当前视点的一个或多个相应距离处显示第一虚拟对象的同时改变第二虚拟对象的至少一部分的视觉突出性。在一些实施方案中,基于第一虚拟对象相对于第二虚拟对象的空间位置的改变来改变第二虚拟对象的至少一部分相对于三维环境的视觉突出性包括通过在大于第二虚拟对象相对于用户的当前视点的距离的一个或多个相应距离处显示第一虚拟对象来改变第二虚拟对象的至少一部分的视觉突出性。在一些实施方案中,计算机系统根据相对于用户的当前视点的第二距离与相对于用户的当前视点的第一距离之间的差值小于阈值量(例如,0.01、0.02、0.05、0.1、0.2、0.5、1、2、5或10米)来减小视觉突出性。例如,如果第一距离与第二距离之间的差值小于阈值量,则计算机系统减小第二虚拟对象的至少一部分的视觉突出性。在一些实施方案中,在三维环境中的第一虚拟对象相对于第二虚拟对象在阈值距离(例如,0.01、0.02、0.05、0.1、0.2、0.5、1、2、5或10米)内时,无论是在第二虚拟对象后方还是前方,第二虚拟对象的至少一部分的视觉突出性都会改变(例如,根据三维环境中的第一虚拟对象相对于第二虚拟对象在阈值距离内,计算机系统减小第二虚拟对象的至少一部分的视觉突出性,并且根据三维环境中的第一虚拟对象相对于第二虚拟对象不在阈值距离内,计算机系统放弃减小第二虚拟对象的至少一部分的视觉突出性)。基于三维环境中的虚拟对象相对于虚拟对象的空间位置来改变在三维环境中与虚拟对象相比更靠近用户的当前视点的位置处显示的相应虚拟对象的一部分的视觉突出性向用户提供在三维环境中移动虚拟对象导致与相应虚拟对象的空间冲突的视觉反馈,向用户提供关于如何解决空间冲突的视觉反馈,并防止显示基于由虚拟对象的移动导致的空间冲突而原本对用户不可见的内容,从而节省计算资源并减少交互中的错误。
在一些实施方案中,在接收到第一输入之后,计算机系统检测指向第二虚拟对象的第二输入(例如,诸如参考图7C所示和所述的输入)。在一些实施方案中,将第二输入指向第二虚拟对象包括将注意力指向第二虚拟对象。例如,用户将注视指向第二虚拟对象(例如,任选地持续阈值时间段(例如,0.1、0.2、0.5、1、2、5或10秒))。在一些实施方案中,用户执行空中手势(例如,任选地朝向三维环境中的第二虚拟对象的方向,并且任选地同时将注视指向第二虚拟对象)。例如,空中手势是空中轻击、空中捏合、空中拖动和/或空中长捏合(例如,持续一定时间段(例如,0.1、0.5、1、2、5或10秒)的空中捏合)。在一些实施方案中,执行空中手势并将注视指向第二虚拟对象对应于在三维环境中选择第二虚拟对象。在一些实施方案中,第二输入对应于指向与三维环境中的空白空间相对应的三维环境中的位置的注意力(例如,如参考方法800所描述的)。在一些实施方案中,第二输入对应于通过触敏表面(例如,与计算机系统通信的触控板或触敏显示器)上的触摸输入、音频输入(例如,语音命令)或通过与计算机系统通信的鼠标和/或键盘提供的输入作出的对第二虚拟对象的选择。
在一些实施方案中,响应于检测到第二输入,计算机系统以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分,诸如图7D中所示的第二虚拟对象704b的视觉突出性。在一些实施方案中,以第一视觉突出性显示第二虚拟对象的至少一部分包括将第二虚拟对象的至少一部分的显示从第二视觉突出性(例如,或者基于在第一虚拟对象的移动期间第一虚拟对象相对于第二虚拟对象的空间位置从大于或小于第二视觉突出性的视觉突出性)改变为第一视觉突出性。在一些实施方案中,以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分包括以相对于三维环境的第一视觉突出性显示第二虚拟对象的一个或多个特性,如参考步骤902所描述的。在一些实施方案中,响应于检测到第二输入,整个第二虚拟对象(例如,包括第二虚拟对象的至少一部分)以第一视觉突出性显示(例如,计算机系统保持以第一视觉突出性显示不同于第二虚拟对象的至少一部分的第二虚拟对象的相应部分)。
在一些实施方案中,计算机系统以相对于三维环境小于第一视觉突出性的第三视觉突出性显示第一虚拟对象的至少一部分,诸如图7D中所示的第一虚拟对象704a的视觉突出性。在一些实施方案中,响应于检测到第二输入而以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分以及以相对于三维环境的第三视觉突出性显示第一虚拟对象的至少一部分包括响应于检测到第二输入而以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分以及以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分的一个或多个特性,如参考方法800所描述的。在一些实施方案中,计算机系统根据确定从用户的当前视点来看第一虚拟对象的至少一部分与第二虚拟对象重叠超过阈值量(例如,包括参考方法800中的步骤802所描述的阈值量的一个或多个特性),以相对于三维环境的第一视觉突出性显示第二虚拟对象的至少一部分以及以相对于三维环境的第三视觉突出性显示第一虚拟对象的至少一部分(例如,如参考方法800中以相对于三维环境的第一视觉突出性显示第二虚拟对象的相应部分以及以相对于三维环境的第二视觉突出性显示第一虚拟对象的相应部分所描述的)。在一些实施方案中,第三视觉突出性具有第二视觉突出性的一个或多个特性。例如,以第三视觉突出性显示第一虚拟对象的至少一部分包括以小于100%的不透明度显示第一虚拟对象的至少一部分,和/或与以第一视觉突出性显示第一虚拟对象的至少一部分相比以更大量的透明度、降低的亮度、降低的清晰度和/或更少的颜色和/或饱和度显示第一虚拟对象的至少一部分。在一些实施方案中,第一虚拟对象的至少一部分具有第二虚拟对象的至少一部分的一个或多个特性。例如,第一虚拟对象的至少一部分包括相对于用户的当前视点在第二虚拟对象的至少一部分的周边的阈值距离(例如,0.5cm、1cm、2cm、5cm、10cm、20cm、25cm、30cm、35cm、40cm、45cm、50cm、或100cm)内的第一虚拟对象的一部分(例如,以第二视觉突出性显示的第一虚拟对象的至少一部分以相对于用户的当前视点从第二虚拟对象的至少一部分的羽毛外观显示)。在一些实施方案中,第一虚拟对象的至少一部分包括第一虚拟对象的相对于用户的当前视点在视觉上遮挡第二虚拟对象的至少一部分的部分。在一些实施方案中,被第一虚拟对象的至少一部分的部分在视觉上遮挡的第一虚拟对象的至少一部分从用户的当前视点是可见的(例如,因为第一虚拟对象的至少一部分的在视觉上遮挡第二虚拟对象的至少一部分的部分与第一视觉突出性相比以减小的视觉突出性(例如,第三视觉突出性)显示)。在一些实施方案中,在以第三视觉突出性显示第一虚拟对象的至少一部分时,第一虚拟对象显示在三维环境中与第二虚拟对象相比距用户的当前视点更大距离的位置处。在一些实施方案中,在以第三突出性显示第一虚拟对象的至少一部分时,第二虚拟对象显示在三维环境中与第一虚拟对象相比距用户的当前视点更大距离的位置处。当响应于指向相应虚拟对象的用户输入而在虚拟对象的至少一部分与相应虚拟对象之间存在空间冲突时,在三维环境中以更少的视觉突出性显示虚拟对象的一部分允许与用户将其注意力指向的相应虚拟对象交互而不管空间冲突,从而改善用户设备交互。
应当理解,对方法900中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图10A至图10N示出了当在计算机系统显示与视觉效果相关联的虚拟内容的同时检测到与现实世界对象相关联的透传可见性事件时(例如,当现实世界对象移动到计算机系统的视场中时,或者当检测到现实世界对象与虚拟内容之间的空间冲突时)计算机系统将视觉效果应用于现实世界对象的示例。
图10A示出了计算机系统(例如,电子设备)101经由显示生成部件(例如,图1的显示生成部件120)从计算机系统101的用户(例如,用户1010)的视点(例如,面向计算机系统101所处的物理环境的后壁)呈现(例如,显示或以其他方式使其可见,诸如经由光学透传)三维环境1002。在一些实施方案中,计算机系统101包括显示生成部件(例如,触摸屏)、多个图像传感器(例如,图3的图像传感器314)和一个或多个物理或固态按钮1003。图像传感器任选地包括以下中的一者或多者:可见光相机;红外相机;深度传感器;或当用户与计算机系统101交互时计算机系统101能够用来捕获用户或用户的一部分(例如,用户的一只或多只手)的一个或多个图像的任何其他传感器。在一些实施方案中,下文示出和描述的用户界面(例如,虚拟环境和/或其他虚拟内容)还可在头戴式显示器上实现,该头戴式显示器包括向用户显示用户界面或三维环境的显示生成部件,以及检测物理环境和/或用户的手部的移动的传感器(例如,从用户面向外的外部传感器)和/或检测用户的注意力(例如,注视)的传感器(例如,朝向用户的面部面向内的内部传感器)。
在图10A的示例中,计算机系统101在三维环境1002中显示包括虚拟对象1006a和第一虚拟环境1020a的虚拟内容。虚拟对象1006a任选地对应于虚拟应用程序窗口、虚拟媒体内容或参考方法1100所描述的其他类型的虚拟内容。在图10A的示例中,第一虚拟环境1020a以小于100%沉浸度的第一沉浸水平(例如,诸如参考方法1300所描述的沉浸水平)显示(例如,使得第一虚拟环境1020a不会遮挡计算机系统101的视场中的所有物理环境)。例如,物理环境1008的表示的一部分在三维环境1002中是可见的,并且该物理环境的表示的另一部分被第一虚拟环境1020a和/或第一虚拟对象1006a遮挡(例如,不可见)。物理环境1008的表示包括桌子1004的表示(例如,现实世界桌子的表示)。俯视图1014描绘了三维环境1002中的各个元素之间相对于用户1010的空间关系(例如,当用户1010握持或穿戴计算机系统101以使得计算机系统101具有与用户1010相同或类似的视场时)。
在图10A中,现实世界(物理)对象的表示(桌子1004的表示)在物理环境1008内是可见的。任选地,第一虚拟环境1020a、物理环境1008和/或桌子1004的表示由计算机系统101以应用于三维环境1002中的一些或全部(诸如应用于第一虚拟环境1020a、物理环境1008的表示和/或桌子1004的表示)的虚拟视觉效果(例如,参考方法1100所描述的视觉效果,诸如调光和/或着色效果)呈现。(在图10A中,视觉效果通过覆盖物理环境1008的表示和桌子1004的表示的图案以及第一虚拟环境1020a的图案来示出。)例如,计算机系统101任选地将虚拟调光效果和/或虚拟着色效果应用于第一虚拟环境1020a、物理环境1008的可见部分和/或桌子1004的表示,使得它们对于计算机系统101的用户而言相对于当未应用视觉效果时它们的外观和/或相对于第一虚拟对象1006a显得变暗和/或变色。任选地,计算机系统101应用基于与虚拟环境1020a相关联的视觉效果和与第一虚拟对象1006a相关联的视觉效果的复合视觉效果。任选地,计算机系统101在显示虚拟环境1020a时(例如,响应于显示虚拟环境1020a的请求)将与虚拟环境1020a相关联的视觉效果应用于三维环境1002中的一些或全部,并且在显示虚拟环境1020a之前不显示与虚拟环境1020a相关联的视觉效果。
任选地,计算机系统101基于虚拟内容的状态(例如,基于第一虚拟对象1006a的状态和/或基于第一虚拟环境1020a的状态),诸如基于与第一虚拟对象1006a相关联的调光和/或着色设置和/或基于与第一虚拟环境1020a相关联的当日时间设置来应用第一视觉效果。例如,与第一虚拟对象1006a相关联的应用程序可任选地请求将调光和/或着色效果应用于第一虚拟对象1006a之外的三维环境1002的部分,以相对于三维环境1006的其他部分在视觉上强调第一虚拟对象1006a(例如,以减小三维环境1002的其他部分相对于第一虚拟对象1002a的视觉突出性)。例如,虚拟环境(诸如第一虚拟环境1020a)可与使得计算机系统101将调光和/或着色效果应用于三维环境1002在第一虚拟环境1020a之外的部分(诸如应用于物理环境1008的表示)的视觉效果相关联。
在一些实施方案中,如果第一虚拟对象1006a与视觉效果相关联,则计算机系统101在第一虚拟对象1006a处于活动状态时(例如,同时)应用与第一虚拟对象1006a相关联的视觉效果,并且在第一虚拟对象1006a不处于活动状态时不应用与第一虚拟对象1006a相关联的视觉效果(例如,如参考方法1500所描述的)。例如,在图10A中,第一虚拟对象1006a任选地与视觉效果相关联并且处于活动状态,使得视觉效果应用于三维环境1002的在第一虚拟对象1006a之外的部分。
图10B描绘了与图10A类似但其中第二虚拟环境1020b显示在三维环境1002中的示例。在一些情况下,不同的虚拟环境可以请求不同的调光和/或着色效果(例如,与之相关联)。例如,任选地,第二虚拟环境1020b与不同于第一虚拟环境1020a的视觉效果相关联,并且计算机系统101显示应用于物理环境1008的表示的不同视觉效果(如由相对于图10A的物理环境1008的表示和桌子1004的表示上的不同图案所指示的)。
图10C与图10A类似,但在这种情况下,第一虚拟环境1020a以100%沉浸度(任选地以100%不透明度)显示,从而遮挡计算机系统101的视场内的所有物理环境;例如,物理环境中没有一个经由计算机系统101可见。
从图10C到图10D,用户1010抬起他们的手臂,使得他们的手1010a(现实世界对象)移动到计算机系统101的视场中(例如,如俯视图1414中所示,当用户1010通过如所描绘的计算机系统101的视场握持或穿戴计算机系统101时),从而构成透传可见性事件。响应于检测到用户1010已将其手1010a移动到计算机系统101的视场中,计算机系统101用用户的手1010b的表示的呈现来替换第一虚拟环境1020a的一部分的显示(例如,如参考方法1100所描述)并将第一视觉效果应用于用户的手1010b的表示,如由手1010b的表示上所示的图案所指示的。在一些实施方案中,将视觉效果应用于手1010b的表示包括将调光效果应用于手1010b的表示,使得手1010b的表示看起来比其在没有应用第一视觉效果的情况下更暗(更不亮)和/或比第一虚拟对象1006a更暗(例如,它以更少的视觉突出性呈现)。例如,如果第一虚拟对象1006a与调光效果相关联和/或如果第一虚拟环境1020a在当日夜间时间设置中操作,则计算机系统101任选地调暗手1010b的表示。在图10D的示例中,第一视觉效果任选地包括高调光效果,其中如果未应用第一视觉效果,则手1010b的表示相对于其外观以相对较大的百分比调光。在一些实施方案中,当第一虚拟对象1006a包括媒体内容(例如,电影)并且第一虚拟对象处于活动状态时,计算机系统101将高调光效果应用于手1010b的表示。任选地,计算机系统101将基于与虚拟环境1020a相关联的视觉效果和与第一虚拟对象1006a相关联的视觉效果的复合视觉效果应用于手1010b的表示。
在一些实施方案中,将视觉效果应用于手1010b的表示包括将着色效果应用于手1010b的表示,使得其看起来被着色为特定颜色。例如,如果虚拟对象1006a与黄色(或其他颜色)着色效果相关联,则计算机系统101任选地将黄色(或其他颜色)着色应用于手1010b的表示。例如,如果第一虚拟环境1020a在当日夜间时间设置中操作,则计算机系统101任选地将蓝色和/或灰色(或其他颜色)着色应用于手1010b的表示。
图10E描绘了一个示例,其中第一虚拟对象1006a任选地与第一视觉效果相关联(例如,任选地包括高调光,诸如参考图10D所描述的),但计算机系统101放弃将第一视觉效果应用于手1010b的表示和/或第一虚拟环境1020a,因为第一虚拟对象1006a处于第二状态,因为它是应用程序窗口和/或因为它不处于活动状态(例如,它任选地处于非活动状态,如由图10E相对于图10D中第一虚拟对象1006a的变灰的内部区域和较浅边框所指示的)。在这种情况下,计算机系统101任选地将第二视觉效果应用于手1010b的表示和/或第一虚拟环境1020a(未示出),或者放弃将任何视觉效果应用于手1010b的表示和/或第一虚拟环境1020a。
图10F描绘了一个示例,其中第一虚拟对象1006a对应于与应用程序相关联的窗口,并且在三维环境1002中显示的第三虚拟对象1006c对应于与同一应用程序相关联的用户界面(例如,用于输入应用程序的信息的弹出窗口或菜单)。任选地,第三虚拟对象1006c覆盖在第一虚拟对象1006a的至少一部分上(例如,从用户的视点来看),如图10F所示。第三虚拟对象1006c任选地由计算机系统101响应于指向第一虚拟对象1006a的用户输入(诸如对第一虚拟对象1006a中显示的示能表示的选择)来显示。在一些实施方案中,当与应用程序相关联的用户界面打开并处于活动状态时,第一虚拟对象1006a(例如,对应于与应用程序相关联的第一窗口)被称为处于模态状态,诸如图10F所示。在一些实施方案中,当第一虚拟对象1006a处于模态状态时,响应于检测到用户已将手1010a移动到计算机系统101的视场中(或者任选地,响应于检测到第一虚拟对象1006a已将状态改变为模态状态),计算机系统101以应用于手1010b的表示的低调光效果呈现用户的手1010b的表示(例如,调光比图10D中所描绘的量少的量,如由手1010b的表示上相对于图10D中所示的更浅图案所指示的)。任选地,计算机系统101还将低调光效果应用于第一虚拟环境1020a。
图10G描绘了一个示例,其中用户正与虚拟对象1006d(例如,应用程序窗口)交互,同时将视觉效果应用于三维环境1002(包括第一虚拟环境1020a和物理环境1008的表示)以及用户的手的表示1010b(例如,如参考图10D和图10F所描述的)。例如,用户的手1010b的表示任选地以与物理环境1008的表示相同的方式调暗和/或着色。在图10G中,虚拟对象1006d显示在三维环境1002的前景中(例如,从用户1010的角度来看,在将其放置在桌子1004的表示前方的空间深度处),并且虚拟对象1006d遮挡桌子1004的表示的一部分(例如,如从用户1010的角度所看到的桌子1004的表示的右上角)。在该示例中,用户正提供输入(例如,空中手势)以改变虚拟对象1006d的空间深度,诸如朝向桌子1004的表示将虚拟对象1006d向后“推”到三维环境1002中,使得虚拟对象1006d将在相对于用户1010的视角的更大空间深度处显示。
从图10G到图10H,用户1010已将虚拟对象1006d向后“推”到其与桌子1004的表示的部分1004a具有空间冲突的深度,诸如参考方法1100所描述的,从而构成透传可见性事件。在这种情况下,计算机系统101允许桌子1004的表示的部分1004a“突破”虚拟对象1006d,诸如通过用桌子1004的表示的部分1004a的呈现来替换虚拟对象1006d的一部分的显示(例如,将遮挡桌子1004的表示的部分1004a的部分)。例如,计算机系统101使桌子1004的表示的部分1004a可见,诸如通过增加虚拟对象1006d的与桌子1004的表示的部分1004a具有空间冲突的部分的透明度。如图10G所示,计算机系统101将视觉效果应用于桌子1004的表示的部分1004a(如由部分1004a的图案所指示的)。
图10I描绘了一个示例,其中原本将被所显示的第一虚拟环境1020a遮挡(例如,从用户1010的角度来看被遮挡)的现实世界对象(例如,人)已满足由计算机系统101变得可见(对用户)的标准,诸如通过已移动到用户1010的阈值距离内(例如,在用户1010的物理环境中)和/或通过发起与用户1010的交互,诸如通过看着用户1010和/或与用户1010说话(例如,如参考方法1100所描述的),从而构成透传可见性事件。在图10I的示例中,在计算机系统101检测到人已满足标准时,计算机系统101正在显示应用于虚拟环境1120a的视觉效果(例如,与虚拟对象1006e相关联的视觉效果,该虚拟对象被描绘为处于活动状态并且任选地用户1010的注意力指向该虚拟对象)。例如,用户1010任选地正在观看媒体内容(例如,经由虚拟对象1006e),该媒体内容在人走向用户1020或开始与用户1010说话时将调光效果应用于第一虚拟环境1010a(并且任选地,人的可见性先前被第一虚拟环境1020a遮挡)。响应于确定该人已满足标准,计算机系统101用人1012的表示来替换第一虚拟环境1020a的一部分的显示(例如,原本将遮挡人1012的表示的部分),并将视觉效果应用于人1012的表示(诸如由人1012的表示上的图案所指示的)。
图10J描绘了一个示例,其中用户1010已移动他们的视点并转向远离第一虚拟环境1020a,使得用户1010的视点指向第一虚拟环境1020a的边界1024(例如,如参考方法1100所描述的)。任选地,边界1024是第一虚拟环境1020a的在相对于三维环境1002的竖直平面和/或轴中的边缘,如图10J所示。任选地,计算机系统101使得物理环境1008的表示的靠近第一虚拟环境1020a的边界1024的部分(任选地,包括现实世界对象)至少部分地可见(对用户1010而言),诸如通过增加第一虚拟环境1020a的靠近边界1024(在其阈值距离内)的部分的透明度。任选地,如果第一虚拟环境1020a与视觉效果相关联,则计算机系统101将视觉效果应用于物理环境的与第一虚拟环境1020a的边界1024覆盖和/或在其阈值距离内的部分。例如,在图10J中,与第一虚拟环境1020a相关联的视觉效果被应用于边界1024附近的区域1022内的物理环境1008的表示。任选地,应用在区域1022中的视觉效果的量在距第一虚拟环境1020a和/或边界1024的更大距离处减小(例如,视觉效果淡出),直到它不再显示在区域1022之外。
图10K描绘了一个示例,其中第一虚拟环境1020a由计算机系统101以100%沉浸度和100%不透明度(例如,使得物理环境不可见)显示,并且虚拟对象1006f在三维环境1002内显示。在一些实施方案中,虚拟对象1006f与视觉效果相关联,并且该视觉效果被应用于第一虚拟环境1020a(任选地,当虚拟对象1006f处于活动状态时,如图所示,和/或当用户1010的注意力指向虚拟对象1006f时)。
从图10K到图10L,用户1010已从初始位置移动相对较短距离(例如,改变用户的视点的位置),并且响应于检测到用户的移动,计算机系统101将第一虚拟环境1020a的透明度增加与用户的移动量相对应的量。在这种情况下,物理环境1008的表示透过第一虚拟环境1020a变得可见,包括桌子1004的表示。在一些实施方案中,计算机系统101显示应用于桌子1004的表示(例如,如由桌子1004的表示上的图案所指示的)和/或物理环境1008的表示的视觉效果(例如,与虚拟对象1006f相关联)。
从图10L到图10M,用户已从用户1010的初始位置(例如,图10K中所示的位置)移动超过阈值距离,并且响应于检测到用户的视点已移动超过阈值距离,计算机系统停止显示第一虚拟环境1020a(任选地,同时继续显示虚拟对象1006f)。在图10M的示例中,响应于检测到用户的视点已移动超过阈值距离,计算机系统101停止向桌子1004的表示和/或向物理环境1008的表示显示视觉效果。在一些实施方案中,计算机系统101在停止显示第一虚拟环境1020a之后继续显示应用于桌子1004的表示和/或物理环境1008的表示的视觉效果。
在一些实施方案中,当计算机系统101在三维环境中显示虚拟媒体内容时,计算机系统101显示与应用于三维环境的媒体内容相关联的视觉效果。在图10N的示例中,计算机系统101在三维环境1002中显示包括虚拟对象1006g(例如,包括媒体内容)和第一虚拟环境1020a的虚拟内容。在一些实施方案中,虚拟对象1006g(和/或媒体内容)与基于媒体内容的虚拟效果相关联,诸如调光效果和/或颜色着色效果,其中颜色基于媒体内容的颜色。在一些实施方案中,响应于检测到用户已将他们的手1010a移动到计算机系统101的视场中(诸如参考图10D所描述的),计算机系统101显示用户的手1010b的表示,其中将视觉效果应用于用户的手1010b的表示,诸如由用户的手1010b的表示上的图案所指示的。在一些实施方案中,计算机系统101在媒体内容正在播放时应用与媒体内容相关联的视觉效果,而在媒体内容停止或暂停时不应用视觉效果,诸如参考方法1300所描述的。
图10N1示出了与图10N中所示的概念类似和/或相同的概念(具有许多相同的附图标记)。应当理解,除非下面指出,否则图10N1中所示的具有与图10A至图10N中所示的元件相同的附图标记的元件具有一个或多个或全部相同特性。此外,图10N1中的手1014b周围的虚线框与图10N中的手1014b上示出的图案相对应。图10N1包括计算机系统101,其包括显示生成部件120(或与之相同)。在一些实施方案中,计算机系统101和显示生成部件120分别具有图10A至图10N中所示的计算机系统101和图1和图3中所示的显示生成部件120的一个或多个特性,并且在一些实施方案中,图10A至图10N中所示的计算机系统101和显示生成部件120具有图10N1中所示的计算机系统101和显示生成部件120的一个或多个特性。
在图10N1中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分上,以使得能够对用户的左眼和右眼进行眼睛跟踪。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考图10A至图10N描述的图像传感器314的一个或多个特性。
在图10N1中,显示生成部件120被示出为显示这样的内容,该内容任选地对应于参考图10A至图10N被描述为经由显示生成部件120显示和/或可见的内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图10N1中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图10N1中所示出的内容的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
在图10N1中,用户被描绘为执行空中捏合手势(例如,用手1014b)以向计算机系统101提供输入,从而提供针对由计算机系统101显示的内容的用户输入。这种描述旨在是示例性的而不是限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,参考图10A至图10N所描述的。
在一些实施方案中,计算机系统101响应于用户输入,如参考图10A至图10N所描述的。
在图10N1的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境内可见。也就是说,用户可以任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。应当理解,如图10A至图10N中所示或参考图10A至图10N所述和/或参考对应方法所述的本公开的一个或多个或所有方面任选地以与图10N1中所示类似或相似的方式在计算机系统101和显示生成单元120上实现。
图11是示出根据一些实施方案的将视觉效果应用于现实世界对象的方法1100的流程图。在一些实施方案中,方法1100在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法1100通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法1100中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法1100在与一个或多个输入设备和显示生成部件通信(例如,包括和/或通信链接)的计算机系统处执行。在一些实施方案中,第一计算机系统具有参考方法800、900、1300和/或1500所描述的计算机系统的特性中的一个或多个特性。在一些实施方案中,输入设备具有参考方法800、900、1300和/或1500所描述的输入设备的特性中的一个或多个特性。在一些实施方案中,显示生成单元具有参考方法800、900、1300和/或1500所描述的显示生成部件的特性中的一个或多个特性。
在一些实施方案中,在经由显示生成部件显示虚拟内容(例如,由计算机系统生成的任选地包括虚拟环境、虚拟对象、虚拟媒体内容和/或用于与应用程序交互的虚拟应用程序窗口的内容,诸如参考方法800、900、1300和/或1500所描述的虚拟内容)的同时,其中虚拟内容的至少一部分遮挡计算机系统的用户的物理环境的至少一部分(例如,样本将经由光学或虚拟透传可见的物理环境的一部分)的可见性,计算机系统经由一个或多个输入设备检测(1102a)透传可见性事件。例如,计算机系统显示包括虚拟对象(例如,虚拟对象1006a)和遮挡图10A至图10N中的物理环境1008的表示的一部分的虚拟环境(例如,第一虚拟环境1020a)的虚拟内容,并且检测诸如参考图10D至图10N所描述的透传可见性事件。在一些实施方案中,虚拟内容由计算机系统在三维环境(诸如由计算机系统生成、显示或以其他方式使得能够查看(例如,可见)的三维环境(例如,扩展现实(XR)环境,诸如虚拟现实(VR)环境、混合现实(MR)环境或增强现实(AR)环境))中显示。在一些实施方案中,三维环境具有方法800、900、1300和/或1500的三维环境的特性中的一个或多个特性。在一些实施方案中,当和/或在虚拟内容的显示阻止用户通过计算机系统的镜头查看物理环境的该部分时、当虚拟内容的显示覆盖物理环境的该部分的用户的视图(例如,通过计算机系统的镜头和/或经由显示生成部件)时、和/或当虚拟内容的至少一部分的显示替换物理环境的该部分的显示时,虚拟内容会遮挡物理环境的该部分的可见性。
在一些实施方案中,当和/或在虚拟内容的显示经由显示生成部件替换物理环境的该部分的显示时,虚拟内容会遮挡物理环境的该部分的可见性,使得用户根本看不到物理环境的该部分(例如,物理环境的此类部分不被计算机系统显示)。在一些实施方案中,当和/或在虚拟内容的显示覆盖物理环境的一部分的显示使得物理环境的该部分具有比虚拟内容更少的视觉突出性(例如,具有参考方法800所描述的视觉突出性的特性中的一个或多个特性)时,虚拟内容会遮挡物理环境的一部分的可见性,诸如当虚拟内容以增加的透明度(例如,以5%、10%、20%、30%、40%、50%、60%、70%、80%、90%或99%透明度)显示使得物理环境透过虚拟内容可见时,或当物理环境以相对于虚拟内容的显示增加的透明度(例如,以5%、10%、20%、30%、40%、50%、60%、70%、80%、90%或99%透明度)显示时。在一些实施方案中,透传可见性事件包括计算机系统检测到现实世界对象(例如,物理环境中的对象)已移动到物理环境的被遮挡部分中(例如,移动到计算机系统的视场中)的事件。例如,计算机系统任选地检测到用户已将他们的手移动到物理环境的被遮挡部分中,或者人已走到物理环境的被遮挡部分中,或者球已被扔到物理环境的被遮挡部分中,其中的一个或多个任选地构成透传可见性事件。
在一些实施方案中,透传可见性事件包括计算机系统使得物理对象在物理环境的先前被虚拟内容遮挡的区域中可见从而使得计算机系统的用户能够看到物理对象的事件。例如,计算机系统任选地检测到用户的一部分(例如,用户的手)和/或另一个物理对象(例如,另一个人)已移动到计算机系统的视场中和/或在用户的物理位置的阈值距离内(例如,在.01、.1、.5、1、1.5、5或10米内)。参考图10D至图10N描述了关于透传可见性事件的更多细节。
在一些实施方案中,响应于检测到透传可见性事件,计算机系统经由显示生成部件用呈现用户的物理环境中的现实世界对象的表示(例如,通过显示或以其他方式使其可见)来替换虚拟内容的至少一部分的显示(1102b),诸如图10D中通过用用户的手1010b的表示来替换虚拟环境1020a的一部分的显示。例如,计算机系统任选地在物理环境的已被虚拟内容的显示遮挡的部分中呈现(例如,使用光学或虚拟透传)现实世界对象的表示(例如,现实世界对象本身或现实世界对象的虚拟表示),诸如通过相对于在检测到透传可见性事件之前的现实世界对象的表示视觉突出性、或相对于虚拟内容、和/或相对于三维环境的其余部分来增加其视觉突出性(例如,通过增加亮度、减少调光、增加不透明度、和/或增加着色);通过停止显示虚拟内容的至少一部分;和/或通过相对于三维环境和/或相对于物理对象的所显示的表示以减小的视觉突出性显示虚拟内容。
在一些实施方案中,呈现现实世界对象的表示包括根据确定虚拟内容的状态是第一状态,以应用于现实世界对象的表示的第一视觉效果(例如,与虚拟内容相关联的虚拟和/或模拟视觉效果,诸如虚拟内容被配置为请求应用的视觉效果)呈现(1102c)现实世界对象的表示,诸如以图10D中的视觉效果呈现用户的手1010b的表示。在一些实施方案中,虚拟内容的状态对应于与虚拟内容相关联的调光和/或着色设置,诸如与虚拟环境、虚拟媒体内容、虚拟应用程序窗口和/或虚拟内容的虚拟对象相关联的设置。在一些实施方案中,虚拟内容的状态可由计算机系统的用户和/或由虚拟内容的提供者(诸如由应用程序开发者)配置。在一些实施方案中,虚拟内容的第一状态对应于与虚拟内容相关联的第一调光和/或着色状态(例如,控制设置),其中三维环境的至少一部分(例如,不包括虚拟内容)基于该状态以减小的视觉亮度(例如,调暗)显示。例如,第一状态任选地对应于高调光状态,其中现实世界对象的表示以相对于物理环境中的环境照明和/或相对于虚拟内容的亮度增加的调光(降低的亮度)、任选地以比当虚拟内容处于第二状态(例如,低调光状态和/或无调光状态)时应用的调光更多的调光呈现。例如,在三维环境中显示的虚拟媒体内容任选地与第一状态相关联(例如,被配置为在第一状态中操作),使得三维环境的在虚拟媒体内容之外的部分以减小的视觉突出性(例如,调暗)显示,从而模仿关闭灯以观看媒体内容的现实世界行为。
任选地,虚拟内容的状态对应于与虚拟内容和/或计算机系统相关联的当日时间,诸如白天、早晨、黎明、夜间、傍晚或黄昏。例如,诸如虚拟海滩场景的虚拟环境在该虚拟环境的状态对应于日间状态时任选地以第一外观(诸如以第一虚拟元素、增加的亮度和/或第一颜色着色(例如,黄色))显示,并且在该状态对应于夜间状态时以第二外观(诸如以不同于第一虚拟元素的第二虚拟元素、降低的亮度和第二颜色着色(例如,蓝色))显示。任选地,基于虚拟环境的状态,虚拟内容之外(例如,虚拟海滩场景之外)的三维环境也以不同的外观(例如,以不同的亮度和/或颜色着色)显示。
在一些实施方案中,以第一虚拟效果呈现现实世界对象的表示包括基于虚拟内容的状态是第一状态来以第一亮度、第一调光和/或第一颜色着色呈现现实世界对象的表示。例如,如果用户在媒体内容显示在三维环境中并且媒体内容与第一状态(例如,三维环境的至少一部分以相对于第二状态降低的视觉亮度和/或以第一颜色着色显示的状态)相关联的同时将他们的手移动到计算机系统的视场中(透传可见性事件的示例),则计算机系统任选地以降低的亮度和/或以第一颜色着色呈现用户的手的表示。例如,如果用户在显示虚拟环境的同时将他们的手移动到计算机系统的视场中,并且虚拟环境与如前所述的夜间状态相关联,则计算机系统任选地以降低的亮度和/或以蓝色着色呈现用户的手的表示。
在一些实施方案中,呈现现实世界对象的表示包括根据确定虚拟内容的状态不是第一状态,不以应用于现实世界对象的表示的第一视觉效果呈现(1102d)现实世界对象的表示,诸如不以图10E中的视觉效果呈现用户的手1010b的表示。
在一些实施方案中,当虚拟内容的状态不是第一状态时,它是一个或多个不同状态中的一个,诸如第二状态、第三状态或另一状态。例如,第一状态任选地是第一调光和/或着色状态或第一当日时间状态,第二状态任选地是第二调光和/或着色状态和/或第二当日时间状态,并且第三状态任选地是第三调光和/或着色状态和/或第三当日时间状态。
任选地,当计算机系统不以第一视觉效果显示现实世界对象的表示时,计算机系统不以任何视觉效果(例如,不以任何着色和/或亮度调整)显示现实世界对象的表示,诸如通过以与其在现实世界中的外观类似的方式和/或基于默认亮度设置来呈现现实世界对象的表示。任选地,当计算机系统不以第一视觉效果显示现实世界对象的表示时,计算机系统以不同于第一视觉效果的第二、第三或其他视觉效果显示现实世界对象的表示,其中第二、第三或其他视觉效果对应于虚拟内容的不同(例如,第二、第三或其他)状态。例如,当虚拟内容与第二状态相关联时,计算机系统任选地以与当虚拟内容与第一状态相关联时不同的亮度和/或不同的颜色显示现实世界对象的表示。基于对各种透传可见性事件的检测在计算机生成的环境中呈现现实世界对象的表示允许用户在这种可见性出于安全原因、易于与计算机系统交互和/或其他原因有用时看到现实世界对象。以基于所显示的视觉内容的状态的视觉效果呈现现实世界对象的表示提供对现实世界对象的更少的扰乱和/或分散注意力的入侵(例如,它们部分地与三维环境融合),从而降低用户将向计算机系统提供无意输入的可能性。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述的)包括经由一个或多个输入设备检测用户的一部分(例如,用户的手、手臂、腿和/或其他部分)已经移动到物理环境的至少一部分中(例如,用户已经将用户的该部分移动到计算机系统的视场中,诸如通过在计算机系统前方抬起他们的手臂或抬起他们的腿),诸如图10D中所示,并且呈现现实世界对象的表示包括呈现用户的该部分的表示,诸如在图10D中呈现用户的手1010b的表示。例如,如果用户的该部分是用户的手臂并且虚拟内容的状态是第一状态,则计算机系统任选地显示用户的手臂的虚拟表示或者以其他方式使得用户的手臂的虚拟表示可见(例如,通过光学透传),其中将第一视觉效果应用于(例如,覆盖、过滤和/或以其他方式修改)用户的手臂的表示,使得用户的手臂的表示看起来根据第一视觉效果被着色、调暗或以其他方式在视觉上改变。在一些实施方案中,如果虚拟内容的状态不是第一状态,则取决于虚拟内容的状态(例如,虚拟内容是处于第二状态、第三状态还是另一状态),计算机系统任选地不以任何视觉效果显示用户的手臂或以其他方式使得用户的手臂可见(例如,使得其在三维环境中的外观与其在物理世界中的外观类似)或者以应用于用户的手臂的表示的第二视觉效果显示用户的手臂的表示,使得用户的手臂的表示看起来根据第二视觉效果被着色、调暗或以其他方式在视觉上改变。例如,如果用户在三维环境被调暗(基于虚拟内容的状态)的同时将他们的手臂移动到设备的视场中,则用户的手臂的表示任选地也被调暗以避免干扰用户并保持三维环境的真实感。基于虚拟内容的状态以所应用的(或未应用的)视觉效果呈现移动到设备的视场中的用户的一部分的表示向用户提供关于其身体相对于三维环境的位置的视觉反馈,同时保持三维环境的逼真且内聚性的视觉呈现。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述的)包括经由一个或多个输入设备检测虚拟内容的至少一部分与现实世界对象的至少一部分具有空间冲突(诸如图10H中所示),并且呈现现实世界对象的表示包括呈现现实世界对象的至少一部分(例如,呈现图10H中的桌子1004的表示的部分1004a)。在一些实施方案中,当虚拟内容占据(或试图占据)三维环境中与现实世界对象相同的三维区域时,虚拟内容与现实世界对象之间存在空间冲突;例如,如果虚拟内容是现实世界对象,则它将在物理上不能占据该空间,因为另一个现实世界对象已经存在。例如,如果用户提供将虚拟内容移动到三维环境中已经被现实世界对象占据的位置中的输入,则可能出现这种空间冲突。在这种情况下,现实世界对象的与虚拟内容具有空间冲突的部分被任选地呈现给用户(例如,显示或变得可见,而不是被虚拟内容遮挡),使得用户可以继续看到在它们周围的物理环境中的对象。在一些实施方案中,如果虚拟内容处于第一状态,则计算机系统显示现实世界对象的该部分的表示或以其他方式使得现实世界对象的该部分的表示可见(例如,通过光学透传),其中将第一视觉效果应用于现实世界对象的该部分的表示(例如,覆盖在其上),使得现实世界对象的该部分的表示看起来根据第一视觉效果被着色、调暗或以其他方式在视觉上改变。在一些实施方案中,如果虚拟内容的状态不是第一状态,则取决于虚拟内容的状态(例如,虚拟内容是处于第二状态、第三状态还是另一状态),计算机系统任选地不以任何视觉效果显示现实世界对象的该部分或以其他方式使得现实世界对象的该部分可见(例如,使得其在三维环境中的外观与其在物理世界中的外观类似)或者以应用于现实世界对象的该部分的表示的第二视觉效果显示现实世界对象的该部分的表示,使得现实世界对象的该部分的表示看起来根据第二视觉效果被着色、调暗或以其他方式在视觉上改变。呈现与虚拟内容具有空间冲突的现实世界对象的表示向用户提供关于其相对于三维环境的物理环境的视觉反馈。基于虚拟内容的状态以所应用的(或未应用的)视觉效果呈现现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,并提供三维环境的更逼真且内聚性的视觉呈现。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述的)包括经由一个或多个输入设备检测现实世界对象已移动到(例如,已达到和/或越过)物理环境中的用户的位置(例如,物理位置)的阈值距离内(例如,在.001m、.1m、.5m、1m、1.5m、3m、5m或10m内),诸如图10I中所示。例如,如果人(现实世界对象的示例)在物理环境中走向用户并移动到用户的阈值距离内,则人的表示(或者任选地,仅人的在用户的阈值距离内的部分)任选地被呈现给用户(例如,显示或使得可见,而不是被虚拟内容遮挡),使得用户可以看到人朝向他们移动。在一些实施方案中,如果虚拟内容处于第一状态,则计算机系统以应用于人的表示(例如,覆盖在其上)的第一视觉效果显示人的表示或以其他方式使人的表示可见(例如,通过光学透传),诸如先前参考将第一视觉效果应用于现实世界对象的表示所描述的。在一些实施方案中,如果虚拟内容的状态不是第一状态,则取决于虚拟内容的状态(例如,虚拟内容是处于第二状态、第三状态还是另一状态),计算机系统任选地不以任何视觉效果显示人或以其他方式使人可见,或者以应用于人的表示的第二视觉效果显示人的表示,诸如先前参考现实世界对象的表示所描述的。呈现在用户的阈值距离内移动的现实世界对象的表示会提醒用户现实世界对象已移动靠近他们,从而向用户提供关于其物理环境的视觉反馈。基于虚拟内容的状态以所应用的(或未应用的)视觉效果呈现现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,并提供三维环境的更逼真且内聚性的视觉呈现。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述的)包括经由一个或多个输入设备检测用户的视点指向虚拟内容的边界(例如,虚拟内容的离散边缘,虚拟内容不显示在该离散边缘之外),其中现实世界对象被虚拟内容的至少一部分覆盖(例如,从用户的视点来看,被虚拟内容部分地或完全地遮挡,诸如当虚拟内容的边缘在现实世界对象附近和/或横穿现实世界对象时),并且其中虚拟内容的至少一部分与虚拟内容的边界相邻(例如,在其阈值距离诸如.01m、.1m、.5m、1m、1.5m、3m、5m或10m内),诸如图10J中所示(例如,虚拟内容的在离散边缘附近的部分,诸如在边界区域中,任选地在虚拟内容根据空间梯度在视觉上淡出的区域中)。例如,如果虚拟内容的边界在咖啡桌附件并且虚拟内容的在边界附近的部分覆盖咖啡桌,则咖啡桌的表示(或者任选地,仅咖啡桌的被虚拟内容覆盖的部分)任选地被呈现给用户(例如,显示或变得可见,而不是被虚拟内容遮挡),使得用户可以看到咖啡桌。如前所述,计算机系统任选地基于虚拟内容的状态将视觉效果应用于咖啡桌。在一些实施方案中,边界在竖直平面中(例如,从用户的视点来看,虚拟环境的左右边缘)并且不包括虚拟环境的顶部和/或底部边缘,使得视觉效果应用于虚拟环境的左右边缘旁边的现实世界对象,并且视觉效果不应用于位于虚拟环境的顶部和/或底部边缘(例如,与三维环境的地板或天花板重合)与用户的视点之间的现实世界对象。在虚拟内容的边界附近呈现现实世界对象的表示向用户提供关于其物理环境的视觉反馈。基于虚拟内容的状态以所应用的(或未应用的)视觉效果呈现现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,并提供三维环境的更逼真且内聚性的视觉呈现。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述的)包括经由一个或多个输入设备检测用户的视点(例如,在三维环境内)已经从当虚拟内容首次显示时的用户的视点的位置移动超过阈值距离(例如,超过.01m、.1m、.5m、1m、1.5m、3m、5m或10m),诸如图10L至图10M中所示(例如,从当用户请求显示虚拟内容和/或当启动虚拟内容时的用户的视点的位置)。在一些实施方案中,计算机系统基于检测到用户已经在用户的物理环境内移动(例如,基于由相机、加速度计或其他输入设备检测到的数据)来检测用户的视点已经移动。例如,如果当虚拟内容首次显示时用户的视点处于三维环境中的第一位置,并且用户离开该位置(例如,通过在他们的物理环境中行走),则计算机系统任选地基于虚拟内容的状态任选地以应用于物理环境的表示的视觉效果呈现用户周围的物理环境中的一些或全部(例如,包括一个或多个现实世界对象)的表示(例如,如前所述)。任选地,计算机系统根据用户的移动逐渐减小虚拟内容相对于物理环境的表示的视觉突出性(例如,通过增加透明度和/或减小显示面积和/或尺寸)。例如,当用户朝向和/或超出阈值距离移动时,虚拟内容变得越来越透明和/或尺寸缩小,任选地直到其停止显示。任选地,计算机系统停止显示虚拟内容。当用户在物理环境中移动超过阈值距离时呈现用户的物理环境中的一些或全部的表示向用户提供关于其物理环境的视觉反馈。基于虚拟内容的状态以所应用的(或未应用的)视觉效果呈现物理环境的表示减少与呈现物理环境的表示相关联的干扰,并提供三维环境的更逼真且内聚性的视觉呈现。
在一些实施方案中,检测透传可见性事件(例如,如参考步骤1102a所描述)包括经由一个或多个输入设备检测与停止在三维环境中显示与虚拟内容相关联的应用程序(例如,与显示虚拟内容、生成虚拟内容和/或与虚拟内容交互相关联的应用程序)的请求相对应的用户输入(例如,如前所述的触摸、按钮、手势、注视和/或口头输入),诸如停止显示图10A的虚拟对象1006a和/或虚拟环境1020a的请求,从而允许物理环境1008的表示的附加部分变得可见。在一些实施方案中,显示虚拟内容包括显示与虚拟内容相关联的应用程序。在一些实施方案中,显示应用程序包括显示与显示虚拟内容和/或与虚拟内容交互相关联的示能表示或其他虚拟元素,诸如传输控件、编辑控件、菜单、退出按钮(以关闭虚拟内容和/或应用程序)和/或其他虚拟元素。在一些实施方案中,停止显示应用程序的请求包括切换到不同应用程序的请求和/或关闭应用程序的请求。在一些实施方案中,停止显示与虚拟内容相关联的应用程序包括停止显示应用程序的应用程序窗口(诸如显示虚拟内容的应用程序窗口)和/或停止显示虚拟内容本身。在一些实施方案中,当计算机系统停止显示与虚拟内容相关联的应用程序时,计算机系统从用户的视点呈现先前被虚拟内容覆盖(例如,被虚拟内容遮挡)的物理环境的表示。在一些实施方案中,如果计算机系统在显示应用程序时基于虚拟内容的状态(例如,如前所述)将视觉效果(例如,第一视觉效果或另一视觉效果)应用于现实世界对象,则当计算机系统停止显示与虚拟内容相关联的应用程序时,计算机系统停止将视觉效果应用于现实世界对象。在一些实施方案中,在停止显示与虚拟内容相关联的应用程序之后,计算机系统以不同视觉效果呈现现实世界对象的表示(例如,基于不同虚拟内容的状态)或者不以视觉效果呈现现实世界对象的表示(例如,基于不同虚拟内容的状态或基于虚拟内容的显示的缺失)。当应用程序停止显示时呈现用户的物理环境中的一些或全部(例如,先前被应用程序遮挡)的表示向用户提供关于其物理环境的视觉反馈。基于环境中的其他虚拟内容的状态(或基于环境中缺少其他虚拟内容)来以或不以视觉效果呈现物理环境中的一些或全部的表示提供三维环境的更逼真且内聚性的视觉呈现。
在一些实施方案中,响应于检测到透传可见性事件并且根据确定虚拟内容的状态是第二状态(例如,不同于第一状态并且任选地不与视觉效果相关联的状态),其中在第二状态中,虚拟内容包括应用程序窗口(例如,与虚拟内容相关联并且在其中将虚拟内容任选地与和应用程序相关联的其他虚拟元素一起显示的应用程序的虚拟窗口,其中应用程序窗口在相对于三维环境的竖直平面中显示。任选地,虚拟内容不包括媒体内容;例如,应用程序不是媒体内容应用程序),基于虚拟内容的状态是第二状态,不以应用于现实世界对象的表示的视觉效果呈现现实世界对象的表示,诸如当虚拟对象1006a处于第二状态时在图10E中所示,因为它是应用程序窗口。在一些实施方案中,当虚拟内容显示在应用程序窗口中时,诸如当虚拟内容是文本消息传送应用程序窗口中的文本消息传送内容或者任选地是以窗口模式(而不是如参考方法800、900、1300和/或1500所描述的对接模式或沉浸模式)显示媒体内容的媒体内容应用程序时,计算机系统不将视觉效果应用于现实世界对象。当虚拟内容是窗口内容时放弃应用视觉效果减少处理开销并且在显示窗口内容时保持现实世界对象的可见性和真实呈现。
在一些实施方案中,当虚拟内容包括用于输入与应用程序相关联的信息(例如,用于输入文本、图形元素或其他形式的内容;用于选择菜单项或示能表示;或用于输入其他类型的信息)的用户界面时,虚拟内容处于第二状态(例如,不同于第一状态并且任选地与第二视觉效果相关联),其中用户界面与和应用程序相关联的应用程序窗口同时显示,如图10F所示。例如,用户界面任选地是用于输入与应用程序相关联的信息的应用程序的弹出窗口,并且任选地部分或全部覆盖在应用程序窗口上。在一些实施方案中,响应于从应用程序窗口请求显示用户界面的用户输入(诸如将信息输入到应用程序窗口中的请求)来显示用户界面。在一些实施方案中,在显示用户界面之前,虚拟内容处于第一状态。并且响应于检测到透传可见性事件(例如,如参考步骤1102a所描述的)并且根据确定虚拟内容处于第二状态,物理对象的表示以不同于第一视觉效果的第二视觉效果呈现,诸如由应用于图10F中应用于用户的手的表示1010a的视觉效果所示。在一些实施方案中,以第二视觉效果呈现现实世界对象的表示包括基于虚拟内容的状态是第二状态来以第二亮度、第二调光和/或第二颜色着色呈现现实世界对象的表示。例如,第二状态任选地对应于低调光状态,其中现实世界对象的表示以相对于物理环境中的环境照明和/或相对于虚拟内容的亮度增加的调光(降低的亮度)、但是以比当虚拟内容处于第一状态时(例如,当在不显示用户界面的情况下显示应用程序窗口时)应用的调光更少的调光(更多的亮度)呈现。当用户正在输入信息时应用中间视觉效果增加用户界面的视觉突出性,同时保持环境的其他部分的可见性。
在一些实施方案中,至少部分地基于确定用户的注意力指向虚拟内容,诸如当用户的注意力指向图10A的虚拟对象1006a时,虚拟内容处于第一状态(例如,如参考步骤1102a所描述的)。在一些实施方案中,计算机系统确定当用户正在注视虚拟内容(例如,如由眼睛跟踪传感器检测到的)时用户的注意力指向虚拟内容,和/或已经通过选择虚拟内容(例如,通过提供指向内容的选择输入,诸如通过在注视内容的同时轻击内容和/或提供空中捏合手势)、播放虚拟内容或以其他方式与虚拟内容交互来激活内容。在一些实施方案中,计算机系统基于与虚拟内容相关联的设置结合确定用户正在将其注意力指向虚拟内容来确定虚拟内容的状态。例如,如果虚拟内容被配置为在第一状态下操作并且用户正在看着虚拟内容和/或以其他方式将其注意力指向虚拟内容,则计算机系统任选地基于确定用户的注意力指向虚拟内容结合确定虚拟内容被配置为在第一状态下操作来确定虚拟内容处于第一状态。例如,如果虚拟内容被配置为在第一状态下操作,但是用户没有将其注意力指向虚拟内容,则计算机系统任选地基于确定用户没有指向虚拟内容来确定虚拟内容不处于第一状态(例如,处于第二状态)。基于确定用户的注意力指向现实世界对象而将第一视觉效果应用于现实世界对象的表示(并且如果用户的注意力没有指向虚拟内容则放弃应用视觉效果)提供附加的控制层,使得仅在适当和/或需要时应用视觉效果。
在一些实施方案中,以第一视觉效果呈现现实世界对象的表示(例如,如参考步骤1102c所描述的)包括减小现实世界对象的表示的视觉突出性,诸如通过调暗图10D中的用户的手1010a的表示(例如,通过相对于物理环境中的现实世界对象的调光、亮度、不透明度和着色、相对于三维环境、相对于虚拟内容、和/或相对于不以第一视觉效果呈现的现实世界对象的表示来增加现实世界对象的表示的调光、减小亮度、减小不透明度、和/或减小着色)。减少现实世界对象的表示的视觉突出性减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,第一视觉效果包括应用于现实世界对象的表示的着色效果(例如,颜色着色),诸如参考图10A所描述的。在一些实施方案中,着色的颜色与虚拟内容相关联(例如,作为与虚拟内容相关联的和/或基于虚拟内容的特性确定的设置)。在一些实施方案中,着色的颜色对应于减少现实世界对象的表示的视觉突出性的颜色(例如,灰色、蓝色或其他颜色),或者对应于虚拟内容的颜色(例如,如果显示红色虚拟内容则为红色,如果显示绿色虚拟内容则为绿色,或者如果显示蓝色虚拟内容则为蓝色),和/或对应于三维环境的当日时间设置(例如,对于夜间为蓝色,对于白天为黄色,或其他颜色)。基于各种因素将着色应用于现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,虚拟内容包括虚拟媒体内容,并且着色效果与虚拟媒体内容中包括的一种或多种颜色相关联,诸如参考图10N和图10N1所描述的。例如,着色效果任选地基于媒体内容的一种或多种颜色,使得着色效果模拟媒体内容之外的媒体内容的间接模拟照明效果(例如,如果媒体内容是现实世界内容,则将在媒体内容之外的环境上投射的着色)。基于媒体内容将着色应用于现实世界对象导致现实世界对象与三维环境混合,减少与呈现现实世界对象的表示相关联的干扰并提高环境的真实感,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,虚拟内容与应用程序相关联(例如,如前所述),并且基于与虚拟内容相关联的应用程序来选择着色效果(例如,由计算机系统),诸如如果图10D中的虚拟对象1006a与应用程序相关联并且选择应用于用户的手1010b的表示的着色效果。例如,计算机系统任选地在虚拟内容与第一应用程序(诸如媒体应用程序)相关联时选择第一着色效果,并且在虚拟内容与第二应用程序(诸如游戏应用程序)相关联时选择第二着色效果。任选地,计算机系统基于与应用程序相关联的设置(例如,指定着色的配置设置)来选择着色效果。例如,不同的应用程序任选地被配置为请求不同的着色效果。将应用程序特定着色效果应用于现实世界对象的表示使得能够对相对于虚拟内容的视觉效果的应用进行更精细的控制(例如,由计算机系统和/或由应用程序开发者),减少与呈现现实世界对象的表示相关联的干扰并提高环境的真实感,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,第一视觉效果包括现实世界对象的表示的饱和度(例如,颜色的强度)的改变,诸如如果应用于图10D中的用户的手1010b的表示的视觉效果包括改变用户的手1010b的表示的饱和度(例如,相对于其在检测到透传可见性事件之前的饱和度、相对于虚拟内容、相对于三维环境的其余部分、和/或相对于不以第一视觉效果或任何视觉效果呈现的现实世界对象的表示)。例如,第一视觉效果任选地包括现实世界对象的饱和度的降低(例如,以减小其视觉突出性)或现实世界对象的饱和度的增加(例如,以增加其视觉突出性)。改变现实世界对象的表示的饱和度减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,虚拟内容包括应用程序窗口(例如,如前所述,并且例如如图10E所示)和虚拟环境(例如,计算机生成的和/或模拟的三维环境,诸如虚拟环境1020a),并且第一视觉效果至少部分地基于应用程序窗口和虚拟环境,诸如参考图10D所描述的。在一些实施方案中,虚拟环境表示模拟的物理空间。虚拟环境的一些示例包括湖泊环境、山脉环境、日落场景、日出场景、夜间环境、草地环境和/或音乐会场景。在一些实施方案中,虚拟环境基于真实物理位置,诸如博物馆和/或水族馆。在一些实施方案中,虚拟环境是艺术家设计的位置。因此,显示虚拟环境任选地向用户提供了如同用户物理地位于虚拟环境中一样的虚拟体验。在一些实施方案中,第一视觉效果任选地包括第一着色效果,其中着色的颜色基于应用程序窗口和虚拟环境两者的颜色以提供组合着色效果,诸如与应用程序窗口相关联的着色效果和与虚拟环境相关联的着色效果的叠加或组合。例如,第一视觉效果任选地包括第一调光量,其中调光量基于与应用程序窗口相关联的调光设置和与虚拟环境相关联的调光设置的组合。基于应用程序窗口和虚拟环境两者将视觉效果应用于现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,虚拟内容包括虚拟环境(例如,如前所述),并且以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示(例如,如参考步骤1102a所描述的)包括根据确定虚拟环境是第一虚拟环境(例如,如果虚拟环境是图10A的虚拟环境1020a),以包括与第一虚拟环境相关联的第一着色效果的第一视觉效果呈现现实世界对象的表示。在一些实施方案中,第一着色效果对应于以基于第一虚拟环境的颜色的第一颜色来着色现实世界对象的表示。
在一些实施方案中,虚拟内容包括虚拟环境(例如,如前所述),并且以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示(例如,如参考步骤1102c所描述的)包括根据确定虚拟环境是不同于第一虚拟环境的第二虚拟环境(例如,如果虚拟环境是图10B的虚拟环境1020b),以包括与第二虚拟环境相关联的第二着色效果的第一视觉效果呈现现实世界对象的表示,第二着色效果不同于第一着色效果。例如,如果图10D的虚拟环境是虚拟环境1020b而不是虚拟环境1020a,则视觉效果将任选地与图10D中所示的不同。在一些实施方案中,第二着色效果对应于以基于第二虚拟环境的颜色的第二颜色来将现实世界对象的表示着色。在一些实施方案中,不同的虚拟环境与不同的着色相关联(例如,请求),并且计算机系统基于来自虚拟环境的请求来应用着色。基于所显示的特定虚拟环境将着色应用于现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,在以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示之前,计算机系统不以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示,诸如参考图10A所描述的。任选地,现实世界对象的表示不以应用于现实世界对象的表示的任何视觉效果呈现,或者以应用于现实世界对象的表示的第二(不同)视觉效果呈现。例如,在显示与第一视觉效果相关联的虚拟环境之前,现实世界对象的表示任选地不以第一视觉效果呈现。
在一些实施方案中,在不以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示时(例如,如上所述),计算机系统检测显示虚拟环境的请求。任选地,显示虚拟环境的请求包括选择用于显示的虚拟环境的用户输入。任选地,响应于来自计算机系统或来自与计算机系统通信的另一计算机系统的请求来显示虚拟环境。
在一些实施方案中,响应于检测到显示虚拟环境的请求,计算机系统显示虚拟环境,其中基于显示虚拟环境(例如,在显示虚拟环境之后和/或同时)(诸如参考图10A所描述的)来以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示(例如,如参考权利要求1所描述的)。例如,与虚拟环境相关联的视觉效果被任选地应用于用户的手1010b的表示。当显示虚拟环境时(而不是在显示虚拟环境之前)将视觉效果应用于现实世界对象的表示减少与呈现现实世界对象的表示相关联的干扰,从而降低与计算机系统的错误交互的可能性。
应当理解,对方法1100中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图12A至图12Q示出了基于背景的状态并响应于检测到各种事件而将视觉效果应用于背景(例如,包括虚拟环境和/或物理环境的表示)的计算机系统的示例。
图12A示出了计算机系统(例如,电子设备)101经由显示生成部件(例如,图1的显示生成部件120)从计算机系统101的用户(例如,用户1210)的视点(例如,面向计算机系统101所处的物理环境的后壁)呈现(例如,显示或以其他方式使其可见,诸如经由光学透传)三维环境1202。在一些实施方案中,计算机系统101包括显示生成部件(例如,触摸屏)、多个图像传感器(例如,图3的图像传感器314)和一个或多个物理或固态按钮1203。图像传感器任选地包括以下中的一者或多者:可见光相机;红外相机;深度传感器;或当用户与计算机系统101交互时计算机系统101能够用来捕获用户或用户的一部分(例如,用户的一只或多只手)的一个或多个图像的任何其他传感器。在一些实施方案中,下文示出和描述的用户界面(例如,虚拟环境和/或其他虚拟内容)还可在头戴式显示器上实现,该头戴式显示器包括向用户显示用户界面或三维环境的显示生成部件,以及检测物理环境和/或用户的手部的移动的传感器(例如,从用户面向外的外部传感器)和/或检测用户的注意力(例如,注视)的传感器(例如,朝向用户的面部面向内的内部传感器)。
在图12A的示例中,计算机系统101在三维环境1202中显示虚拟内容1206a(例如,如参考方法800、900、1100、1300、1500所描述的),同时包括第一虚拟环境1220a和物理环境1208的表示(例如,如参考方法1100和/或1300所描述的)的背景在三维环境1202中可见。例如,背景是可见的,因为它由计算机系统101显示和/或经由光学透传可见。任选地,背景中的一些或全部看起来在虚拟内容1206后方,诸如从用户1210的角度来看比虚拟内容1206更深的深度处(例如,如由俯视图1212中所示的空间关系所描绘的)。例如,从用户1210的角度来看,虚拟内容1206a任选地遮挡背景的一部分。在图12A中,背景处于第一状态(由图例“状态1”指示),其任选地对应于当日日间时间设置(例如,其中虚拟环境1220a和/或物理环境1208的表示以日间亮度和/或着色显示,诸如参考方法1300所描述的)。任选地,虚拟内容1206a与诸如参考方法1100、1300和/或1500所描述的视觉效果相关联。例如,虚拟内容1206a任选地与调光效果(例如,相对于虚拟内容1206a调暗背景,使得虚拟内容1206a在视觉上比背景更突出)和/或着色效果(例如,将背景着色成特定颜色,和/或改变背景的饱和度,诸如将其从彩色改变为黑白色)相关联。在图12A中,用户1210当前正在将其注意力从虚拟内容1206a引导离开,诸如通过看三维环境1202中的其他地方(例如,由注视点1205a指示),并且与虚拟内容1206a相关联的视觉效果未应用于背景(例如,应用于虚拟环境1220a和物理环境1208的表示)。在一些实施方案中,根据确定用户1210没有将其注意力指向虚拟内容1206a,计算机系统101放弃应用与虚拟内容1206a相关联的视觉效果。
从图12A到图12B,用户1210已经将其注意力指向虚拟内容1206a,诸如通过看着虚拟内容1206a(例如,由注视点1205b指示)和/或提供指向虚拟内容1206的输入。响应于检测到用户已经将其注意力指向虚拟内容1206a,并且根据确定背景处于第一状态,计算机系统101将与虚拟内容1206a相关联的视觉效果应用于背景,诸如通过根据视觉效果将背景调暗和/或着色。在图12B的示例中,计算机系统101将虚拟环境1220a和物理环境1208的表示调暗和/或着色(例如,根据视觉效果),如相对于图12A在这些元素上的图案和阴影所指示的。
任选地,如果虚拟内容1206a包括视觉媒体内容(例如,电影或视频),则计算机系统101基于媒体内容的状态(例如,回放状态)将视觉效果应用于背景或放弃将视觉效果应用于背景,诸如参考方法1300所描述的。例如,计算机系统101任选地在媒体内容正在播放时将视觉效果应用于背景(例如,响应于检测到用户1210已经将其注意力指向媒体内容),诸如图12C所示,并且在媒体内容被停止或暂停时放弃将视觉效果应用于背景,诸如图12D所示。例如,当媒体内容被停止或暂停时,即使当计算机系统101检测到用户1210已经将其注意力指向媒体内容时,计算机系统101任选地不将视觉效果应用于背景,如图12D的示例所描绘的。任选地,计算机系统101在媒体内容正在播放时应用视觉效果(例如,如图12C所示)而不改变背景的状态(例如,在图12C中,在计算机系统101将视觉效果应用于背景之后和/或同时,背景仍处于第一状态)。
图12E至图12F描绘了图12A和图12B的替代方案,其中背景处于任选地对应于当日夜间时间设置的第二状态(例如,其中虚拟环境1220a和/或物理环境1208的表示以夜间亮度和/或着色显示,诸如参考方法1300所描述的)。例如,虚拟环境1220a和/或物理环境1208的表示任选地由计算机系统101在第二状态下操作时比在第一状态下操作时以更低的亮度(更多的调光)和/或以不同的颜色着色显示。任选地,当在第二状态下显示时,虚拟环境1220a包括与当在第一状态下显示时不同的虚拟元素,诸如通过当虚拟环境1220a在第一状态下显示时包括太阳并且当虚拟环境1220a在第二状态下显示时包括月亮。任选地,当背景处于第二状态时,即使当用户的注意力指向与视觉效果相关联的虚拟内容1206a时,计算机系统101也放弃将视觉效果应用于背景,诸如图12E至图12F的序列所描绘的。例如,在图12F中,计算机系统101任选地不以视觉效果呈现背景(即使用户的注意力指向虚拟内容1206a),因为第二状态下的背景任选地已经被调暗和/或着色(例如,基于在第二状态下操作的背景)。
在一些实施方案中,计算机系统101响应于检测到背景的状态已经从第二状态改变为第一状态而将视觉效果应用于背景。例如,在图12F中,计算机系统101放弃应用视觉效果,因为背景处于第二状态(例如,如上所述)。在一些实施方案中,如果背景的状态从第二状态改变为第一状态,则计算机系统101响应于检测到背景已经改变为第一状态(并且任选地,响应于确定用户1210正在将其注意力指向虚拟内容1206a)而任选地将视觉效果应用于背景(例如,如图12B所示)。
在一些实施方案中,计算机系统101响应于检测到背景的状态已经从第一状态改变为第二状态而停止应用视觉效果。例如,如果计算机系统101正在应用如图12B所示的视觉效果(例如,当背景处于第一状态时)并检测到背景已经改变为第二状态,则计算机系统101任选地响应于检测到背景已经改变为第二状态而停止显示视觉效果(例如,放弃显示视觉效果),如图12F所示。
任选地,计算机系统101响应于检测到与对接媒体内容的请求相对应的用户输入而将背景的状态改变为第二状态,诸如参考方法1300所描述的。例如,在图12G中,用户已经请求将虚拟内容1206a(例如,包括视觉媒体内容)对接在虚拟环境1220a内,并且响应于检测到该请求,计算机系统101对接虚拟内容1206a并将背景的状态设置为第二状态(例如,通过从另一状态改变为第二状态,或者如果背景已经处于第二状态则通过将背景的状态保持在第二状态)。任选地,对接虚拟内容1206a包括将虚拟内容1206a(例如,更新虚拟内容1206a的虚拟位置)移动到相对于用户1210的视点更大的空间深度(例如,更远),任选地使得它(对用户1210而言)看起来比用户的物理环境中的障碍物(诸如墙壁)更远离用户1210。任选地,对接虚拟内容1206a包括相对于其在对接之前的尺寸扩大虚拟内容1206a的尺寸。例如,对接虚拟内容1206a任选地使得虚拟内容1206a看起来好像它是位于距用户1210类似于在电影院中将体验的空间深度处的大电影屏幕,以便提供更沉浸式的观看体验。
如图12G所示,当背景处于第二状态时,计算机系统101基于背景处于第二状态将视觉效果应用于背景,诸如由图12G中所示的阴影和图案所指示的(其任选地基于图12F中的背景也处于第二状态,与图12F中所示的相同)。
在一些实施方案中,计算机系统101基于背景中显示的虚拟环境来选择要应用于背景的视觉效果。例如,计算机系统任选地根据哪个虚拟环境显示在背景中,将不同的视觉效果应用于背景。
例如,图12H和图12I描绘了图12A和图12B的替代方案,其中计算机系统101正在显示第二虚拟环境1220b(不同于图12A和图12B中所示的虚拟环境1220a)。响应于检测到用户的注意力指向虚拟内容1206a(和/或响应于检测到背景正在第一状态下操作或已改变为在第一状态下操作),计算机系统101将第二视觉效果应用于背景(例如,应用于第二虚拟环境1220b和/或物理环境1208的表示)。第二视觉效果任选地不同于图12B中所描绘的视觉效果,诸如由图12I中相对于图12B的不同图案和阴影所指示的。
在一些实施方案中,当背景处于第二状态时,计算机系统101独立于显示哪个虚拟环境而将相同着色应用于背景(例如,对应于第二状态的着色),或者对于多个不同虚拟环境将相同着色应用于背景。例如,返回图12F,计算机系统101基于背景处于第二状态将第一着色应用于虚拟环境1220a和/或物理环境1208的表示。图12J描绘了一个示例,其中背景包括与图12F中不同的虚拟环境(第二虚拟环境1220b),并且计算机系统101基于背景处于第二状态将与图12F中相同的着色应用于背景(例如,尽管显示不同的虚拟环境)。
在一些实施方案中,计算机系统101在虚拟内容处于活动状态时应用与虚拟内容相关联的视觉效果,但在虚拟内容不处于活动状态时不应用视觉效果(例如,诸如参考方法1500所描述的)。图12K描绘了一个示例,其中虚拟内容1206a不处于活动状态,并且计算机系统101基于虚拟内容1206a不处于活动状态而放弃应用与虚拟内容1206相关联的视觉效果(任选地,不管用户1210是否正在将其注意力指向虚拟内容1206a)。
图12L描绘了包括虚拟内容1206a(例如,如先前所描述的任选地与第一视觉效果相关联)和虚拟应用程序窗口1206b(例如,用于与应用程序交互的应用程序窗口,诸如参考方法1300所描述的)以及包括第二虚拟环境1220b和物理环境1208的表示的背景的三维环境1002。在一些实施方案中,当计算机系统101在诸如图12L所示的三维环境1202中显示应用程序窗口1206b并且应用程序窗口1206b与第二视觉效果相关联时,当计算机系统101将视觉效果应用于背景中的一些或全部(例如,应用于第二虚拟环境1220b和/或物理环境1208的表示)时,计算机系统应用包括与虚拟内容1206a(如果有的话)相关联的第一视觉效果和与应用程序窗口1206b相关联的第二视觉效果的视觉效果。例如,计算机系统101任选地应用基于第一视觉效果和第二视觉效果的复合视觉效果,而不是仅应用与虚拟内容1206a相关联的第一视觉效果,诸如由图12L的相对于图12I的不同阴影和图案所指示的。
任选地,由计算机系统101应用的第二视觉效果(例如,与应用程序窗口1206b相关联的视觉效果)取决于应用程序窗口1206b的状态。例如,应用程序窗口1206b任选地被配置为当应用程序窗口处于第一状态时,诸如当它处于活动状态和/或显示具有显著兴趣或情感强度的内容(诸如视频游戏中的过场动画)时,请求第一相应视觉效果(例如,具有高背景调光),并且当应用程序窗口1206b处于第二状态时,诸如当它处于非活动状态和/或显示较不重要的内容时,请求第二相应视觉效果(例如,具有较少背景调光)。因此,计算机系统101任选地基于应用程序窗口1206b的状态来选择第二视觉效果(例如,与应用程序窗口1206b相关联的视觉效果)。例如,在图12L中,计算机系统101根据确定应用程序窗口处于第一状态来任选地应用与应用程序窗口1206b相关联的第一相应视觉效果(任选地,结合与虚拟内容1206a相关联的第一视觉效果)。在图12M中,计算机系统101根据确定应用程序窗口1206b处于第二状态(例如,由应用程序窗口1206b的灰色内部和减小的边界厚度指示)来任选地应用与应用程序窗口1206b相关联的第二相应视觉效果(任选地,结合与虚拟内容1206a相关联的第一视觉效果)。
在一些实施方案中,计算机系统101将相同量的视觉效果(例如,作为调光和/或着色的百分比)应用于背景,而与背景中显示的虚拟环境的沉浸水平(例如,诸如参考方法1300所描述的沉浸水平)无关。例如,计算机系统101任选地将与图12O(其中虚拟环境1220a以大于第一沉浸水平的第二沉浸水平显示)中相同量的视觉效果应用于图12N(其中虚拟环境1220a以第一沉浸水平显示)中的背景,如由两个图中的背景上的相同阴影和图案所指示的。在一些实施方案中,随着沉浸水平的增加,计算机系统101逐渐增加应用于背景的视觉效果的量,任选地直到其达到阈值沉浸水平(例如,诸如45%沉浸度),此后视觉效果的量不再进一步增加。
在一些实施方案中,当用户离开背景中的虚拟环境时,计算机系统101减少应用于背景的视觉效果的量,诸如参考方法1300所描述的。例如,从图12N到图12P,用户1210已转离不再面向虚拟环境1220a(例如,用户的视点不再指向虚拟环境1220a),并且作为响应,计算机系统101减少应用于背景的视觉效果的量(例如,如图12P中相对于图12N的较浅阴影和图案所示)。在一些实施方案中,计算机系统101根据用户1210的移动(例如,转动)逐渐减少应用于背景的视觉效果的量。在一些实施方案中,计算机系统101不会开始减少应用于背景的视觉效果的量,直到用户1210已将其视点旋转超过阈值角度远离虚拟环境1220a,使得用户的视点的微小改变不会导致视觉效果的量的减少。在一些实施方案中,当虚拟环境的沉浸水平较低时,计算机系统101开始减少视觉效果的量的阈值角度较小。例如,如果用户1210在虚拟环境中的沉浸度较低,则用户1210更容易(例如,需要较少的旋转)转离足够的量以导致视觉效果的量减少。例如,如果虚拟环境以75%沉浸度显示,则计算机系统101任选地在用户以第一角度旋转远离不再面向虚拟环境1220a的情况下减少视觉效果的量。相比之下,如果虚拟环境以30%沉浸度显示,则计算机系统101任选地在用户以第二角度旋转远离不再面向虚拟环境1220a的情况下减少视觉效果的量,其中第二角度小于第一角度。
在一些实施方案中,计算机系统101将视觉效果应用于经由计算机系统101可见的现实世界对象,诸如已经移动到计算机系统101的视场中的现实世界对象。例如,从图12B到图12Q,用户1210已经将他们的手1210a移动到计算机系统101的视场中,同时计算机系统101将视觉效果应用于背景,并且作为响应,计算机系统101将视觉效果应用于经由计算机系统101可见的用户的手1210b的表示。参考方法1100提供了关于将视觉效果应用于现实世界对象的更多细节。
图12Q1示出了与图12Q中所示的概念类似和/或相同的概念(具有许多相同的附图标记)。应当理解,除非下面指出,否则图12Q1中所示的具有与图12A至图12Q中所示的元件相同的附图标记的元件具有一个或多个或全部相同特性。此外,图12Q1中的手1210b周围的虚线框与图12Q中的手1210b上示出的图案相对应。图12Q1包括计算机系统101,其包括显示生成部件120(或与之相同)。在一些实施方案中,计算机系统101和显示生成部件120分别具有图12A至图12Q中所示的计算机系统101和图1和图3中所示的显示生成部件120的一个或多个特性,并且在一些实施方案中,图12A至图12Q中所示的计算机系统101和显示生成部件120具有图12Q1中所示的计算机系统101和显示生成部件120的一个或多个特性。
在图12Q1中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分上,以使得能够对用户的左眼和右眼进行眼睛跟踪。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考图12A至图12Q描述的图像传感器314的一个或多个特性。
在图12Q1中,显示生成部件120被示出为显示这样的内容,该内容任选地对应于参考图12A至图12Q被描述为经由显示生成部件120显示和/或可见的内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图12Q1中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图12Q1中所示出的内容的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
在图12Q1中,用户被描绘为执行空中捏合手势(例如,用手1210b)以向计算机系统101提供输入,从而提供针对由计算机系统101显示的内容的用户输入。这种描述旨在是示例性的而不是限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,参考图12A至图12Q所描述的。
在一些实施方案中,计算机系统101响应于用户输入,如参考图12A至图12Q所描述的。
在图12Q1的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境内可见。也就是说,用户可以任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。应当理解,如图12A至图12Q中所示或参考图12A至图12Q所述和/或参考对应方法所述的本公开的一个或多个或所有方面任选地以与图12Q1中所示类似或相似的方式在计算机系统101和显示生成单元120上实现。
图13是示出根据一些实施方案的计算机系统将视觉效果应用于背景的方法的流程图。在一些实施方案中,方法1300在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法1300通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法1300中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法1300在与显示生成部件通信的计算机系统处执行。在一些实施方案中,计算机系统具有参考方法800、900、1100和/或1500所描述的计算机系统的特性中的一个或多个特性。在一些实施方案中,显示生成部件具有参考方法800、900、1100和/或1500所描述的显示生成部件的特性中的一个或多个特性。
在一些实施方案中,在背景(例如,计算机系统的用户的物理环境的一部分的表示和/或虚拟环境(诸如参考方法1100所描述的虚拟环境)的表示)在虚拟内容(诸如参考图12A所描述的虚拟内容1006a和背景)后面的三维环境的第二部分中可见(例如,从计算机系统的用户的视点来看,在比虚拟内容更大的空间深度处,任选地围绕虚拟内容)的同时经由显示生成部件在三维环境的第一部分中显示(1302a)虚拟内容时,计算机系统检测(1302b)与虚拟内容相对应的事件,诸如检测到用户已经将其注意力转移到图12B中的虚拟内容1206a(例如,指示虚拟内容的聚焦状态的事件,诸如用户注意力指向虚拟内容、用户注意力指向虚拟内容超过时间阈值、输入指向虚拟内容、虚拟内容的状态的改变,诸如虚拟内容开始播放,和/或与内容相对应的指示虚拟内容应当相对于背景被强调的另一事件)。在一些实施方案中,三维环境具有参考方法800、900、1100和/或1500所描述的三维环境的特性中的一个或多个特性。在一些实施方案中,虚拟内容具有参考方法800、900、1100和/或1500所描述的虚拟内容的特性中的一个或多个特性。任选地,被虚拟内容覆盖的背景的一部分被虚拟内容遮挡(例如,如果虚拟内容是不透明的,则其完全不可见,或者如果虚拟内容是部分透明的,则其相对于背景的其他部分以减小的视觉突出性可见)。
在一些实施方案中,响应于检测到与虚拟内容相对应的事件,根据确定背景的状态是第一状态(例如,诸如图12B中所描绘的第一状态),计算机系统以应用于背景的第一视觉效果(例如,与虚拟内容相关联的虚拟和/或模拟视觉效果,诸如虚拟内容被配置为请求应用的视觉效果)呈现(1302d)(例如,显示或以其他方式变得可见,诸如使用虚拟或光学透传)背景,诸如图12B所示。在一些实施方案中,第一视觉效果具有参考方法1100所描述的第一视觉效果的特性中的一个或多个特性。在一些实施方案中,将第一视觉效果应用于背景包括调暗背景、降低背景的亮度、降低背景的饱和度和/或改变背景的着色。在一些实施方案中,背景的状态对应于与背景相关联的照明设置(例如,针对背景中的一些或全部和/或针对计算机系统配置),该照明设置指定背景的基线(例如,在应用视觉效果之前)亮度、饱和度和/或颜色着色,诸如当日时间设置(例如,早上、白天、晚上、夜间或当日另一时间)、光照模式设置(例如,其中背景中的一些或全部和/或虚拟内容以较浅的颜色、增加的亮度、增加的饱和度和/或第一颜色着色呈现)和/或黑暗模式设置(例如,其中背景中的一些或全部和/或虚拟内容以较深的颜色、减少的亮度、减少的饱和度和/或第二颜色着色呈现)。例如,在一些实施方案中,第一状态对应于计算机系统在浅模式下操作。
在一些实施方案中,响应于检测到与虚拟内容相对应的事件,根据确定背景的状态不是第一状态,诸如当它处于如图12F所示的第二状态时(例如,背景的状态是第二状态、第三状态或另一状态),计算机系统不以第一视觉效果呈现(1302e)背景,诸如参考图12F所描述的。任选地,当计算机系统不以第一视觉效果呈现背景时,计算机系统不以任何视觉效果(例如,没有任何着色和/或亮度调整)呈现背景,诸如基于默认(或以其他方式配置的)亮度和/或着色设置和/或基于环境亮度和/或着色(例如,用于物理环境的一部分的表示)。任选地,当计算机系统不以第一视觉效果呈现背景时,计算机系统以不同于第一视觉效果的第二、第三或其他视觉效果呈现背景,其中第二、第三或其他视觉效果对应于背景的不同(例如,第二、第三或其他)状态。例如,当背景与第二状态相关联时(例如,当背景的状态是第二状态时),计算机系统任选地以与背景与第一状态相关联时不同的亮度和/或不同的颜色呈现背景。
例如,如果背景在光照和/或白天模式下操作,使得背景中的虚拟环境和/或物理环境的表示以更浅的颜色和增加的亮度呈现,则计算机系统任选地将第一视觉效果应用于背景(例如,响应于检测到事件)以调暗背景(例如,以使背景相对于虚拟内容在视觉上更不突出并且从而强调虚拟内容)。例如,如果背景在黑暗和/或夜间模式下操作,使得背景中的虚拟环境和/或物理环境的表示以更深的颜色和降低的亮度呈现,则计算机系统任选地放弃响应于事件将第一视觉效果应用于背景,因为背景任选地已经比虚拟内容在视觉上更不突出。当背景处于第一状态(例如,白天状态,其中背景任选地相对较亮)时将与虚拟内容相关联的视觉效果应用于背景(例如,应用减小背景的视觉突出性的调光或着色效果),并且当背景处于第二状态(例如,夜间状态,其中背景任选地已经相对较暗)时放弃应用视觉效果或应用不同的视觉效果提高了虚拟内容相对于背景的可见性,而不会不必要地改变背景的可见性(例如,如果背景已经很暗,则不进一步调暗背景)。
在一些实施方案中,背景包括计算机系统的用户的物理环境的表示,诸如参考图12A所描述的物理环境1208的表示。在一些实施方案中,计算机系统的用户的物理环境的表示具有参考方法1100和/或1500所描述的物理环境的表示的特性中的一个或多个特性。在一些实施方案中,使用虚拟或光学透传来呈现(例如,可见)物理环境的表示。在一些实施方案中,以第一视觉效果呈现背景包括经由光学透传以覆盖在光学透传上和/或过滤光学透传的虚拟视觉效果呈现物理环境的表示。在一些实施方案中,以第一视觉效果呈现背景包括显示物理环境的虚拟表示,其中虚拟视觉效果应用于虚拟表示。将视觉效果应用于物理环境的表示(当它包括在背景中时)提高了虚拟内容相对于物理环境的表示的可见性。
在一些实施方案中,其中背景包括虚拟环境,诸如参考图12A所描述的虚拟环境1220a(例如,计算机生成和/或模拟的三维环境,诸如参考方法800、900、1100和/或1500所描述的)。将视觉效果应用于虚拟环境(当它包括在背景中时)提高了虚拟内容相对于虚拟环境的可见性。
在一些实施方案中,虚拟内容包括视觉媒体内容(例如,当它正在播放时随时间改变的游戏和/或视频内容),诸如图12C所示。在一些实施方案中,检测事件包括检测视觉媒体内容的状态是第一状态(例如,视觉媒体内容正在播放或已经开始播放,如图12C所示)。在一些实施方案中,如果视觉媒体内容的状态是第一状态(例如,视觉媒体内容当前正在播放或已经开始以正常回放速度播放以供观看),则计算机系统将第一视觉效果应用于背景。在一些实施方案中,如果视觉媒体内容的状态是第一状态,则视觉效果包括与视觉媒体内容相关联的第一着色和/或第一亮度。在一些实施方案中,如果视觉媒体内容的状态是第二状态(例如,视觉媒体内容未主动播放,诸如当它被暂停、停止和/或倒带或快进时),则计算机系统放弃应用第一视觉效果,并且任选地不将任何视觉效果应用于背景。在一些实施方案中,如果视觉媒体内容的状态是第二状态,则计算机系统将第二视觉效果应用于背景,其中第二视觉效果任选地包括与视觉媒体内容相关联的第二着色和/或第二亮度(例如,不同于第一着色和/或第一亮度)。例如,计算机系统任选地在内容当前正在播放时比在内容被停止或暂停时将更多的调光和/或着色应用于背景。基于内容的状态(诸如内容是否正在播放)将视觉效果应用于背景提高了内容在其正在播放时相对于背景的可见性,同时在内容被停止或暂停时(例如,当用户可能没有主动观看内容时)保持背景的更好可见性。
在一些实施方案中,检测事件包括检测用户注意力指向虚拟内容,诸如参考图12B所描述的。(例如,检测用户的注视指向虚拟内容、虚拟内容当前正在播放、用户已经与虚拟内容交互(或当前正在交互)(例如,在阈值时间量内最近与之交互)和/或用户已经激活虚拟内容,诸如通过选择虚拟内容和/或向与虚拟内容相关联的应用程序提供输入)。在一些实施方案中,如果用户的注意力指向虚拟内容,则计算机系统将第一视觉效果应用于背景。在一些实施方案中,如果用户的注意力没有指向虚拟内容,则计算机系统放弃应用第一视觉效果,并且任选地不将任何视觉效果应用于背景。在一些实施方案中,如果用户的注意力没有指向虚拟内容,则计算机系统将第二视觉效果应用于背景,其中第二视觉效果任选地与用户的注意力指向的其他虚拟内容相关联。当用户正在观看虚拟内容和/或与虚拟内容交互时,基于用户是否正在将其注意力指向虚拟内容来将视觉效果应用于背景提高了虚拟内容相对于背景的可见性,而当用户不在观看虚拟内容和/或与虚拟内容交互时保持背景的更好可见性。
在一些实施方案中,背景包括虚拟环境,并且背景的第一状态对应于虚拟环境的第一当日时间设置(例如,管理虚拟环境的颜色、着色、亮度和/或虚拟内容的第一设置,诸如先前描述的光照模式和/或当日时间设置),并且虚拟环境的第二状态对应于不同于第一当日时间设置的第二当日时间设置,诸如参考图12A所描述的(例如,管理虚拟环境的颜色、着色、亮度和/或虚拟内容的第二模式,诸如先前描述的黑暗模式)。例如,当虚拟环境显示为模拟的白天虚拟环境(例如,白天期间的海滩或天空,其任选地相对较亮,包括更浅的颜色,和/或当其被模拟为夜间环境时相对于相同的环境被着色为更偏黄色或橙色)时,计算机系统任选地将视觉效果应用于背景(诸如调光),并且当虚拟环境显示为模拟的夜间虚拟环境(例如,夜晚期间的海滩或天空,其任选地较暗,包括更深的颜色,和/或当其被模拟为白天环境时相对于相同的虚拟环境被着色为更偏蓝色或灰色)时,计算机系统放弃应用视觉效果(或应用不同的视觉效果,诸如更少的调光和/或不同的着色)。基于背景中的虚拟环境的当日时间特性将不同视觉效果应用于背景(或放弃应用任何视觉效果)在背景原本将在视觉上过于突出时(例如,当虚拟环境处于日间模式时)提高虚拟内容相对于背景(例如,相对于虚拟环境并且任选地相对于透传环境)的可见性,同时在背景相对于内容不是在视觉上过于突出时(例如,当虚拟环境处于夜间模式时)保持背景的更好可见性。
在一些实施方案中,第一状态对应于当日日间时间设置(例如,如上所述),第二状态对应于当日夜间时间设置(例如,如上所述),并且背景处于第二状态。在一些实施方案中,根据确定状态不是第一状态(例如,如参考步骤1302e所描述的),不以第一视觉效果呈现背景包括不以基于背景处于第二状态的任何视觉效果呈现背景,如参考图12F所描述的。在一些实施方案中,当背景处于一些状态而不处于其他状态时,即使当应用程序请求视觉效果时,将视觉效果应用于背景。例如,当背景处于当日夜间时间模式时(其中背景已经被调暗和/或着色),视觉效果任选地不显示。当背景处于当日夜间时间状态时放弃应用视觉效果,当背景相对于内容在视觉上不是太突出时(例如,当背景中的虚拟环境处于夜间模式时)保持背景的更好可见性。
在一些实施方案中,检测事件包括在显示虚拟内容时,诸如当背景的状态从图12F中的第二状态改变为图12B中的第一状态时,检测背景的状态已经改变(例如,从任选地与如上所述的当日夜间时间设置相关联的第二状态)为第一状态(例如,与如上所述的当日日间时间设置相关联的状态)。在一些实施方案中,检测背景的状态已经改变包括检测请求改变背景的状态的用户输入,诸如通过改变与计算机系统和/或与背景的虚拟环境相关联的配置设置。在一些实施方案中,检测背景的状态已经改变包括检测计算机系统的当日时间(例如,由计算机系统的时钟报告的当日时间)已经达到阈值当日时间(例如,黎明、黄昏、中午、午夜或另一阈值当日时间)。在一些实施方案中,检测背景的状态已经改变包括检测计算机系统周围的环境照明已经达到阈值照明值(例如,按照辐射率、流明、勒克斯或表征白天照明、夜间照明、黎明照明、黄昏照明或其他照明的其他量)。在一些实施方案中,当计算机系统检测到状态已经改变为第一状态时,计算机系统开始将第一视觉效果应用于背景并且在背景处于第一状态时继续将第一视觉效果应用于背景(并且任选地,基于用户的注意力指向虚拟内容)。当背景切换到第一状态时(例如,当从夜间状态切换到白天状态时)应用视觉效果提高了当背景变得在视觉上更突出时内容相对于背景的可见性。
在一些实施方案中,检测事件包括在显示虚拟内容时检测背景的状态已经改变为第二状态(例如,与如上所述的当日夜间时间设置相关联的第二状态),并且其中不以第一视觉效果呈现背景包括不以与第二状态相对应的视觉效果(例如,不以任何视觉效果或以不与当日夜间时间设置相对应的不同视觉效果)呈现背景,而与虚拟内容是否与第一视觉效果相关联无关,诸如参考图12F所描述的。例如,如果虚拟内容与指定调光量的第一视觉效果相关联,则第一视觉效果任选地在(例如,当)其处于第一状态时应用于背景,并且在背景改变为第二状态时停止应用。当背景切换到第二状态时(例如,当从白天状态切换到夜间状态时)放弃将视觉效果应用于背景,当背景相对于内容在视觉上不是太突出时保持背景的更好可见性。
在一些实施方案中,虚拟内容包括媒体内容(例如,当正在播放时随时间改变的虚拟视听媒体内容),并且背景处于第一状态,如图12D所示。
在一些实施方案中,在包括背景的三维环境中显示媒体内容时(例如,在三维环境的在背景的虚拟环境之外和/或前方(从用户的视点的角度来看)的区域中显示媒体内容,诸如在三维环境的透传部分中,并且不在三维环境中用于媒体内容的专用相应位置处),并且在媒体内容未播放时,如图12D所示(例如,媒体内容被暂停或停止),计算机系统经由一个或多个输入设备检测与播放媒体内容的请求相对应的第一输入(例如,用于播放媒体内容的示能表示的选择和/或指向媒体内容的注视(任选地,持续超过阈值持续时间,诸如超过.01、.1、.5、1.、1.5、5或10秒))。
在一些实施方案中,响应于检测到第一输入,计算机系统在包括背景的三维环境中播放媒体内容,诸如图12C所示(例如,使得媒体内容随时间而改变)。任选地,响应于检测到第一输入(例如,作为与虚拟内容相对应的事件),计算机系统显示应用于背景的第一视觉效果。在一些实施方案中,响应于检测到第一输入,背景保持在第一状态中。在一些实施方案中,响应于检测到第一输入,背景转变到第二状态,下文进一步描述。
在一些实施方案中,在包括背景的三维环境中播放媒体内容的同时显示媒体内容时,如图12C所示,计算机系统经由一个或多个输入设备检测与在背景中的媒体内容的相应位置处显示媒体内容的请求相对应的第二输入,诸如对接媒体内容(例如,在背景的虚拟环境内)的请求。在一些实施方案中,媒体内容的相应位置是背景中用于显示媒体内容(例如,任何媒体内容)的预定位置,诸如可以对接媒体内容的位置。在一些实施方案中,第二输入包括用于在相应位置处显示媒体内容(例如,用于对接媒体内容)的示能表示的选择,并且任选地响应于检测到示能表示的选择,计算机系统显示将媒体内容移动到相应位置的动画。在一些实施方案中,第二输入包括指向媒体内容的注视和/或转移到相应位置。在一些实施方案中,第二输入包括空中手势,诸如将媒体内容虚拟地“推”到背景中的相应位置中的推或捏手势。
在一些实施方案中,响应于检测到第二输入,计算机系统在背景中(例如,在背景的虚拟环境中)的媒体内容的相应位置处显示媒体内容,并且将背景的状态改变为第二状态,诸如图12G所示。任选地,将背景的状态改变为第二状态包括停止显示应用于背景的第一视觉效果。任选地,在背景中的媒体内容的相应位置处显示媒体内容包括改变媒体内容的视觉特性,诸如增加媒体内容的显示尺寸和/或增加媒体内容的沉浸水平。当媒体内容对接在虚拟环境中时改变虚拟环境的当日时间设置(例如,改变为当日夜间时间设置)增加了媒体内容相对于虚拟环境的视觉突出性,从而为用户提供更好的可见性。
在一些实施方案中,检测事件(例如,如参考步骤1302a所描述的)包括检测第一输入(例如,如上所述)。例如,背景中显示的虚拟环境任选地以当日日间时间设置显示,并且应用视觉效果将调光和/或着色应用于虚拟环境而不将虚拟环境改变为当日夜间时间设置。将视觉效果应用于背景而不改变当日时间(例如,在播放媒体内容时)增加了媒体内容相对于背景的视觉突出性而不改变背景中显示的虚拟环境的当日时间,从而潜在地避免了当媒体内容停止播放(或停止显示)时用户将虚拟环境的当日时间改回其原始值的需要。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括:根据确定背景包括第一虚拟环境(例如,如前所述并参考方法1100所描述的虚拟环境),以对应于第一虚拟环境的第一相应视觉效果呈现背景,诸如参考图12H所描述的。例如,第一相应视觉效果任选地包括第一调光效果和/或第一着色效果(例如,使用第一颜色着色)。任选地,第一虚拟环境被配置为请求第一相应视觉效果。任选地,计算机系统基于第一虚拟环境的视觉特性(诸如第一虚拟环境的颜色)来确定第一相应视觉效果。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括根据确定背景包括不同于第一虚拟环境的第二虚拟环境,以与第二虚拟环境相对应的不同于第一相应视觉效果的第二相应视觉效果呈现背景,诸如参考图12I所描述的。例如,第二相应视觉效果任选地包括第二调光效果和/或第二着色效果(例如,使用不同于第一颜色着色的第二颜色着色)。基于所显示的特定虚拟环境来应用不同的视觉效果提供了对背景的视觉效果的更好定制,从而提高虚拟内容相对于背景的可见性。
在一些实施方案中,根据确定背景处于第二状态(例如,如参考步骤1302e所描述的)而不以第一视觉效果呈现背景包括以不同于第一和第二相应视觉效果的第三相应视觉效果(例如,任选地包括第三调光效果和/或第三着色效果,其中第三调光效果和第三着色效果中的一者或两者不同于第一调光效果、第二调光效果、第一着色效果和/或第二着色效果)呈现背景,该第三相应视觉效果与背景是包括第一虚拟环境还是第二虚拟环境无关(例如,不依赖于此),诸如如果当背景处于第二状态时在图12E中应用的视觉效果与虚拟环境是虚拟环境1220a(如图所示)还是不同的虚拟环境无关地应用。在一些实施方案中,当背景处于第一状态(例如,当日日间时间状态)时,基于哪个虚拟环境在背景中显示而将不同的视觉效果应用于背景,而当背景处于第二状态(例如,当日夜间时间状态)时,当多个虚拟环境中的任一个(任选地,所有虚拟环境)在背景中显示时,将相同的视觉效果应用于背景。基于当背景处于第一状态时显示的特定虚拟环境来应用不同视觉效果并且当背景处于第二状态时应用相同视觉效果提供了对第一状态下的背景的视觉效果的更好定制,同时当背景处于第二状态时保持背景的一致性。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括调暗背景,诸如如果图12B中所描绘的视觉效果包括调光效果(例如,相对于当背景未被调暗时的背景和/或相对于虚拟内容将背景的亮度降低诸如1%、3%、5%、10%、15%、25%、50%、75%或90%)。调暗背景提高了虚拟内容相对于背景的可见性。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括将颜色着色应用于背景,诸如如果图12B中所描绘的视觉效果包括应用颜色着色(例如,黄色、橙色、红色、蓝色、灰色、绿色或其他颜色着色)。将颜色着色应用于背景提高了虚拟内容相对于背景的可见性。
在一些实施方案中,背景包括计算机系统的用户的物理环境的表示(例如,如先前关于物理环境的表示所描述的)。
在一些实施方案中,计算机系统在三维环境中显示第二虚拟内容(例如,图12L的虚拟应用程序窗口1206b)(例如,应用程序窗口或其他虚拟内容)。任选地,第二虚拟内容与不同于第一视觉效果的第二视觉效果相关联,诸如包括第二调光效果和/或第二着色效果的视觉效果。其中以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括以第一视觉效果和第二视觉效果的组合呈现物理环境的表示,诸如参考图12L所描述的。(例如,将诸如参考方法1100所描述的第一调光效果和第二调光效果的组合和/或第一着色效果和第二着色效果的组合应用于物理环境的表示)。任选地,与第一虚拟内容相关联(例如,显示)的应用程序和/或与第二虚拟内容相关联(例如,显示)的应用程序被配置为当相应应用程序处于活动状态时和/或当显示它们的相应虚拟内容时,请求将相应虚拟效果应用于物理环境的表示。基于多个应用程序窗口(例如,第一和第二虚拟内容)将视觉效果应用于物理环境的表示平衡了应用程序窗口的请求,以提高第一和第二虚拟内容相对于物理环境的表示的可见性。
在一些实施方案中,背景包括第一虚拟环境(例如,如参考方法1100和/或1500所描述的虚拟环境)。在一些实施方案中,以第一视觉效果呈现背景包括以第一视觉效果和第二视觉效果的组合呈现第一虚拟环境,诸如图12L所示(例如,通过基于第一视觉效果和第二视觉效果的组合来将第一虚拟环境调暗和/或着色)。任选地,与第一虚拟内容相关联(例如,显示)的应用程序和/或与第二虚拟内容相关联(例如,显示)的应用程序被配置为当相应应用程序处于活动状态时和/或当显示它们的相应虚拟内容时,请求将相应虚拟效果应用于虚拟环境。基于多个应用程序窗口(例如,第一和第二虚拟内容)将视觉效果应用于物理环境的表示平衡了应用程序窗口的请求,以提高第一和第二虚拟内容相对于虚拟环境的可见性。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括根据确定虚拟内容的状态是虚拟内容的第一状态(例如,活动状态、高强度状态(相对于内容的情感强度,诸如对于游戏内容或媒体内容)和/或与相对于背景增加视觉突出性的需要相关联的状态,诸如针对虚拟内容的第一时间段指定的状态),以第一相应视觉效果(例如,第一调光效果和/或第一着色效果)呈现背景,诸如参考图12L所描述的。
在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括根据确定虚拟内容的状态是虚拟内容的第二状态(例如,非活动状态、低强度状态和/或不与相对于背景增加视觉突出性的需要相关联的状态),放弃以第一相应视觉效果呈现背景(并且任选地以不同于第一相应视觉效果的第二相应视觉效果呈现背景),诸如参考图12M所描述的。根据虚拟内容的状态应用不同的视觉效果允许在需要时(例如,当虚拟内容处于活动状态时、当虚拟内容的片段特别感兴趣时、或在其他情况下)相对于背景在视觉上强调虚拟内容,同时在不需要强调虚拟内容时保持背景的可见性。
在一些实施方案中,背景包括第一虚拟环境(例如,如上所述),并且以第一视觉效果呈现背景包括以应用于背景的第一量的第一视觉效果(例如,与第一视觉效果相关联的调光和/或着色的第一百分比,诸如第一视觉效果的1%、5%、10%、20%、50%、75%或100%)呈现背景,而与第一虚拟环境的沉浸水平无关(例如,不考虑),诸如参考图12N和图12O所描述的。在一些实施方案中,沉浸水平指定被虚拟环境遮挡(例如,替换)的物理环境的视图的量。在一些实施方案中,计算机系统根据沉浸水平以应用于背景的不同量(例如,百分比)的第一视觉效果(例如,任选地,在较低沉浸水平下应用较低百分比的第一视觉效果,并且在较高沉浸水平下应用较高百分比的第一视觉效果,在100%沉浸度下高达100%的第一视觉效果)呈现背景,任选地,在高达阈值沉浸水平(例如,10%、20%、30%、45%、75%或95%沉浸度)之后,将相同量(例如,100%)的第一视觉效果应用于背景。在不同沉浸水平应用相同量的视觉效果保持了视觉效果的显示的一致性,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,背景包括虚拟环境(例如,如前所述)。在一些实施方案中,在显示虚拟内容并且在以第一视觉效果呈现背景时(例如,如参考步骤1302d所描述的),计算机系统检测到计算机系统的用户的视点已经从相对于虚拟环境的第一取向(例如,进入虚拟环境的第一视角)改变取向(例如,已经旋转离开)到相对于虚拟环境的第二取向(例如,进入虚拟环境的第二视角)。例如,计算机系统检测到用户已经转向远离虚拟环境,诸如通过旋转他们的头部或身体,诸如图12P中所描绘的。
在一些实施方案中,响应于检测到用户的视点相对于虚拟环境已改变取向并且根据确定第二取向大于远离虚拟环境的阈值取向(例如,大于阈值旋转量,诸如1、3、5、10、20、30、50、75或90度旋转),计算机系统减小应用于背景的第一视觉效果(例如,将调光和/或着色减小诸如1%、5%、10%、20%、30%、40%、50%、75%、90%或100%),如图12P中所示。例如,如果用户朝向虚拟环境(例如,用户正面向虚拟环境),则计算机系统任选地将第一视觉效果以100%应用于背景。如果用户随后转向远离虚拟环境超过阈值量,则计算机系统任选地以降低的水平将第一视觉效果应用于背景或者停止将第一视觉效果完全应用于背景。当用户转向远离虚拟环境(例如,指示用户的注意力不指向虚拟环境)时减少应用于背景(例如,包括虚拟环境和物理环境的表示)的视觉效果提供了用户周围的三维环境的更好可见性。
在一些实施方案中,根据确定虚拟环境的沉浸水平是第一沉浸水平(例如,5%、10%、20%、40%、75%或90%沉浸度),阈值取向(例如,如上所述)是第一阈值取向(例如,第一阈值旋转量,诸如1、3、5、10、20、30、50、75或90度旋转)。例如,如果图12P中的虚拟环境1220a处于所示的沉浸水平,则用户任选地需要旋转第一量(例如,图12P中所示的90度)以满足阈值取向。
在一些实施方案中,根据确定虚拟环境的沉浸水平是大于第一沉浸水平的第二沉浸水平(例如,10%、20%、40%、75%、90%或100%沉浸度),阈值取向是大于第一阈值取向的第二阈值取向(例如,第二阈值旋转量,诸如2、3、5、10、20、30、50、75或90度旋转)。例如,如果图12P中的虚拟环境1220a处于比所示更高的沉浸水平,则用户任选地需要旋转第二量(例如,小于例如图12P中所示的90度)以满足阈值取向。例如,如果用户更加沉浸在虚拟环境中(虚拟环境以更高沉浸水平显示),则与用户更少沉浸在虚拟环境中的情况相比,用户必须更加转向远离虚拟环境以降低第一视觉效果。基于增加的沉浸水平来增加视觉效果被降低的阈值取向降低了当用户意图继续将其注意力指向虚拟环境时用户将无意地导致视觉效果被降低的可能性。
在一些实施方案中,背景包括虚拟环境和计算机系统的用户的物理环境的表示(例如,如前所述)。在一些实施方案中,以第一视觉效果呈现背景(例如,如参考步骤1302d所描述的)包括以第一视觉效果呈现三维环境的一部分,该部分包括虚拟环境与物理环境的表示之间的过渡区域(例如,诸如参考方法1100和图10J所描述的虚拟环境的边缘或边界与靠近边缘的物理环境的表示之间的区域)(并且任选地包括整个虚拟环境和/或不包括过渡区域之外的物理环境的表示的一部分)。将视觉效果应用于靠近虚拟环境的边界的物理环境的表示的一部分使虚拟环境与物理环境的表示之间的空间过渡平滑,从而减少对用户的干扰。
在一些实施方案中,在根据确定背景处于第一状态而以第一虚拟效果呈现背景时(例如,如参考步骤1302d所描述的),计算机系统检测与计算机系统的物理环境中的现实世界对象相关联的透传可见性事件(例如,如参考方法1100所描述的)。
在一些实施方案中,响应于检测到透传可见性事件,计算机系统以应用于现实世界对象的表示的第一视觉效果呈现现实世界对象的表示,如图12Q和图12Q1所示并且参考方法1100更详细地描述的。将视觉效果应用于现实世界对象的表示提供对现实世界对象的更少的扰乱和/或分散注意力的入侵(例如,它们部分地与三维环境融合),从而降低用户将向计算机系统提供无意输入的可能性。
应当理解,对方法1300中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图14A至图14K示出了计算机系统基于虚拟对象的状态(诸如基于虚拟对象是否处于活动状态)将与虚拟对象相关联的视觉效果应用于(或放弃应用于)虚拟环境和/或物理环境的表示的示例。
图14A示出了计算机系统(例如,电子设备)101经由显示生成部件(例如,图1的显示生成部件120)从计算机系统101的用户(例如,用户1410)的视点(例如,面向计算机系统101所处的物理环境的后壁)呈现(例如,显示或以其他方式使其可见,诸如经由光学透传)三维环境1402。在一些实施方案中,计算机系统101包括显示生成部件(例如,触摸屏)、多个图像传感器(例如,图3的图像传感器314)和一个或多个物理或固态按钮1403。图像传感器任选地包括以下中的一者或多者:可见光相机;红外相机;深度传感器;或当用户与计算机系统101交互时计算机系统101能够用来捕获用户或用户的一部分(例如,用户的一只或多只手)的一个或多个图像的任何其他传感器。在一些实施方案中,下文示出和描述的用户界面(例如,虚拟环境和/或其他虚拟内容)还可在头戴式显示器上实现,该头戴式显示器包括向用户显示用户界面或三维环境的显示生成部件,以及检测物理环境和/或用户的手部的移动的传感器(例如,从用户面向外的外部传感器)和/或检测用户的注意力(例如,注视)的传感器(例如,朝向用户的面部面向内的内部传感器)。
在图14A的示例中,计算机系统101在三维环境1402中显示第一虚拟对象1406a、第二虚拟对象1406b和第三虚拟对象1406c,它们任选地表示用于与相应应用程序交互的虚拟应用程序窗口(任选地,虚拟对象1406a、1406b和1406c与诸如“应用程序A”、“应用程序B”和“应用程序C”的不同应用程序相关联)。在一些实施方案中,虚拟对象1406a、1406b和1406c具有参考方法1500所描述的虚拟对象的特性中的一个或多个特性。在一些实施方案中,不同的应用程序可以请求不同的视觉效果(例如,与之相关联),诸如参考方法1300和1500所描述的。
在图14A的示例中,第三虚拟对象1406c在第二虚拟对象1406b后方部分地显示并且被第二虚拟对象1406b部分地遮挡。在一些实施方案中,计算机系统101在包括第一虚拟环境1420a和物理环境1408的表示的三维环境1402内显示虚拟对象1406a、1406b和1406c(例如,如参考方法1100、1300和/或1500所描述的)。例如,计算机系统101任选地显示虚拟环境1420a,并且物理环境1408的表示任选地经由虚拟或光学透传可见。俯视图1414描绘了图14A的各个元素之间的空间关系。
在图14A中,虚拟对象1406a和1406b当前处于活动状态(例如,诸如参考方法1500所描述的并在图14A中由其较深边界和白色填充所指示的),并且虚拟对象1406c当前不处于活动状态(例如,诸如参考方法1500所描述的并在图14A中由较浅边界和灰色填充所指示的)。在一些实施方案中,当多个虚拟对象不重叠(例如,从用户1410的角度来看不重叠)时,它们可以同时处于活动状态。在一些实施方案中,当两个虚拟对象重叠时(例如,如从用户1410的角度来看第二虚拟对象1406b与第三虚拟对象1406c重叠所示),重叠虚拟对象中的仅一者(例如,虚拟对象1406b或1406c)可一次处于活动状态,并且非活动(重叠)应用程序可任选地显示为在视觉上比重叠活动应用程序更不突出,诸如参考方法800所描述的。
在图14A中,用户1410正将其注意力指向虚拟对象1406a,诸如通过看着虚拟对象1406a(例如,由注视点1405a指示)。在该示例中,虚拟对象1406a不与视觉效果(例如,诸如参考方法1100、1300和/或1500所描述的视觉效果)相关联,并且因此计算机系统101不响应于检测到用户正将其注意力指向第一虚拟对象1406a而显示应用于虚拟环境1420a或物理环境1208的表示的视觉效果。(任选地,如果虚拟环境1420a与视觉效果相关联,则计算机系统101将显示该视觉效果,诸如参考图14J所描述的)。
从图14A到图14B,用户已将其注意力转移到虚拟对象1406b(例如,由注视点1405b指示)。虚拟对象1406b当前处于活动状态并且与第一虚拟效果(例如,任选地包括调光效果和/或着色效果)相关联。响应于检测到用户1410将其注意力指向虚拟对象1406b并且根据确定虚拟对象1406b当前处于活动状态(并且与第一视觉效果相关联),计算机系统101显示应用于物理环境1208的表示和/或应用于第一虚拟环境1220a的第一视觉效果(例如,以诸如参考方法1100、1300和/或1500所描述的方式),如相对于图14A在这些元素上的阴影和图案所指示的。任选地,计算机系统101逐渐地削弱第一视觉效果;例如,通过在持续时间内逐渐增加第一视觉效果的视觉突出性,直到它以最终突出性显示,如图14B所示(例如,如参考方法1500所描述的)。任选地,持续时间取决于在用户的注意力向第二虚拟对象1006b的转移之前用户的注意力指向的位置(任选地包括用户的注意力是否指向与视觉效果相关联的虚拟对象)。在图14A至图14B的示例序列中,用户的注意力在转移到第二虚拟对象1006b之前指向第一虚拟对象1006a,并且第一虚拟对象1006a不与视觉效果相关联(例如,没有视觉效果应用于虚拟环境1220a和物理环境1008的表示)。在这种情况下,计算机系统101任选地选择第一持续时间,在该第一持续时间内增加第一视觉效果的视觉突出性。相反,如果用户的注意力先前已指向与不同视觉效果相关联的(不同)虚拟对象,则计算机系统101任选地选择第二(不同)持续时间,在该第二(不同)持续时间内增加第一视觉效果的视觉突出性,诸如比第一持续时间更长或更短的持续时间。任选地,计算机系统101同时在持续时间内降低不同视觉效果的视觉突出性(诸如通过交叉削弱视觉效果)。
在一些实施方案中,计算机系统101在虚拟环境1420a和/或物理环境1408的表示处于第一状态(例如,对应于当日日间时间设置)的情况下应用与虚拟对象相关联的视觉效果(例如,如图14B所示),并且在虚拟环境1420a和/或物理环境1408的表示处于第二状态(例如,对应于当日夜间时间设置)的情况下放弃应用第一视觉效果,诸如参考方法1300所描述的。例如,如果虚拟环境1420a和/或物理环境1408的表示处于第二状态,则基于处于第二状态,虚拟环境1420a和/或物理环境1408的表示可能已经具有应用于它们的调光和/或着色,并且因此计算机系统101任选地放弃应用第一视觉效果的调光和/或着色。
图14C描绘了图14B的替代方案,其中计算机系统101放弃显示应用于物理环境1408和/或第一虚拟环境1420a的表示的第一视觉效果(例如,尽管在第二虚拟对象1406b处于活动状态时检测到用户的注意力指向第二虚拟对象1406b),因为第一虚拟环境1420a处于第二状态(例如,对应于当日夜间时间设置)。
在一些实施方案中,计算机系统101在虚拟对象处于活动状态的情况下应用与虚拟对象相关联的视觉效果,并且在虚拟对象不处于活动状态(例如,它处于非活动状态)的情况下放弃应用与虚拟对象相关联的视觉效果。
例如,从图14A到图14D,用户1410已将其注意力转移到第三虚拟对象1406c(例如,通过看着第三虚拟对象1406c,如注视点1405c所指示),同时第三虚拟对象1406c不处于活动状态。第三虚拟对象1406c与第二视觉效果(任选地不同于与第二虚拟对象1406b相关联的第一视觉效果)相关联,但是计算机系统101放弃将第二视觉效果应用于物理环境1408和/或第一虚拟环境1420a的表示(例如,尽管检测到用户1410已将其注意力指向第三虚拟对象1406c),因为第三虚拟对象1406c不处于活动状态。任选地,如果计算机系统在用户将其注意力转移到第三虚拟对象1406c时显示不同的视觉效果,则计算机系统101继续显示应用于虚拟环境1420a和/或物理环境1408的表示的不同的视觉效果。在一些实施方案中,计算机系统101不响应于用户看着虚拟对象而将虚拟对象的状态从非活动改变为活动。例如,在图14D中,在用户1410看着第三虚拟对象1406c之后,第三虚拟对象1406c保持不活动。另选地,在一些实施方案中,计算机系统101响应于用户看着虚拟对象而将虚拟对象的状态改变为活动状态,任选地在用户看着虚拟对象持续阈值持续时间之后。
在一些实施方案中,计算机系统101响应于在用户正在看着虚拟对象时检测到用户输入(诸如空中手势)而将虚拟对象的状态改变为活动状态(例如,如参考方法1500所描述的)。在图14D中,例如,用户1410在看着第三虚拟对象1046c的同时用用户的手1410a提供输入(诸如空中捏合手势),并且响应于在用户在看着第三虚拟对象1406c的同时检测到来自用户的手1410a的输入,计算机系统101将第三虚拟对象1406c的状态改变为活动状态,如图14E所示。任选地,当计算机系统101将虚拟对象的状态改变为活动状态,并且虚拟对象与视觉效果相关联时,计算机系统基于将虚拟对象的状态改变为活动状态来应用视觉效果。
图14D1示出了与图14D中所示的概念类似和/或相同的概念(具有许多相同的附图标记)。应当理解,除非下面指出,否则图14D1中所示的具有与图14A至图14K中所示的元件相同的附图标记的元件具有一个或多个或全部相同特性。图14D1包括计算机系统101,其包括显示生成部件120(或与之相同)。在一些实施方案中,计算机系统101和显示生成部件120分别具有图14A至图14K中所示的计算机系统101和图1和图3中所示的显示生成部件120的一个或多个特性,并且在一些实施方案中,图14A至图14K中所示的计算机系统101和显示生成部件120具有图14D1中所示的计算机系统101和显示生成部件120的一个或多个特性。
在图14D1中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分上,以使得能够对用户的左眼和右眼进行眼睛跟踪。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考图14A至图14K描述的图像传感器314的一个或多个特性。
在图14D1中,显示生成部件120被示出为显示这样的内容,该内容任选地对应于参考图14A至图14K被描述为经由显示生成部件120显示和/或可见的内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图14D1中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图14D1中所示出的内容的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
在图14D1中,用户被描绘为执行空中捏合手势(例如,用手1410a)以向计算机系统101提供输入,从而提供针对由计算机系统101显示的内容的用户输入。这种描述旨在是示例性的而不是限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,参考图14A至图14K所描述的。
在一些实施方案中,计算机系统101响应于用户输入,如参考图14A至图14K所描述的。
在图14D1的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境内可见。也就是说,用户可以任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。应当理解,如图14A至图14K中所示或参考图14A至图14K所述和/或参考对应方法所述的本公开的一个或多个或所有方面任选地以与图14D1中所示类似或相似的方式在计算机系统101和显示生成单元120上实现。
例如,在图14E中,计算机系统101响应于检测到第三虚拟对象1406c已改变为活动状态(并且任选地,响应于确定用户1410继续将其注意力指向第三虚拟对象1406)而将第二视觉效果应用于第一虚拟环境1420a和/或物理环境1420b的表示。第二视觉效果任选地不同于与第二虚拟对象1406b相关联的第一视觉效果,如由图14E相对于图14B中的不同阴影和图案所指示的。任选地,将第三虚拟对象1410c的状态改变为活动状态包括改变第三虚拟对象1406c的一个或多个视觉特性,诸如通过将第三虚拟对象1406c带到前景(例如,改变第三虚拟对象1406c的空间深度,使得它看起来在第二虚拟对象1406b前方)和/或增加第三虚拟对象1406c的视觉突出性(例如,如参考方法1500所描述的)(诸如图14E中由相对于图14D的增加的边界宽度和白填充所指示的)。任选地,第二虚拟对象1406b的部分1418相对于第二虚拟对象1406b的其他部分以更大的透明度显示,诸如参考方法800所描述的。在一些实施方案中,将第三虚拟对象1406c的状态改变为活动状态包括将第二虚拟对象1406b(重叠)的状态改变为非活动状态以及任选地减少第二虚拟对象1406b相对于第三虚拟对象1406c的视觉突出性。
在一些实施方案中,当用户将其注意力指向处于活动状态并与应用视觉效果相关联的虚拟对象时,计算机系统101基于用户先前引导其注意力的位置(例如,基于在计算机系统检测到用户的注意力向虚拟对象的转移时显示的视觉效果,诸如与不同的虚拟对象或与虚拟环境相关联的视觉效果)来选择要应用的视觉效果。例如,响应于检测到用户的注意力从第一虚拟对象1406a到第三虚拟对象1406d的转移(例如,如图14A、图14D和图14E的序列所表示的),计算机系统任选地选择第一相应视觉效果作为第二视觉效果(例如,与第三虚拟对象1406c相关联的视觉效果)。相比之下,响应于检测到用户的注意力从第二虚拟对象1406b到第三虚拟对象1406c的转移(例如,包括将第二虚拟对象1406b改变为活动状态,如图14B、图14F和图14G的序列所表示的),计算机系统任选地选择第二(不同)相应视觉效果作为第二视觉效果,如图14G所示。
在一些实施方案中,如果虚拟对象停止显示,则计算机系统101停止应用与虚拟对象相关联的视觉效果,诸如参考方法1500所描述的。例如,返回到图14E,用户1410任选地选择退出示能表示1422(例如,通过看着退出示能表示1422,诸如由注视点1405d所指示的,和/或通过用手1410a提供输入,诸如空中手势,任选地同时看着退出示能表示1422)。响应于检测到图14E中的退出示能表示1422的选择,计算机系统101停止显示第三虚拟对象1406c并且停止显示应用于虚拟环境1420a和物理环境1408的表示的第二视觉效果,如图14H所示。尽管图14H中未示出,但在一些实施方案中,当计算机系统101停止显示虚拟对象(例如,第三虚拟对象1406c)并停止应用与该虚拟对象相关联的视觉效果(例如,第二视觉效果)时,计算机系统101将不同的视觉效果应用于虚拟环境1420a和/或物理环境1408的表示,诸如与用户先前将其注意力指向的虚拟对象相关联的视觉效果(例如,在将其注意力转移到第三虚拟对象1406c之前)、或与虚拟环境1420a相关联的视觉效果(诸如对应于在当日夜间时间状态下操作的虚拟环境1420a的调光效果)、或另一视觉效果。
在一些实施方案中,如果用户1410在显示与虚拟对象相关联的视觉效果时将其注意力从虚拟对象移开,则计算机系统101根据用户的注意力的转移(例如,基于用户已将其注意力从虚拟对象移开的距离)来逐渐减小视觉效果的量。在一些实施方案中,如果用户引导其注意力足够远离虚拟对象(例如,超过阈值距离,任选地超过阈值持续时间),则计算机系统101任选地完全停止应用视觉效果。
从图14B到图14I,例如,在显示第一视觉效果(与第二虚拟对象1406b相关联)时,用户1410已将其注意力从第二虚拟对象1406b移开(例如,如注视点从图14B中的注视点1405b到图14I中的注视点1405e的转移所指示的)。响应于检测到该转移,计算机系统已经减少了应用于虚拟环境1420a和物理环境1408b的表示的第一视觉效果的量,如图14I所示。例如,计算机系统101减少第一视觉效果的视觉突出性,如参考方法1500所描述的。任选地,计算机系统101在用户将其注意力从第二虚拟对象移开之后的延迟之后(例如,在阈值持续时间之后)开始减少第一视觉效果的量。例如,计算机系统101等待直到用户已将其注意力从第二虚拟对象1006b引导离开达阈值持续时间,然后开始减少第一视觉效果的量。在一些实施方案中,如果用户1410转移其注意力以将其注意力重新定向到第二虚拟对象1006b,则计算机系统101根据用户的注意力的转移来增加第一视觉效果的视觉突出性,任选地不等待一定持续时间(例如,延迟)。任选地,计算机系统101以模仿临界阻尼弹簧的方式增加和/或减小第一视觉效果的视觉突出性(例如,基于用户1410转移其注意力,如上所述),使得当计算机系统101改变第一视觉效果的视觉突出性时视觉突出性不会发生振荡。
在一些实施方案中,虚拟环境和/或气氛环境(例如,如参考方法1500所描述的)任选地与视觉效果(例如,系统级视觉效果而不是与应用程序相关联的视觉效果)相关联,诸如与当日时间设置和/或季节相对应的视觉效果(例如,如参考方法1300所描述的)。在这种情况下,与虚拟环境和/或气氛环境相关联的视觉效果任选地覆盖与虚拟对象相关联的视觉效果(例如,与应用程序相关联的视觉效果)。例如,图14J和图14K表示图14A和图14B的替代方案,其中虚拟环境1420a与第三视觉效果(例如,不同于与第二虚拟对象1006b相关联的第二视觉效果)相关联。在图14J中,计算机系统101基于虚拟环境1420a和/或物理环境1008的表示与第三视觉效果相关联来将第三视觉效果应用于虚拟环境1420a和/或物理环境1008的表示。
在图14K中,用户1410如图14B中那样将其注意力指向第二虚拟对象1006b,但是在这种情况下,计算机系统101继续基于虚拟环境1420a与第三视觉效果相关联来将第三视觉效果应用于虚拟环境1420a和物理环境1008的表示。
另选地,在一些实施方案中,与应用程序(例如,与虚拟对象,诸如虚拟对象1006a、1006b和1006c)相关联的视觉效果会覆盖系统级效果。在这种情况下,响应于检测到用户的注意力向第二虚拟对象1006b的转移(例如,从图14J),计算机系统101将图14J中所示的第三视觉效果的显示替换为图14B中所示的第二视觉效果的显示。
图15是示出根据一些实施方案的促进在三维环境中启动虚拟计算机体验的方法1500的流程图。在一些实施方案中,方法1500在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法1500通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法1500中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法1500在与一个或多个输入设备和显示生成部件通信的计算机系统处执行,该计算机系统与用户相关联。在一些实施方案中,计算机系统具有参考方法800、900、1100和/或1300所描述的计算机系统的特性中的一个或多个特性。在一些实施方案中,显示生成部件具有参考方法800、900、1100和/或1300所描述的显示生成部件的特性中的一个或多个特性。在一些实施方案中,输入设备具有参考方法800、900、1100和/或1300所描述的输入设备的特性中的一个或多个特性。
在一些实施方案中,在经由显示生成部件在三维环境中显示多个虚拟对象(例如,如图14A所示并如参考方法800、900、1100和/或1300所描述的虚拟对象1406a、1406b和1406c)的同时,计算机系统经由一个或多个输入设备检测(1502a)用户的注意力向多个虚拟对象中的第一虚拟对象的转移(例如,向如图14B所示的第二虚拟对象1406b的转移),其中第一虚拟对象与第一视觉效果相关联。在一些实施方案中,多个虚拟对象包括虚拟应用程序窗口(例如,应用程序用户界面)、虚拟媒体内容、现实世界对象的虚拟表示和/或其他类型的虚拟对象中的一者或多者。在一些实施方案中,第一视觉效果具有参考方法1100和/或1300所描述的第一视觉效果的特性中的一个或多个特性。在一些实施方案中,第一虚拟对象基于第一虚拟对象的设置与第一视觉效果相关联,该第一虚拟对象的设置任选地由用户、计算机系统、控制或定义第一虚拟对象的显示的应用程序和/或第一虚拟对象的供应商配置。例如,虚拟媒体内容应用程序的供应商任选地将虚拟媒体内容应用程序配置为与指示和/或请求调暗(例如,排除)媒体内容应用程序周围的环境的调光设置相关联。在一些实施方案中,检测用户的注意力向第一虚拟对象的转移包括检测用户的注视已从三维环境中的另一位置(例如,不包括第一虚拟对象和/或包括不同于第一虚拟对象的第二虚拟对象的位置,诸如来自图14A中的第一虚拟对象1406a)转移(例如,改变和/或移动)到第一虚拟对象(任选地,持续阈值持续时间,诸如.01、.1、.5、1、3、5或10秒),或者用户已选择第一虚拟对象用于激活(诸如通过注视第一虚拟对象并提供诸如空中捏合手势的输入),或者用户已以其他方式与第一虚拟对象交互(诸如通过向与第一虚拟对象相关联的应用程序用户界面提供输入)。
在一些实施方案中,响应于检测到用户的注意力向第一虚拟对象的转移(1502b),根据确定第一虚拟对象处于活动状态并且满足一个或多个第一标准(例如,三维环境不包括与被配置为覆盖第一视觉效果的不同视觉效果相关联的环境(或其他虚拟对象)),计算机系统显示(1502c)应用于三维环境的第一视觉效果。(例如,诸如图14B中所描绘的)在一些实施方案中,计算机系统基于确定用户先前已激活第一虚拟对象(诸如通过经由选择与第一虚拟对象相关联的图标来启动第一虚拟对象的激活和/或通过注视第一虚拟对象并提供诸如空中捏合手势的输入)和/或基于确定在第一虚拟对象的最近一次激活之后第一虚拟对象已保持在活动状态来确定第一虚拟对象处于活动状态。在一些实施方案中,显示应用于三维环境的第一视觉效果包括呈现(例如,显示和/或使其可见)物理对象的表示和/或物理环境的表示,其中第一视觉效果应用于物理对象和/或物理环境的表示(例如,覆盖在物理对象或物理环境的表示上或以其他方式应用于物理对象或物理环境的表示),如参考方法1100和/或1300所描述的。在一些实施方案中,显示应用于三维环境的第一视觉效果包括显示多个虚拟对象中的附加虚拟对象、附加虚拟内容和/或虚拟环境(例如,诸如参考方法1100所描述的),其中第一视觉效果应用于多个虚拟对象中的附加虚拟对象、附加虚拟内容和/或虚拟环境,诸如通过将附加虚拟对象、附加虚拟内容和/或虚拟环境调暗和/或着色。在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之前,计算机系统在不将第一视觉效果应用于三维环境的情况下呈现(例如,显示或使其可见)三维环境(例如,如图14A所描绘的)。
在一些实施方案中,根据确定第一虚拟对象不处于活动状态(例如,第一虚拟对象不活动),计算机系统放弃(1502d)显示应用于三维环境的第一视觉效果。例如,在图14D和图14D1中,第三虚拟对象1408c处于非活动状态,并且计算机系统放弃显示与虚拟对象1408c相关联的视觉效果。在一些实施方案中,放弃显示应用于三维环境的第一视觉效果包括不以应用于三维环境的任何视觉效果(例如,不以与虚拟对象相关联的任何调光或着色)呈现三维环境,诸如图14D和图14D1所示。在一些实施方案中,放弃显示应用于三维环境的第一视觉效果包括将第二、第三或其他视觉效果(例如,不同于第一视觉效果)应用于三维环境,诸如通过应用与在用户的注意力向第一虚拟对象的转移时已经处于活动状态的第二虚拟对象相关联的第二视觉效果(例如,包括第二调光效果和/或第二着色效果)(例如,诸如参考图14F所描述的)。将与活动虚拟对象(例如,用户的注意力指向的对象)相关联的视觉效果应用于三维环境(例如,任选地包括物理对象的表示、物理环境的表示、虚拟对象、和/或虚拟环境)提供对三维环境的更少扰乱和/或更少分散注意力的视图,使得用户能够更好地关注感兴趣的虚拟对象,并且提供关于虚拟对象的状态的视觉反馈,从而降低用户将向计算机系统提供无意输入的可能性。
在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之前(任选地,当检测到用户的注意力向第一虚拟对象的转移时)(例如,如参考步骤1502a所描述的),计算机系统不以应用于三维环境的任何视觉效果呈现(例如,显示或以其他方式使其可见,诸如经由光学透传)三维环境(例如,如图14A所示)。例如,任选地不以任何调光效果、不以任何着色效果、和/或不以应用于三维环境的改变三维环境的视觉突出性的任何其他视觉效果呈现三维环境。仅当用户注意力指向第一虚拟对象时显示与第一虚拟对象相关联的虚拟效果(并且当用户注意力未指向第一虚拟对象时避免显示视觉效果),当不需要视觉效果时保持三维环境的可见性,从而降低用户将向计算机系统提供无意输入的可能性。
在一些实施方案中,在经由一个或多个输入设备检测到用户的注意力向第一虚拟对象的转移之前(任选地当经由一个或多个输入设备检测到用户的注意力向第一虚拟对象的转移时)(例如,如参考步骤1502a所描述的),根据确定满足第二标准(例如,包括当用户的注意力指向与第二视觉效果(例如,请求视觉效果的应用程序)相关联的虚拟对象和/或三维环境的区域时满足的标准,和/或当三维环境中的一些或全部处于与显示第二视觉效果相关联的状态(诸如参考方法1300所描述的第一状态)时满足的标准),计算机系统显示应用于三维环境的第二视觉效果,第二视觉效果不同于第一视觉效果(例如,如图14E所示)。例如,第二视觉效果任选地包括不同于第一视觉效果的调光效果和/或着色效果的第二调光效果和/或第二着色效果。在一些实施方案中,显示第一视觉效果包括停止显示第二视觉效果。基于各种标准显示不同的视觉效果允许计算机系统根据计算机系统和/或三维环境的不同内容和/或不同操作状态来定制视觉效果。
在一些实施方案中,第二视觉效果是基于在检测到用户的注意力向第一虚拟对象的转移之前(例如,如参考步骤1502a所描述的)处于活动状态的应用程序(例如,处于如前所述的活动状态,并且任选地用户的注意力指向的应用程序)而选择(例如,由计算机系统)的视觉效果。例如,如果(例如,根据确定)第一应用程序在用户的注意力向第一虚拟对象的转移之前处于活动状态(并且任选地,如果用户正将其注意力指向第一应用程序和/或三维环境中显示的并且与第一应用程序相关联的第二虚拟对象),则计算机系统基于第一应用程序在用户注意力转移之前处于活动状态来选择第三视觉效果,诸如图14A、图14D和图14E的序列中所描绘的。在这种情况下,显示应用于三维环境的第二视觉效果包括显示应用于三维环境的所选择的第三视觉效果。例如,如果(例如,根据确定)第二应用程序(不同于第一应用程序)在用户的注意力向第一虚拟对象的转移之前处于活动状态(并且任选地,如果用户正将其注意力指向第二应用程序和/或三维环境中显示的并且与第二应用程序相关联的第三虚拟对象),则计算机系统基于第二应用程序在用户注意力转移之前处于活动状态来选择第四视觉效果(不同于第三视觉效果),诸如图14B、图14F和图14G的序列中所描绘的。在这种情况下,显示应用于三维环境的第二视觉效果包括显示应用于三维环境的所选择的第四视觉效果。基于用户将其注意力指向第一虚拟对象之前哪个应用程序处于活动状态来显示不同的视觉效果允许计算机系统为不同的内容定制视觉效果,诸如通过允许不同的应用程序请求不同的视觉效果。
在一些实施方案中,第二视觉效果是基于系统视觉效果(例如,当前活动的系统级视觉效果而不是与单个应用程序相关联的视觉效果)选择(例如,由计算机系统101)的视觉效果,该系统视觉效果是显示第一虚拟对象的增强的三维环境的一部分(例如,具有修改虚拟或光学透传馈送或修改替换(例如,遮挡)虚拟或光学透传馈送中的一些或全部的虚拟环境的系统应用着色或其他视觉效果的物理环境的表示),诸如图14J所示。例如,如果(例如,根据确定)在计算机系统检测到用户的注意力向第一虚拟对象的转移之前第一系统视觉效果处于活动状态(例如,系统被配置为将第一系统视觉效果应用于三维环境中的一些或全部),则计算机系统基于第一系统效果处于活动状态来选择第三视觉效果。在这种情况下,显示应用于三维环境的第二视觉效果包括显示应用于三维环境的所选择的第三视觉效果。例如,如果(例如,根据确定)在计算机系统检测到用户的注意力向第一虚拟对象的转移之前第二系统效果(不同于第一系统效果)处于活动状态,则计算机系统基于第二系统视觉效果处于活动状态来选择第四视觉效果(不同于第三视觉效果)。在这种情况下,显示应用于三维环境的第二视觉效果包括显示应用于三维环境的所选择的第四视觉效果。基于环境状态显示与增强的三维环境相关联的视觉效果使得计算机系统能够更有效地模拟环境中的当日时间。
在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之前(和/或当检测到用户的注意力向第一虚拟对象的转移时)(例如,如参考步骤1502a所描述的),第一虚拟对象不处于活动状态(例如,用户没有将其注意力指向第一虚拟对象和/或与第一虚拟对象交互,和/或用户没有提供输入来激活第一虚拟对象),诸如图14A所描绘的。在一些实施方案中,第一虚拟对象的活动或非活动状态具有参考方法800和/或900所描述的活动和非活动状态的特性中的一个或多个特性。
在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之后(例如,在此之后第一虚拟对象保持处于非活动状态并且第一视觉效果尚未应用于三维环境,诸如参考图14D和图14D1中的第三虚拟对象1406c所描述的)并且在用户的注意力指向第一虚拟对象时(例如,在用户继续注视第一虚拟对象时),计算机系统经由一个或多个输入设备检测用户输入(例如,触摸输入、诸如空中捏合手势的空中手势输入、按压或旋转物理按钮、或另一用户输入)。
在一些实施方案中,响应于在用户的注意力指向第一虚拟对象时检测到用户输入(例如,响应于在用户注视第一虚拟对象时检测到空中捏合手势或其他用户输入),计算机系统将第一虚拟对象的状态改变为活动状态(例如,与第一虚拟对象相关联的第一视觉效果被应用于三维环境的状态),诸如参考图14E中将第三虚拟对象1406c的状态改变为活动状态所描述的。任选地,将第一虚拟对象的状态改变为活动状态包括改变第一虚拟对象的视觉特性,诸如增加第一虚拟对象的边界的厚度、增加第一虚拟对象的亮度、饱和度和/或不透明度、将第一虚拟对象带入显示器的前景、和/或提供第一虚拟对象处于活动状态的另一视觉指示。
在一些实施方案中,应用于三维环境的第一视觉效果的显示基于第一虚拟对象处于活动状态的状态,诸如图14E所描绘的。响应于用户输入激活虚拟对象避免了当用户环顾周围环境时无意中激活虚拟对象以及相应地无意中将视觉效果应用于三维环境,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,在检测到用户输入之前(任选地当检测到用户输入时)(例如,在用户的注意力指向第一虚拟对象时或在用户的注意力指向第一虚拟对象之前),第一虚拟对象相对于用户的当前视点至少部分地显示在第二虚拟对象后方(例如,相对于用户的视点在比第二虚拟对象更大的深度处)并且被第二虚拟对象遮挡(例如,从用户的视点来看被第二虚拟对象部分地或完全地遮挡)(例如,诸如参考方法800所描述的)。例如,在图14D和图14D1中,第三虚拟对象1406c被第二虚拟对象1406b遮挡。允许用户通过看着被另一虚拟对象至少部分地重叠的虚拟对象并提供空中手势输入(例如)来激活所重叠虚拟对象使得用户能够快速激活感兴趣的虚拟对象,其中在激活时应用对应的视觉效果。
在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之后(例如,如参考步骤1502a所描述的)并且在检测到用户输入之前(例如,如之前参考激活第一虚拟对象的用户输入所描述的),第一虚拟对象不处于活动状态(并且任选地,第一视觉效果不应用于三维环境),诸如图14D和图14D1所描绘的。在一些实施方案中,检测到用户正将其注意力指向虚拟对象不足以激活虚拟对象(例如,计算机系统不响应于检测到用户的注意力已转移到虚拟对象而激活虚拟对象);用户还需要提供输入(诸如上文所描述的)以激活虚拟对象,诸如参考方法800和/或900更详细地描述的。等待激活虚拟对象(诸如应用程序窗口)直到用户已提供指示用户希望激活虚拟对象的输入避免了在用户只是看着不同虚拟对象的情况下(诸如在用户正环顾三维环境时)无意中激活虚拟对象(以及应用对应的视觉效果)。
在一些实施方案中,显示第一虚拟对象包括根据确定第一虚拟对象处于活动状态(例如,如上文并参考方法800和900所描述的)以第一视觉外观(例如,以第一亮度、不透明度、饱和度、边界厚度、颜色、相对于其他虚拟对象的空间深度或第一虚拟对象的其他视觉方面)显示第一虚拟对象。
在一些实施方案中,显示第一虚拟对象包括根据确定第一虚拟对象不处于活动状态,以不同于第一视觉外观的第二视觉外观(例如,以第二亮度、不透明度、饱和度、边界厚度、颜色、相对于其他虚拟对象的空间深度、或第一虚拟对象的其他视觉方面)显示第一虚拟对象。例如,第三虚拟对象1406c在其不处于活动状态时在图14D和图14D1中以第一视觉外观显示,并且在其处于活动状态时在图14E中以第二视觉外观显示。在一些实施方案中,计算机系统在其被激活时改变第一虚拟对象的视觉外观,诸如通过将第一虚拟对象带到前景(例如,在先前覆盖第一虚拟对象的另一虚拟对象的前方)和/或改变第一虚拟对象的其他视觉特性。当虚拟对象被激活时改变它的视觉特性向用户提供虚拟对象现在处于活动状态的反馈,并使虚拟对象在视觉上更加突出,从而实现与虚拟对象的更有效的交互。
在一些实施方案中,在显示第一虚拟对象时并且在第一虚拟对象处于活动状态时(例如,如之前并参考方法800和900所描述的),计算机系统显示多个虚拟对象中的第二虚拟对象(例如,第二应用程序窗口或另一类型的虚拟对象),其中第二虚拟对象处于活动状态。例如,图14A中第一虚拟对象1406a和第二虚拟对象1406b两者均处于活动状态。任选地,第二虚拟对象不与第一虚拟对象重叠(例如,从用户的视点来看)。例如,在一些实施方案中,如果从用户的视点来看多个虚拟对象不重叠,则它们可同时处于活动状态。任选地,第二虚拟对象不与视觉效果相关联。任选地,第二虚拟对象与任选地与第一视觉效果相同或不同的第二视觉效果相关联,并且任选地,计算机系统基于用户正将其注意力指向哪个虚拟对象来应用第一视觉效果(与第一虚拟对象相关联)或第二视觉效果(与第二虚拟对象相关联)。例如,如果用户看着第一虚拟对象,则计算机系统应用第一视觉效果,并且如果用户看着第二虚拟对象,则计算机系统应用第二视觉效果。允许两个虚拟对象同时处于活动状态减少了与激活(或重新激活)虚拟对象相关联的时间、处理开销和/或用户输入的数量。
在一些实施方案中,在根据确定第一虚拟对象处于活动状态而显示应用于三维环境的第一视觉效果的同时(例如,如参考步骤1520a所描述的),计算机系统经由一个或多个输入设备检测与停止显示第一虚拟对象相对应的事件,诸如图14E中用户选择退出示能表示。在一些实施方案中,检测事件对应于检测请求关闭(例如,退出或离开)第一虚拟对象的用户输入,诸如通过选择“退出”示能表示、提供对应于关闭虚拟对象的请求的空中手势,或通过提供另一类型的用户输入。在一些实施方案中,检测事件对应于检测虚拟对象已意外地崩溃(例如,由于计算机系统处或别处的错误)。
在一些实施方案中,响应于检测到事件,计算机系统停止显示第一虚拟对象并且停止显示应用于三维环境的第一视觉效果,诸如图14H所示。在一些实施方案中,停止显示第一虚拟对象包括呈现(例如,显示或以其他方式使其可见)先前被第一虚拟对象遮挡的背景的一部分,诸如虚拟环境的一部分和/或物理环境的表示的一部分。例如,被第三虚拟对象1406a(例如,在图14E中)遮挡的虚拟环境1420a的一部分显示在图14H中。在一些实施方案中,停止显示应用于三维环境的第一视觉效果包括呈现三维环境而不应用视觉效果,或者在满足用于显示不同视觉效果的标准(例如,具有用于显示第一视觉效果的第一标准的一个或多个特性)的情况下应用不同视觉效果。当与视觉效果相关联的虚拟对象停止显示时停止显示视觉效果在不再需要视觉效果时恢复三维背景的视觉突出性,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,显示应用于三维环境的第一视觉效果(例如,如参考步骤1502a所描述的)包括在一段时间内(例如,在.01、.1、.5、1、1.5、3、5或10秒内)通过多个中间状态将第一视觉效果的视觉突出性(例如,亮度、不透明度、饱和度或其他视觉特性)逐渐改变(例如,增加或减小)为最终视觉突出性(例如,在该视觉突出性之后,视觉突出性不再改变,直到另一事件导致视觉突出性改变,诸如当应用另一视觉效果或停止应用第一视觉效果时),诸如参考图14B所描述的。在一些实施方案中,如果用户将视线从第一虚拟对象移开,则第一视觉效果任选地逐渐减小,使得视觉突出性从初始视觉突出性(例如,调光和着色)改变为最终视觉突出性(例如,不调光或着色),诸如参考图14I所描述的。任选地,如果用户回头看向第一虚拟对象,则计算机系统再次随时间改变视觉突出性,诸如回到与第一视觉效果相关联的初始视觉突出性。逐渐地应用第一视觉效果(例如,通过逐渐地增加三维环境的调光和/或着色)会产生更平滑且更少扰乱的过渡,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,第一视觉效果的视觉突出性在持续时间内以模拟临界阻尼弹簧的方式改变(例如,如上文并参考图14I所描述的)。例如,视觉突出性以单调的方式(例如,线性地或非线性地)逐渐改变,而没有振荡。以模仿临界阻尼弹簧的方式应用(和/或去除)第一视觉效果(例如,通过逐渐地增加或减少三维环境的调光和/或着色)会产生更平滑且更少扰乱的过渡,从而降低与计算机系统的错误交互的可能性。
在一些实施方案中,第一视觉效果的视觉突出性改变的持续时间(例如,如上所述)发生在检测到用户注意力向第一虚拟对象的转移并且确定第一虚拟对象处于活动状态(诸如在这两个事件中的较早或较晚之后)的时间延迟之后(例如,在.01、.1、.5、1、1.5、3、5或10秒之后)。例如,计算机系统任选地等待时间延迟过去,然后发起视觉突出性的改变,以确保用户有意地将其注意力转移到第一虚拟对象和/或意图查看第一虚拟对象和/或与第一虚拟对象交互,而不是短暂地看着第一虚拟对象。在一些实施方案中,响应于检测到用户已将其注意力从第一虚拟对象移开,计算机系统在一定时间延迟之后随时间改变第一虚拟效果的视觉突出性(例如,如上所述)。例如,计算机系统任选地等待,直到用户的注意力已被引导远离第一虚拟对象达一定时间延迟,然后开始减小第一视觉效果的视觉突出性(任选地,同时逐渐地增加与用户已将其注意力指向的不同虚拟对象相关联的第二视觉效果的视觉突出性)。等待直到经过一定时间延迟而改变视觉效果的视觉突出性降低了误报的可能性,在误报中,计算机系统基于用户的注意方向的短暂改变而不合需要地改变视觉效果的突出性。
在一些实施方案中,在持续时间内将第一视觉效果的视觉突出性改变为最终视觉突出性(例如,如上所述)包括:根据确定用户的注意力的转移是来自三维环境的与不同于第一视觉效果的第二视觉效果相关联的部分(例如,来自与第二视觉效果相关联的第二虚拟对象,诸如应用程序窗口(例如,图14B中的第二虚拟对象1406b),或者来自与第二视觉效果相关联的虚拟环境),在第一持续时间内(例如,在.01、.1、.5、1、5或10秒内)将第一视觉效果的视觉突出性改变为最终视觉突出性(例如,如上所述)。
在一些实施方案中,在持续时间内将第一视觉效果的视觉突出性改变为最终视觉突出性(例如,如上所述)包括:根据确定用户的注意力的转移是来自三维环境的不与视觉效果相关联的部分(例如,三维环境的空白区域或未请求视觉效果的应用程序,诸如图14A中的第一虚拟对象1406a),在不同于第一持续时间的第二持续时间(例如,.01、.1、.5、1、5或10秒)内将第一视觉效果的视觉突出性改变为最终视觉突出性(例如,如上所述)。在一些实施方案中,第二持续时间短于第一持续时间。在一些实施方案中,改变视觉效果的视觉突出性的持续时间(以及任选地,计算机系统是否等待直到经过一定时间延迟而改变视觉突出性)取决于用户是否先前已将其注意力指向第一虚拟对象。例如,如果用户先前已经将其注意力指向第一对象(任选地,在阈值持续时间内,诸如在过去5、10、50、80、120、150、300或500秒内),则持续时间任选地比在用户先前没有将其注意力指向第一对象(任选地,在阈值持续时间内)的情况下的持续时间更短。基于用户先前在将其注意力指向虚拟对象之前将其注意力指向的位置和/或基于用户先前是否将其注意力指向虚拟对象(例如,然后将其注意力引导离开)来改变视觉效果的视觉突出性改变的持续时间避免了扰乱过渡并且帮助避免误报,以确保基于用户意图继续将其注意力指向虚拟对象的可能性来应用或不应用视觉效果。
在一些实施方案中,在检测到用户的注意力向第一虚拟对象的转移之后(例如,如参考步骤1502a所描述的),计算机系统检测用户的注意力向多个虚拟对象中的第二虚拟对象的转移(例如,具有第一虚拟对象的特性中的一个或多个特性)(例如,如参考步骤1502a所描述的),诸如检测用户的注意力从第二虚拟对象1406b到第三虚拟对象1406c的转移,如图14C到图14D和图14D1所示。
在一些实施方案中,响应于检测到用户的注意力向第二虚拟对象的转移,根据确定第二虚拟对象与第二视觉效果相关联(例如,如先前参考与第一视觉效果相关联的第一虚拟对象所描述的),计算机系统显示应用于三维环境的第二视觉效果(例如,以与用于显示第一视觉效果所描述的方式类似的方式),诸如图14E所描绘的。任选地,进一步根据确定第二虚拟对象处于活动状态来显示第二视觉效果。任选地,显示第二视觉效果包括停止显示第一视觉效果。任选地,第二视觉效果与第一视觉效果同时显示,以生成复合视觉效果。
在一些实施方案中,根据确定第二虚拟对象不与第二视觉效果相关联(例如,第二虚拟对象不与任何视觉效果相关联,或者与第三视觉效果相关联),计算机系统放弃显示应用于三维环境的第二视觉效果。例如,当用户将其注意力指向图14A中的第一虚拟对象1406a时,计算机系统不显示视觉效果。任选地,继续显示第一视觉效果。基于用户正将其注意力指向的虚拟对象来改变(或去除)所显示的视觉效果使得不同的虚拟对象能够主张与虚拟对象相对于三维环境的不同期望突出性相对应的不同视觉效果。
在一些实施方案中,根据确定第一虚拟对象处于活动状态(例如,如上所述)来显示第一视觉效果,而与三维环境是否与不同于第一视觉效果的第二视觉效果(例如,如上所述的系统级视觉效果)相关联无关(例如,不考虑)(并且任选地不显示应用于三维环境的第二视觉效果),诸如在图14J过渡到图14B的序列中所描绘的。例如,三维环境(诸如如上文并参考方法1100所描述的虚拟环境和/或气氛环境,其中调光效果、照明效果和/或着色效果应用于物理环境的表示,诸如虚拟透传环境的光学透传,以模拟当日时间、天气状况、心情和/或季节)中的一些或全部任选地与第二视觉效果(例如,不同于与第一视觉效果相关联的调光和/或着色效果的第二调光和/或着色效果)相关联。在这种情况下,当用户将其注意力转移到第一虚拟对象时(任选地,在激活第一虚拟对象之后),与第一虚拟对象相关联的第一视觉效果覆盖第二视觉效果。例如,如果(例如,根据确定)三维环境包括与第一相应视觉效果相关联(例如,被配置为显示)的第一气氛环境(并且任选地在用户将其注意力转移到第一虚拟对象时应用第一相应视觉效果),则响应于检测到用户的注意力向第一虚拟对象的转移,计算机系统显示应用于三维环境的第一视觉效果(并且任选地停止显示第一相应视觉效果)。例如,如果(例如,根据确定)三维环境包括与第二相应视觉效果相关联(例如,被配置为显示)的第二气氛环境(并且任选地当用户将其注意力转移到第一虚拟对象时应用第二相应视觉效果),则响应于检测到用户的注意力向第一虚拟对象的转移到,计算机系统显示应用于三维环境的第一视觉效果(并且任选地停止显示第二相应视觉效果)。作为例示性示例,如果三维环境中的气氛环境与包括中等调光和/或蓝色着色(诸如以模拟黄昏和/或冬季气氛)的视觉效果相关联并且用户将其注意力转移到与包括高调光和基于媒体的着色的视觉效果相关联的媒体内容,则计算机系统任选地将高调光和基于媒体的着色应用于三维环境(并且任选地停止应用与气氛环境相关联的视觉效果),而与气氛环境与中等调光和蓝色着色相关联的事实无关。允许与虚拟对象相关联的视觉效果覆盖与三维环境相关联的视觉效果使得当用户将其注意力指向虚拟对象时能够更好地看到虚拟对象。
在一些实施方案中,在显示应用于三维环境的第一视觉效果时(例如,如参考步骤1502a所描述的),计算机系统检测到用户的注意力从第一虚拟对象移开(例如,检测到用户正看着三维环境中的另一区域或虚拟对象)。
在一些实施方案中,响应于检测到用户的注意力从第一虚拟对象移开,计算机系统显示应用于三维环境的第二视觉效果(例如,与虚拟环境和/或气氛环境相关联的系统级视觉效果,诸如之前所描述的)。例如,如果用户将其注意力从图14B中的第二虚拟对象1406b移开(诸如朝向虚拟环境1420a或朝向物理环境1408的表示),则计算机系统任选地应用如图14J所示的系统级视觉效果。在一些实施方案中,如果用户将其注意力引导远离第一虚拟对象(任选地,持续阈值持续时间,如上所述),则计算机系统将第二视觉效果(例如,与虚拟环境和/或气氛环境相关联)应用于三维环境。例如,当用户没有将其注意力指向第一虚拟对象时,计算机系统恢复(例如,默认)到应用与虚拟环境或三维环境的其他部分相关联的任何视觉效果。例如,如果(例如,根据确定)在三维环境与第一系统级视觉效果相关联时用户将注意力从第一虚拟对象移开(任选地,不将注意力转移到与不同视觉效果相关联的第二虚拟对象),则计算机系统显示应用于三维环境的第一系统级视觉效果。例如,如果(例如,根据确定)在三维环境与不同于第一系统级视觉效果的第二系统级视觉效果相关联时用户将注意力从第一虚拟对象移开(任选地,不将注意力转移到与不同视觉效果相关联的第二虚拟对象),则计算机系统显示应用于三维环境的第二系统级视觉效果。当用户不再将他们的注意力指向第一虚拟对象(例如,请求应用第一视觉效果的对象)时主张(例如,应用)与三维环境的一部分相关联的视觉效果使得计算机系统能够基于用户的当前注意方向来应用适当的调光和/或着色,而不要求用户手动地改变调光和/或着色。
在一些实施方案中,第一标准包括当三维环境不包括与不同于第一视觉效果的第二视觉效果(例如,诸如参考步骤1502a所描述的第二视觉效果)相关联的虚拟环境时满足的标准(例如,当三维环境中的虚拟环境没有请求另一视觉效果时,将第一视觉效果应用于三维环境)。例如,在图14A中,虚拟环境1420a不与视觉效果相关联。
在一些实施方案中,响应于检测到用户的注意力向第一虚拟对象的转移(例如,如参考步骤1502a所描述的)并且根据确定由于三维环境包括与第二视觉效果相关联的虚拟环境而不满足第一标准(例如,如上文所描述的并且在图14J中所描绘的),计算机系统显示应用于三维环境的第二视觉效果(例如,以与用于显示应用于三维环境的第一视觉效果所描述的方式类似的方式),而与第一虚拟对象的状态是否是活动的无关(诸如图14K所示)。在一些实施方案中,与三维环境中的虚拟环境相关联的视觉效果覆盖与应用程序相关联的视觉效果(诸如与第一虚拟对象相关联的第一视觉效果),使得用户将其注意力指向第一虚拟对象不会导致计算机系统显示第一视觉效果;相反,计算机系统继续显示与虚拟环境相关联的视觉效果(基本上忽略第一虚拟对象显示第一视觉效果的请求)。相比之下,由气氛环境所请求的视觉效果(例如,诸如之前所描述的)可以任选地被由应用程序所请求的视觉效果覆盖。在一些实施方案中,如果计算机系统检测到与第二视觉效果相关联的虚拟环境已停止显示并且用户随后将其注意力指向第一虚拟对象(例如,在虚拟环境和/或气氛环境未显示时),则计算机系统将第一视觉效果应用于三维环境。允许虚拟环境和/或气氛环境覆盖与虚拟对象相关联的视觉效果保持了虚拟环境和/或气氛环境的显示的一致性。
应当理解,对方法1500中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图16A至图16K示出了根据一些实施方案的基于不同类型的重叠对象在三维环境中的显示来改变虚拟对象的视觉突出性的计算机系统的示例。
图16A示出了计算机系统101(例如,电子设备)经由显示生成部件(例如,图1和图3的显示生成部件120)从用户的视点(例如,面向计算机系统101所处的物理环境的后壁)显示三维环境1602。
在一些实施方案中,计算机系统101包括显示生成部件120。在图16A中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分上,以使得能够对用户的左眼和右眼进行眼睛跟踪。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考图7、图10、图12和图14系列所描述的图像传感器314的特性中的一个或多个特性。
如图16A所示,计算机系统101捕获计算机系统101周围的物理环境(例如,操作环境100)(包括计算机系统101周围的物理环境中的一个或多个对象)的一个或多个图像。在一些实施方案中,计算机系统101在三维环境1602中显示物理环境的表示。例如,三维环境1602包括窗口1622的表示,其任选地是物理环境中的物理窗口的表示。
如下文更详细讨论的,在图16A中,显示生成部件120被示为在三维环境1602中显示内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图16A-16K中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图16A中所示出的内容的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
如本文所讨论的,计算机系统101的用户执行一个或多个空中捏合手势(例如,用手1603A)以向计算机系统101提供一个或多个输入,从而提供针对由计算机系统101显示的内容的一个或多个用户输入。这种描述旨在是示例性的而不是限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,如参考图7、图10、图12和图14系列所描述的。
在图16A的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境1602内可见。也就是说,用户可以任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。
如上所述,计算机系统101被配置为使用显示生成部件120在三维环境1602中显示内容。在图16A中,三维环境1602还包括虚拟对象1606。在一些实施方案中,虚拟对象1606任选地是包含内容(例如,多个可选择的选项)、三维对象(例如,虚拟时钟、虚拟球、虚拟汽车等)或计算机系统101显示的未包含在显示生成部件120的物理环境中的任何其他元素的应用程序的用户界面。例如,在图16A中,虚拟对象1606是包含来自网站的网站内容(诸如文本、图像、视频、超链接和/或音频内容)的网络浏览应用程序的用户界面,或者是包括可选择的音乐类别的列表和与多个音乐专辑相对应的多个可选择的用户界面对象的音频回放应用程序的用户界面。应当理解,上文讨论的内容是示例性的,并且在一些实施方案中,在三维环境1602中提供附加和/或替代内容和/或用户界面,诸如下文参考方法1700所描述的内容。另外,在一些实施方案中,如图16A所示,虚拟对象1606与退出选项1608和抓取条1609一起显示。在一些实施方案中,退出选项1608可选择以发起停止在三维环境1602中显示虚拟对象1606的过程。在一些实施方案中,如下文所讨论的,抓取条1609可选择以发起在三维环境1602内移动虚拟对象1606的过程。在一些实施方案中,如图16A所示,虚拟对象1606相对于计算机系统101的用户的视点显示在三维环境1602内的第一位置处。另外,如图16A所示,在虚拟对象1606显示在三维环境1602中的第一位置处时,从用户的视点来看,虚拟对象1606至少部分地遮挡三维环境1602中的物理窗口1622的一部分(例如,因为虚拟对象1606在空间上位于物理窗口1622前方)。
在一些实施方案中,如本文所讨论的,计算机系统101便于基于特定类型的重叠元素的显示来改变三维环境1602中显示的虚拟对象的视觉突出性。在一些实施方案中,如贯穿下文所讨论的,改变相应虚拟对象的视觉突出性包括改变虚拟对象的亮度水平(例如,包括在相应虚拟对象内显示的内容和/或以其他方式与相应虚拟对象相关联的内容)。例如,减小相应虚拟对象的视觉突出性(例如,相对于三维环境1602在视觉上削弱相应虚拟对象)包括降低相应虚拟对象的亮度水平(例如,调暗相应虚拟对象的内容)。在一些实施方案中,改变相应虚拟对象的视觉突出性包括改变虚拟对象的半透明度/不透明度(例如,包括在相应虚拟对象内显示的内容和/或以其他方式与相应虚拟对象相关联的内容)。例如,减小相应虚拟对象的视觉突出性(例如,相对于三维环境1602在视觉上削弱相应虚拟对象)包括增加相应虚拟对象的半透明度(例如,减小相应虚拟对象的内容的不透明度)。参考方法1700提供了关于改变相应虚拟对象的视觉突出性的更多细节。
在一些实施方案中,三维环境1602的显示与预定区域1610相关联。在一些实施方案中,预定区域1610对应于显示生成部件120的预定区域(例如,显示生成部件120的顶部中心区域)。在一些实施方案中,预定区域1610对应于三维环境1602的预定区域,诸如三维环境1602中的远场区域/位置,诸如图16A所示的物理环境的后壁。在一些实施方案中,预定区域1610响应于用户输入。例如,指向预定区域1610的基于注视和/或基于手的输入使得计算机系统101在三维环境1602中显示一个或多个用户界面元素。
在图16A中,在显示虚拟对象1606的同时,计算机系统101检测由手1603a提供的与在三维环境1602中显示相应用户界面的请求相对应的输入。例如,如图16A所示,计算机系统101检测到手1603a提供空中手势,诸如用户的手的食指和拇指一起接触的空中捏合手势,同时用户的注视1621指向预定区域1610。在一些实施方案中,计算机系统101检测到指向预定区域1610达阈值时间量(例如,0.5、1、1.5、2、3、5、10或15秒)的注视1621。另外,在图16A中,计算机系统101检测到由手1605a提供的对计算机系统101的物理按钮1615的选择(例如,按压)。在一些实施方案中,物理按钮1615的选择对应于长按,其中与物理按钮的接触持续阈值时间量(例如,0.5、1、1.5、2、3、4或5秒)。应当理解,虽然在图16A中示出了多只手和多个对应输入,但是此类手部和输入不需要被计算机系统101同时检测到;相反,在一些实施方案中,计算机系统101响应于独立地检测到示出和描述的手部和/或输入而独立地响应于此类手部和/或输入。
在一些实施方案中,如图16B所示,响应于检测到由手1603a提供的输入和/或由手1605a提供的输入,计算机系统101在三维环境1602中显示主用户界面1612。在一些实施方案中,主用户界面1612对应于计算机系统101的主用户界面,其包括与被配置为在计算机系统101上运行的相应应用程序相关联的多个可选择图标,如图16B所示。在一些实施方案中,如图16B所示,主用户界面1612显示在显示生成部件120的视场的中心处。
在一些实施方案中,如图16B所示,当计算机系统101在三维环境1602中显示主用户界面1612时,计算机系统101改变虚拟对象1606的视觉突出性。例如,如上文类似地讨论的,计算机系统101以第一方式相对于三维环境1602在视觉上削弱虚拟对象1606。在一些实施方案中,以第一方式在视觉上削弱虚拟对象1606包括降低三维环境1602中虚拟对象1606的整体的亮度和/或增加其半透明度,使得从用户的视点来看物理窗口1622的一部分透过虚拟对象1606变得更加可见,如图16B所示。在一些实施方案中,主用户界面1612的显示使得计算机系统101相对于三维环境1602在视觉上削弱虚拟对象1606,而不管当显示主用户界面1612时主用户界面1612是否与虚拟对象1606重叠。例如,在图16B中,虽然当显示主用户界面1612时主用户界面1612与虚拟对象1606重叠,但是即使主用户界面1612不与虚拟对象1606的任何部分重叠,计算机系统101仍将相对于三维环境1602在视觉上削弱虚拟对象1606(例如,因为主用户界面1612是导致这种行为的用户界面类型)。
在图16B中,在三维环境1602中显示主用户界面1612的同时,计算机系统101检测由手1603b提供的输入,该输入对应于对主用户界面1612中包括的多个图标中的第一图标1613的选择。例如,如图16B所示,计算机系统101在用户的注视1621指向第一图标1613的同时检测到空中手势,诸如空中捏合手势或空中轻击手势。在一些实施方案中,第一图标1613与基于网络的搜索应用程序(例如,搜索引擎)相关联。
在一些实施方案中,如图16C所示,响应于检测到由手1603b提供的输入,计算机系统101激活主用户界面1612中的第一图标。例如,如图16C所示,计算机系统101停止显示主用户界面1612并在三维环境1602中显示搜索用户界面1614(例如,在第二虚拟对象内,诸如应用程序窗口)。在一些实施方案中,如图16C所示,搜索用户界面1614包括文本输入栏1617(例如,搜索栏),其可选择以发起将文本输入到文本输入栏1617中以提供搜索查询的过程。在一些实施方案中,如上文类似地讨论的,搜索用户界面1614与退出选项1608-1(例如,具有虚拟对象1606的退出选项1608的一个或多个特性)和抓取条1609-1(例如,具有虚拟对象1606的抓取条1609的一个或多个特性)一起显示。
在一些实施方案中,如图16C所示,当在三维环境1602中显示搜索用户界面1614时,搜索用户界面1614相对于用户的当前视点至少部分地与虚拟对象1606重叠。因此,如上文类似地讨论的,计算机系统101(例如,继续)以第一方式减小三维环境1602中的虚拟对象1606的视觉突出性(例如,计算机系统101增加虚拟对象1606的内容的半透明度和/或降低其亮度),如图16C所示。在一些实施方案中,计算机系统101以上述第一方式相对于三维环境1602在视觉上削弱虚拟对象1606,因为搜索用户界面1614是导致这种行为的特定类型的对象(例如,应用程序窗口)。
在图16C中,在三维环境1602中显示搜索用户界面1614的同时,计算机系统101检测由手1603c提供的指向搜索用户界面1614的文本输入栏1617的输入。例如,计算机系统101在注视1621指向搜索用户界面1614中的文本输入栏1617的同时检测到手1603c提供空中手势,诸如空中捏合或空中轻击手势。
在一些实施方案中,如图16D所示,响应于检测到由手1603c提供的输入,计算机系统101选择文本输入栏1617。在一些实施方案中,当计算机系统101选择文本输入栏1617时,计算机系统101发起用于在文本输入栏1617中输入文本的过程,该过程包括在三维环境1602中显示虚拟键盘1620,如图16D所示。另外,如图16D所示,计算机系统101任选地更新文本输入栏1617以包括文本光标1619,该文本光标指示响应于检测到对虚拟键盘1620的一个或多个键的选择而将在文本输入栏1617中输入(例如,显示)文本(例如,字母、数字和/或特殊字符)的位置。
在一些实施方案中,如图16D所示,当在三维环境1602中显示虚拟键盘1620时,虚拟键盘1620相对于用户的视点与搜索用户界面1614的一部分(例如,搜索用户界面1614的底部边缘)重叠。如图16D所示,虽然虚拟键盘1620与搜索用户界面1614重叠,但是计算机系统101任选地放弃以第一方式改变搜索用户界面1614的视觉突出性。例如,当虚拟键盘1620与搜索用户界面1614重叠显示时,计算机系统101放弃降低搜索用户界面1614的亮度和/或增加其半透明度。在一些实施方案中,计算机系统101放弃减小搜索用户界面1614的视觉突出性(例如,尽管虚拟键盘与搜索用户界面1614重叠),因为当显示虚拟键盘1620时,虚拟键盘1620与搜索用户界面1614相关联(例如,作为搜索用户界面1614的虚拟输入设备)。
在图16D中,在三维环境1602中显示虚拟键盘1620的同时,计算机系统101检测由手1603d提供的指向虚拟对象1606(例如,当前被搜索用户界面1614重叠)的输入。例如,如图16D所示,计算机系统101在用户的注视1621指向与虚拟对象1606一起显示的抓取条1609的同时检测到手1603d提供空中手势捏合和拖动手势。在一些实施方案中,计算机系统101在手1603d保持捏合手形的同时检测手1603d在空间中相对于用户的视点向上的移动。
在一些实施方案中,如图16E所示,响应于检测到由手1603d提供的输入,计算机系统101根据手1603d的移动在三维环境1602中移动虚拟对象1606。例如,如图16E所示,计算机系统101在三维环境1602中相对于用户的视点向上移动虚拟对象1606。另外,在一些实施方案中,当计算机系统101在三维环境1602中移动虚拟对象1606时,由于当检测到由图16D中的手1603d提供的输入时虚拟对象1606被搜索用户界面1614重叠,因此计算机系统101在三维环境1602中在空间上向前移动虚拟对象1606,使得虚拟对象1606在空间上比搜索用户界面1614更靠近用户的视点。在一些实施方案中,如图16E所示,当虚拟对象1606在三维环境1602中向前移动时,从用户的视点来看,虚拟对象1606现在至少部分地遮挡搜索用户界面1614。由于虚拟对象1606与搜索用户界面1614重叠并且虚拟对象1606对应于应用程序窗口(例如,如上文所讨论的,导致下面对象的整个部分变得在视觉上削弱的对象类型),因此计算机系统101以上文所讨论的第一方式相对于三维环境1602在视觉上削弱搜索用户界面1614(例如,增加搜索用户界面1614的半透明度,使得物理窗口1622的一部分透过搜索用户界面1614变得更加可见,和/或降低搜索用户界面1614的亮度)。
在一些实施方案中,如图16E所示,由于虚拟键盘1620在三维环境1602中与搜索用户界面1614相关联(例如,作为如上所述的虚拟输入设备),因此当计算机系统101以第一方式减小搜索用户界面1614的视觉突出性时,计算机系统101也以第一方式减小虚拟键盘1620的视觉突出性(例如,即使虚拟对象1606当前相对于用户的视点未与虚拟键盘1620的任何部分重叠)。例如,如上文类似地讨论的,计算机系统101增加虚拟键盘1620(例如,包括虚拟键盘1620的键)的半透明度,使得物理环境的后壁的一部分和/或物理环境的地板透过虚拟键盘1620变得更加可见,和/或降低三维环境1602中的虚拟键盘1620的亮度。
根据图16E至图16F,当虚拟对象1606显示在三维环境1602的最前部(例如,相对于用户的视点)时,计算机系统101检测到通知事件(或另一警告事件)。例如,计算机系统101检测传入电子邮件事件(例如,在计算机系统101上运行的邮件应用程序处接收的),但是其他类型的通知事件也是可能的,诸如参考方法1700所描述的那些中的任一个。
在一些实施方案中,如图16F所示,响应于检测到通知事件,计算机系统101在三维环境1602中显示与检测到的通知事件相对应的通知元素1624(例如,通知点或徽章)。例如,如图16F所示,通知元素1624包括与通知元素1624相关联的通知类型(例如,电子邮件通知)的指示(例如,图像、图标、图画或其他表示)。另外,在一些实施方案中,计算机系统101在显示生成部件120的对应于通知中心的区域(例如,显示生成部件120的上部中心区域)处显示通知元素1624,如图16F所示。
在一些实施方案中,如图16F所示,当计算机系统101在三维环境1602中显示通知元素1624时,从用户的当前视点来看,通知元素1624与虚拟对象1606的至少一部分重叠。在一些实施方案中,如图16F所示,由于通知元素1624与虚拟对象1606重叠,因此计算机系统101改变虚拟对象1606的视觉突出性,如上文类似地讨论的。在一些实施方案中,计算机系统101以不同于上文讨论的第一方式的第二方式相对于三维环境1602在视觉上削弱虚拟对象1606。例如,在图16F中,由于通知元素1624是通知/警告相关对象,因此计算机系统101将局部视觉削弱应用于通知元素1624重叠的虚拟对象1606的部分。如图16F所示,计算机系统101任选地在视觉上削弱虚拟对象1606的被通知元素1624重叠的第一部分1607b,而不在视觉上削弱虚拟对象1606的未被通知元素1624重叠的第二部分1607a。例如,如图16F所示,计算机系统101增加虚拟对象1606的第一部分1607b的半透明度,使得物理窗口1622的一部分透过虚拟对象1606的第一部分1607b变得更加可见并且透过虚拟对象1606的第二部分1607a不会变得更加可见,并且/或者在三维环境1602中降低虚拟对象1606的第一部分1607b的亮度而不降低虚拟对象1606的第二部分1607a的亮度。
在图16G中,计算机系统101正在显示与沉浸式应用程序(例如,混合现实应用程序,诸如视频游戏应用程序、冥想应用程序和/或媒体回放应用程序)相关联的沉浸式内容。在一些实施方案中,如图16G所示,显示沉浸式内容包括显示沉浸式虚拟对象1630(例如,占据三维环境1602中的体积空间的三维花)。在一些实施方案中,沉浸式虚拟对象1630显示在三维环境1602中的沉浸式环境1632(例如,包括沙滩、海洋和/或云的海滩环境)内。如图16G所示,沉浸式环境1632以小于完全沉浸的方式显示(例如,使得沉浸式环境1632不占据显示生成部件120的整个视场)。另外,在一些实施方案中,如图16G所示,计算机系统101将视觉效果应用于用户的手1605b,这使得显示生成部件120的视场中的手1605b的部分显示为虚拟表示1628(例如,虚拟对象)。下面参考方法1700提供了关于显示沉浸式内容的更多细节。
在图16G中,在三维环境1602中显示上面讨论的沉浸式内容的同时,计算机系统101检测到事件已经发生。在一些实施方案中,检测事件已经发生包括检测用户输入。例如,如图16G所示,计算机系统101检测到用户的注视1621指向预定区域1610,任选地持续阈值时间量(例如,0.5、1、1.5、2、3、5、10或15秒),如时间条1629中的时间1631所表示的。在一些实施方案中,检测事件已经发生包括检测通知/警告事件,如先前所讨论的,诸如传入电子邮件、文本消息、电话呼叫和/或视频呼叫。
在一些实施方案中,如图16H所示,响应于检测到事件已经发生,计算机系统101在三维环境1602中显示通知元素1624。例如,如上文类似地讨论的,计算机系统101显示对应于相应通知事件的通知点或徽章,诸如如图16H所示的传入电子邮件。在一些实施方案中,如图16H所示,当在三维环境1602中显示通知元素1624时,通知元素1624与沉浸式内容的一部分(特别是沉浸式环境1632的一部分)重叠。因此,如上文类似地讨论的,计算机系统101任选地在三维环境中以第二方式减小沉浸式内容的视觉突出性。例如,如上文所讨论的,计算机系统101对通知/警告对象应用局部视觉削弱,使得如图16H所示,当在三维环境1602中显示通知元素1624时,计算机系统101仅在视觉上削弱沉浸式环境1632的被通知元素1624重叠的部分。在一些实施方案中,计算机系统101因此放弃在视觉上削弱沉浸式虚拟对象1630和虚拟表示1628的任何部分(例如,因为通知元素1624不与沉浸式虚拟对象1630或虚拟表示1628重叠)。如图16H所示,当计算机系统101在视觉上削弱沉浸式环境1632的被通知元素1624重叠的部分时,物理窗口1622的一部分透过沉浸式环境1632的在视觉上削弱的部分变得更加可见,如上文类似地讨论的。
在图16H中,在三维环境1602中显示通知元素1624的同时,计算机系统101检测由手1603e提供的与通知元素1624的选择相对应的输入。例如,如图16H所示,计算机系统101在注视1621指向三维环境1602中的通知元素1624的同时检测到手1603e执行空中捏合手势。
在一些实施方案中,如图16I所示,响应于检测到由手1603e提供的输入,计算机系统101选择通知元素1624,这包括显示与通知元素1624相关联的通知的预览1636。例如,如图16I所示,计算机系统101扩展通知元素1624以包括预览1636,该预览包括在计算机系统101处检测到的电子邮件通知的预览(例如,电子邮件的发件人的姓名、电子邮件的主题行和/或电子邮件正文的一部分)。在一些实施方案中,如图16I所示,计算机系统101在显示生成部件120的视场的中心显示预览1636。
在一些实施方案中,如图16I所示,当在三维环境1602中显示预览1636时,预览1636至少部分地与沉浸式虚拟对象1630和沉浸式环境1632重叠。在一些实施方案中,如图16I所示,当预览1636显示为与三维环境1602中的沉浸式内容重叠时,计算机系统101以上文先前讨论的第一方式相对于三维环境1602在视觉上削弱沉浸式内容(例如,因为预览1636是导致这种行为的重叠对象类型)。例如,如图16I所示,计算机系统101在视觉上削弱沉浸式虚拟对象1630、沉浸式环境1632和虚拟表示1628。在一些实施方案中,如上文类似地讨论的,当计算机系统101在视觉上削弱沉浸式虚拟对象1630时,沉浸式环境1632和物理环境(包括物理窗口1622)透过沉浸式虚拟对象1630变得更加可见。类似地,如图16I所示,当计算机系统101在视觉上削弱沉浸式环境1632时,物理环境(包括物理窗口1622)任选地透过沉浸式环境1632变得更加可见。在一些实施方案中,如图16I所示,当计算机系统101相对于三维环境1602在视觉上削弱虚拟表示1628时,计算机系统101停止显示虚拟表示1628。例如,计算机系统101停止应用使得手1605b的在显示生成部件120的视场内的部分显示为虚拟表示1628的视觉效果。因此,在图16I中,用户的手1605b的部分作为手1605b的表示(例如,透传表示或计算机生成的表示)再次可见。
在图16J中,计算机系统101在包括虚拟环境1640(例如,与计算机系统101相关联的系统环境)的三维环境1602中显示虚拟对象1606。在一些实施方案中,如图16J所示,虚拟环境1640对应于海滩环境(例如,包括虚拟沙滩、海洋和/或云的环境或场景)。如图16J所示,虚拟环境1640任选地以小于完全沉浸的方式显示在三维环境1602中,如上文类似地描述的。在图16J中,虚拟环境1640在空间上位于虚拟对象1606后方,使得从用户的当前视点来看,虚拟对象1606看起来显示在三维环境1602中的虚拟环境1640内。在一些实施方案中,虚拟环境1640不同于上文讨论的沉浸式环境1632。例如,如上所述,沉浸式环境1632是与特定沉浸式应用程序(例如,连同沉浸式虚拟对象1630)相关联的沉浸式内容,而虚拟环境1640是计算机系统101的系统环境(例如,并且因此不与在计算机系统101上运行的特定应用程序相关联)。
在图16J中,计算机系统101检测由手1603f提供的指向虚拟对象1606的输入。例如,如图16J所示,计算机系统101检测到手1603f在注视1621指向虚拟对象1606(任选地,虚拟对象1606中包括的内容,诸如可选择选项)的同时执行空中捏合手势。
在一些实施方案中,如图16K所示,响应于检测到由手1603f提供的输入,计算机系统101在三维环境1602中显示用于控制虚拟对象1606的内容的一个或多个参数的控制元素1638。例如,如图16K所示,控制元素1638使得用户能够控制与虚拟对象1606相关联的音频的音量(例如,诸如正在虚拟对象1606中回放的视频内容的音量水平)。
在一些实施方案中,如图16K所示,当计算机系统101在三维环境1602中显示控制元素1638时,控制元素1638显示为覆盖在虚拟对象1606上。在一些实施方案中,控制元素1638对应于导致上述视觉削弱行为的覆盖对象。具体地讲,在图16K中,由于控制元素1638显示为与虚拟对象1606重叠,因此计算机系统101以上述第一方式相对于三维环境1602在视觉上削弱虚拟对象1606。例如,如图16K所示,计算机系统101增加虚拟对象1606(例如,该虚拟对象的整个部分)的半透明度和/或降低其亮度。
如上所述,虚拟环境1640任选地不与虚拟对象1606相关联。因此,当计算机系统101减小三维环境1602中的虚拟对象1606的视觉突出性时,计算机系统101不会改变虚拟环境1640的视觉突出性。例如,如图16K所示,当虚拟对象1606在视觉上被削弱时,虚拟环境1640透过虚拟对象1606变得更加可见,但物理环境(包括物理窗口1622)透过虚拟环境1640不会变得更加可见。
图17是示出根据一些实施方案的基于不同类型的重叠对象的显示来改变虚拟对象的视觉突出性的方法的流程图。在一些实施方案中,方法1700在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法1700通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法1700中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法1700在与显示生成部件和一个或多个输入设备通信的计算机系统处执行。在一些实施方案中,计算机系统具有参考方法800、900、1100、1300和/或1500所描述的计算机系统的特性中的一个或多个特性。在一些实施方案中,显示生成部件具有参考方法800、900、1100、1300和/或1500所描述的显示生成部件的特性中的一个或多个特性。在一些实施方案中,输入设备具有参考方法800、900、1100、1300和/或1500所描述的输入设备的特性中的一个或多个特性。
在一些实施方案中,在经由显示生成部件从计算机系统的用户的当前视点在环境(例如,三维环境1602)中显示第一用户界面元素(例如,图16A中的虚拟对象1606)的同时,计算机系统经由一个或多个输入设备检测(1702a)第一事件已经发生,诸如由手1603a执行的空中手势或由手1605a提供的物理按钮1615的选择,如图16A所示。在一些实施方案中,环境是或包括如参考方法800、900、1100、1300和/或1500所描述的三维环境。在一些实施方案中,第一用户界面元素是在三维环境中显示的一个或多个虚拟对象中的一个。在一些实施方案中,第一用户界面元素是或包括虚拟应用程序窗口(例如,与在计算机系统上运行的应用程序相关联的应用程序用户界面)、虚拟媒体内容(例如,虚拟电影、电视节目剧集、视频剪辑和/或音乐视频)、现实世界对象的虚拟表示(例如,在计算机系统的物理环境中显示和/或在计算机系统的物理环境中可见)、沉浸式虚拟对象(例如,虚拟环境、混合现实对象和/或沉浸式视频游戏)和/或其他类型的虚拟对象。在一些实施方案中,第一用户界面元素具有参考方法800、900、1100、1300和/或1500所描述的虚拟对象的一个或多个特性。在一些实施方案中,检测第一事件已经发生包括检测警告事件(例如,传入通知(例如,文本消息、电子邮件、基于互联网的消息、电话呼叫和/或视频呼叫)、系统警告(例如,由与计算机系统的操作有关的计算机系统的操作系统生成的)和/或应用程序警告(例如,由在计算机系统上操作的应用程序生成的))的发生。在一些实施方案中,检测警告事件的发生与用户输入无关。例如,计算机系统在没有检测到由计算机系统的用户提供的对计算机系统的按钮或其他机械元件的选择、按压和/或旋转、由用户提供的对在三维环境中显示的虚拟按钮的选择、由用户提供的空中手势(例如,空中捏合手势或空中轻击手势)和/或基于注意力的(例如,基于注视的)交互的情况下检测警告事件。在一些实施方案中,检测第一事件已经发生包括经由一个或多个输入设备检测由计算机系统的用户提供的用户输入,诸如上文讨论的用户输入中的一个或多个。
在一些实施方案中,响应于检测到第一事件已经发生,计算机系统在环境中显示(1702b)不同于第一用户界面元素的第二用户界面元素,诸如如图16B所示的主用户界面1612或如图16F所示的通知元素1624。例如,响应于检测到第一事件已经发生,计算机系统在三维环境中显示通知/警告点或徽章。在一些实施方案中,计算机系统显示一个或多个基于系统的用户界面元素(例如,可选择图标、文件夹和/或其他图像)的列表、菜单、转盘和/或托盘,这些用户界面元素可选择以控制第一用户界面元素的显示的一个或多个方面和/或在三维环境中显示附加内容。在一些实施方案中,显示第二用户界面元素包括在三维环境中显示第二虚拟应用程序窗口(或类似的虚拟对象)。在一些实施方案中,在三维环境中显示的第二用户界面元素的类型(例如,如下文更详细地讨论的)基于检测到的第一事件。例如,根据确定第一事件是对应于传入电子邮件消息的通知事件,第二用户界面元素对应于电子邮件通知。又如,根据确定第一事件是对应于传入电话呼叫的通知事件,第二用户界面元素对应于传入电话呼叫通知。
在一些实施方案中,从计算机系统(1702c)的用户的当前视点来看,第二用户界面元素至少部分地与第一用户界面元素重叠(例如,相应部分),诸如如图16B所示的与虚拟对象1606重叠的主用户界面1612。例如,当计算机系统在三维环境中显示第二用户界面元素时,第二用户界面元素覆盖在第一用户界面元素的至少一部分上,使得从用户的当前视点来看,第一用户界面元素的至少一部分被第二用户界面元素遮挡(并且任选地透过第二用户界面元素不可见)。在一些实施方案中,当在三维环境中显示第二用户界面元素时,第二用户界面元素在空间上比第一用户界面元素更靠近三维环境中的用户的当前视点。
在一些实施方案中,根据确定第二用户界面元素是与第一用户界面元素重叠的第一类型的用户界面元素,第一用户界面元素以第一方式相对于环境在视觉上被削弱(1702d)(任选地不以第一方式相对于环境在视觉上削弱第二用户界面元素),诸如在视觉上削弱虚拟对象1606的整个部分,如图16B所示。例如,确定第二用户界面元素是第一类型的用户界面元素是根据确定第二用户界面元素是如上文类似地描述的系统用户界面元素,诸如与被配置为在计算机系统上运行的应用程序相关联的可选择图标、文件夹和/或其他图像的列表、菜单、转盘和/或托盘。在一些实施方案中,确定第二用户界面元素是第一类型的用户界面元素是根据确定第二用户界面元素是如上文类似地讨论的用于控制第一用户界面元素的显示的一个或多个方面(诸如亮度控制、音量水平控制、图像尺寸控制和/或其他控制)的控制用户界面元素。在一些实施方案中,确定第二用户界面元素是第一类型的用户界面元素是根据确定第二用户界面元素是作为或包括内容(诸如用户界面、媒体内容、基于文本的内容等)的应用程序窗口。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括改变第一用户界面元素的一个或多个视觉特性,诸如不透明度、亮度、尺寸和/或颜色饱和度。例如,在三维环境中显示第二用户界面元素之前,第一用户界面元素以相对于三维环境的第一视觉突出性显示。在一些实施方案中,当计算机系统在视觉上削弱第一用户界面元素时,计算机系统以相对于三维环境不同于(例如,小于或大于)第一视觉突出性的第二视觉突出性显示第一用户界面元素。例如,与以上文讨论的第一视觉突出性显示第一用户界面元素相比,计算机系统以更少的不透明度、亮度、尺寸和/或颜色饱和度显示第一用户界面元素的相应部分或更多或全部。在一些实施方案中,相对于三维环境在视觉上削弱第一用户界面元素包括与以第一视觉突出性显示第一用户界面元素相比,以更多的透明度和/或清晰度显示第一用户界面元素的相应部分。在一些实施方案中,第一用户界面元素的不与第二用户界面元素重叠的第二部分以第一视觉突出性显示,而第一用户界面元素的相应部分具有第二视觉突出性。在一些实施方案中,第一用户界面元素的相应部分包括第一用户界面元素的整体,包括第一用户界面元素的未被第二用户界面元素重叠的部分。在一些实施方案中,改变第一用户界面元素的视觉重点具有方法800和/或900中相同的一个或多个特性。
在一些实施方案中,根据确定第二用户界面元素是与第一用户界面元素重叠的不同于第一类型的用户界面元素的第二类型的用户界面元素,第一用户界面元素不以第一方式相对于环境在视觉上被削弱(1702e),诸如在视觉上削弱虚拟对象1606的第一部分1607b,如图16F所示。例如,计算机系统保持以上文相对于三维环境讨论的第一视觉突出性显示第一用户界面元素。在一些实施方案中,确定第二用户界面元素是第二类型的用户界面元素是根据确定第二用户界面元素是警告用户界面元素(诸如通知点或徽章)。在一些实施方案中,在三维环境中显示警告用户界面元素达阈值时间量(例如,1、2、3、5、10、15、20或30秒)(例如,在此期间用户能够与警告用户界面元素交互,诸如经由基于注意力和/或基于手动的交互,以查看警告的内容(例如,传入文本消息、电子邮件、应用程序通知等的预览))。在一些实施方案中,如下文更详细讨论的,如果计算机系统经由一个或多个输入设备检测到指向第二用户界面元素的用户输入,该用户输入导致第一类型的用户界面元素显示为与第一用户界面元素的至少一部分重叠(例如,导致附加内容经由第二用户界面元素呈现和/或附加用户界面元素显示在三维环境中),则计算机系统相对于三维环境在视觉上削弱第一用户界面元素。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,第一用户界面元素包括第一内容,诸如参考图16A所描述的用户界面。例如,如上文参考步骤1702类似地描述的,第一用户界面元素是在三维环境中显示一个或多个用户界面的虚拟应用程序窗口。在一些实施方案中,第一内容对应于在第一用户界面元素内显示的第一图像、一个或多个第一行文本和/或第一视频。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括相对于环境在视觉上调暗第一用户界面元素的第一内容,诸如降低虚拟对象1606的亮度,如图16B所示。例如,当在三维环境中显示第二用户界面元素时,第二用户界面元素与第一内容的至少一部分重叠(例如,使得第一内容在视觉上被第二用户界面元素遮挡)。在一些实施方案中,如上文参考步骤1702类似地描述的,计算机系统降低第一内容(例如,第一内容的被第二用户界面元素重叠的部分和/或第一内容的整个部分,包括被第二用户界面元素重叠的部分)的亮度。在一些实施方案中,计算机系统在视觉上调暗第一内容而不相对于环境在视觉上调暗第一用户界面元素的整个部分。例如,第一用户界面元素包括未被第二用户界面元素重叠的第二内容,并且因此相对于三维环境未在视觉上调暗。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素重叠显示时,在视觉上调暗三维环境中的第一用户界面元素的内容向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括增加第一用户界面元素相对于环境的半透明度,使得环境的被第一用户界面遮挡的第一部分(例如,包括在三维环境中的显示生成部件的物理环境或在三维环境中显示的虚拟环境)相对于用户的视点是可见的(或任选地,更可见的),诸如增加虚拟对象1606的半透明度,如图16B所示。例如,计算机系统减小第一用户界面元素的不透明度,使得物理环境或虚拟环境透过第一用户界面元素显露并对计算机系统的用户可见。在一些实施方案中,在显示第一用户界面元素的同时,环境的第一部分对计算机系统的用户不可见,或者在显示第二用户界面元素之前对用户部分可见(例如,环境的第一部分相对于用户的视点在视觉上被第一用户界面元素遮挡)。在一些实施方案中,物理环境包括当第一用户界面元素的半透明度增加时变得对用户可见或变得更加可见的一个或多个物理对象。在一些实施方案中,虚拟环境占据三维环境的全部或部分。在一些实施方案中,虚拟环境包括至少部分地遮盖三维环境(和/或围绕显示生成部件的物理环境)的至少一部分的场景,使得看起来好像用户位于该场景中(例如,并且任选地不再位于三维环境中)。在一些实施方案中,虚拟环境是大气转换,该大气转换修改三维环境的一种或多种视觉特性,使得看起来好像三维环境位于不同的时间、地点和/或条件(例如,早晨光照而不是下午光照、晴天而不是阴天和/或晚上而不是早晨)。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素重叠显示时,增加三维环境中的第一用户界面元素的半透明度向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并向用户提供对其空间场境的理解。
在一些实施方案中,根据确定第二用户界面元素是与第一用户界面元素重叠的第二类型的用户界面元素,第一用户界面元素以不同于第一方式的第二方式相对于环境在视觉上被削弱,诸如在视觉上削弱虚拟对象1606的第一部分1607b,如图16F所示。例如,当在三维环境中显示第二类型的第二用户界面元素时,计算机系统以第二方式而不是第一方式相对于三维环境在视觉上削弱第一用户界面元素。在一些实施方案中,以第二方式相对于环境在视觉上削弱第一用户界面元素包括放弃相对于环境在视觉上削弱第一用户界面元素。在一些实施方案中,以第二方式相对于环境在视觉上削弱第一用户界面元素包括将第一用户界面元素的一个或多个视觉特性(诸如不透明度、亮度、尺寸和/或颜色饱和度)改变小于当以如上文所讨论的第一方式相对于环境在视觉上削弱第一用户界面元素时的量和/或强度。当显示第一类型的第二用户界面元素时比当显示与第一用户界面元素重叠的第二类型的第二用户界面元素时在三维环境中以更少的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括相对于经由显示生成部件显示第一用户界面元素的三维环境(例如,图16B中的三维环境1602)在视觉上削弱第一用户界面元素(例如,如上文参考步骤1702类似地描述的)。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第一事件已经发生,根据确定第二用户界面元素是与第一用户界面元素重叠的不同于第一类型的用户界面元素和第二类型的用户界面元素的第三类型的用户界面元素(诸如参考图16C中的搜索用户界面1614所描述的应用程序窗口),第一用户界面元素以不同于第一方式(例如,和/或上述第二方式)的第三方式相对于环境在视觉上被削弱,诸如如图16C所示在视觉上削弱虚拟对象1606。例如,当在三维环境中显示第三类型的第二用户界面元素时,计算机系统以第三方式而不是第一方式和第二方式相对于三维环境在视觉上削弱第一用户界面元素。在一些实施方案中,第三类型的用户界面元素对应于与在计算机系统上运行的应用程序或计算机系统的主用户界面相关联的警告用户界面元素(例如,显示与被配置为在计算机系统上运行的应用程序相关联的一个或多个图标或其他用户界面对象)。在一些实施方案中,以第三方式相对于环境在视觉上削弱第一用户界面元素包括完全放弃相对于环境在视觉上削弱第一用户界面元素。在一些实施方案中,以第三方式相对于环境在视觉上削弱第一用户界面元素包括将第一用户界面元素的一个或多个视觉特性(诸如不透明度、亮度、尺寸和/或颜色饱和度)改变不同于(例如,小于或大于)当以如上文所讨论的第一方式和/或第二方式相对于环境在视觉上削弱第一用户界面元素时的量和/或强度。当显示第一类型的第二用户界面元素时比当显示与第一用户界面元素重叠的第二类型的第二用户界面元素时在三维环境中以不同的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,在环境中显示第一用户界面元素的同时,计算机系统经由一个或多个输入设备检测到第二事件已经发生,诸如如图16A所示的物理按钮1615的选择。在一些实施方案中,第二事件具有上文先前所描述的第一事件的一个或多个特性。
在一些实施方案中,响应于检测到第二事件已经发生,计算机系统在环境中显示不同于第一用户界面元素和第二用户界面元素的第三用户界面元素,诸如图16B所示的主用户界面1612。例如,响应于检测到第二事件已经发生,计算机系统在三维环境中显示通知/警告点或徽章。在一些实施方案中,计算机系统显示一个或多个基于系统的用户界面元素(例如,可选择图标、文件夹和/或其他图像)的列表、菜单、转盘和/或托盘,这些用户界面元素可选择以控制第一用户界面元素的显示的一个或多个方面和/或在三维环境中显示附加内容。在一些实施方案中,显示第三用户界面元素包括在三维环境中显示第二虚拟应用程序窗口(或类似的虚拟对象)。在一些实施方案中,在三维环境中显示的第三用户界面元素的类型(例如,如下文更详细地讨论的)基于检测到的第二事件。例如,根据确定第一事件是对应于传入电子邮件消息的通知事件,第三用户界面元素对应于电子邮件通知。又如,根据确定第二事件是对应于传入电话呼叫的通知事件,第三用户界面元素对应于传入电话呼叫通知。
在一些实施方案中,根据确定第三用户界面元素是不同于第一类型的用户界面元素和第二类型的用户界面元素的第三类型的用户界面元素(例如,上文讨论的第三类型),诸如图16I所示的预览1636,第一用户界面元素以第三方式(例如,上述第三方式,任选地不同于第一方式和/或第二方式)相对于环境在视觉上被削弱,而不管第三用户界面元素是否与第一用户界面元素重叠,如参考图16B中的主用户界面1612类似地描述的。例如,当在三维环境中显示第三用户界面元素时,如果第三用户界面元素是第三类型的元素,则计算机系统将第一用户界面元素的一个或多个视觉特性(诸如不透明度、亮度、尺寸和/或颜色饱和度)改变不同于(例如,小于或大于)当以如上文所讨论的第一方式和/或第二方式相对于环境在视觉上削弱第一用户界面元素时的量或强度。在一些实施方案中,第三用户界面元素与第一用户界面元素的至少一部分重叠,如上文先前所讨论的。在一些实施方案中,在三维环境中相对于用户的视点邻近第一用户界面元素(例如,在第一用户界面元素的一侧)、在第一用户界面元素上方或下方、或在第一用户界面元素前方(但不遮挡第一用户界面元素)显示第三用户界面元素。因此,在一些实施方案中,如果第三用户界面元素是第三类型的用户界面元素,则计算机系统以第三方式相对于三维环境在视觉上削弱第一用户界面元素,而不管从用户的视点来看第三用户界面元素相对于第一用户界面元素在何处和/或如何显示。当在三维环境中显示第三类型的第三用户界面元素时比当显示第一类型或第二类型的第二用户界面元素时在三维环境中以不同的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第三用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第二事件已经发生,第二用户界面元素以第三方式相对于环境在视觉上被削弱,诸如如图16I所示在视觉上削弱沉浸式环境1632。在一些实施方案中,当计算机系统在三维环境中显示作为第三类型的用户界面元素的第三用户界面元素时,计算机系统以上述第三方式相对于三维环境在视觉上削弱第一用户界面元素和第二用户界面元素(和/或在三维环境中显示的其他用户界面元素)两者。当在三维环境中显示第三类型的第二用户界面元素时比当显示第一类型或第二类型的第二用户界面元素时在三维环境中以不同的视觉突出性显示一个或多个第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第二事件已经发生,根据确定第三用户界面元素是不同于第一类型的用户界面元素、第二类型的用户界面元素和第三类型的用户界面元素的第四类型的用户界面元素(诸如图16D中的虚拟键盘1620),第一用户界面元素以不同于第三方式的第四方式相对于环境在视觉上被削弱,而不管第三用户界面元素是否与第一用户界面元素重叠,诸如如图16D所示放弃在视觉上削弱搜索用户界面1614。例如,当在三维环境中显示第三用户界面元素时,如果第三用户界面元素是第四类型的元素,则计算机系统将第一用户界面元素的一个或多个视觉特性(诸如不透明度、亮度、尺寸和/或颜色饱和度)改变大于当以上文讨论的第一方式、第二方式和/或第三方式相对于环境在视觉上削弱第一用户界面元素时的量和/或强度。例如,如果第三用户界面元素是第四类型的用户界面元素,则第一用户界面元素以小于当第三用户界面是第一类型、第二类型或第三类型的用户界面元素时第一用户界面元素的亮度的亮度显示。类似地,如果第三用户界面元素是第四类型的用户界面元素,则第一用户界面元素任选地以大于当第三用户界面是第一类型、第二类型或第三类型的用户界面元素时第一用户界面元素的半透明度的半透明度显示。在一些实施方案中,第四类型的用户界面元素对应于计算机系统的主用户界面(例如,显示与被配置为在计算机系统上运行的应用程序相关联的一个或多个图标或其他用户界面对象)。在一些实施方案中,第三用户界面元素与第一用户界面元素的至少一部分重叠,如上文先前所讨论的。在一些实施方案中,在三维环境中相对于用户的视点邻近第一用户界面元素(例如,在第一用户界面元素的一侧)、在第一用户界面元素上方或下方、或在第一用户界面元素前方(但不遮挡第一用户界面元素)显示第三用户界面元素。因此,在一些实施方案中,如果第三用户界面元素是第四类型的用户界面元素,则计算机系统以第四方式相对于三维环境在视觉上削弱第一用户界面元素,而不管从用户的视点来看第三用户界面元素相对于第一用户界面元素在何处和/或如何显示。当在三维环境中显示第四类型的第二用户界面元素时比当显示第一类型、第二类型和/或第三类型的第二用户界面元素时在三维环境中以不同的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第一事件已经发生,根据确定第二用户界面元素是与第一用户界面元素重叠的不同于第一类型的用户界面元素和第二类型的用户界面元素(例如,以及上述第三类型的用户界面元素)的第四类型的用户界面元素,第一用户界面元素不相对于环境在视觉上被削弱,诸如如图16D所示放弃在视觉上削弱搜索用户界面1614。例如,计算机系统在三维环境中保持以与第一事件发生之前相同的视觉突出性显示第一用户界面元素。在一些实施方案中,如下文更详细讨论的,第四类型的用户界面元素对应于包括用于将文本输入到三维环境中的文本输入栏中的多个可选择键的虚拟键盘。当响应于检测到事件已经发生而将第四类型的第二用户界面元素与第一用户界面元素重叠显示时,放弃在三维环境中以更少的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第四类型的第二用户界面元素交互的用户输入,从而避免使用第二用户界面元素指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,第四类型的用户界面包括虚拟键盘(例如,如上文所讨论的),诸如图16D中的虚拟键盘1620。在一些实施方案中,虚拟键盘是计算机系统的系统键盘。例如,响应于检测到对第一用户界面元素中或与第一用户界面元素相关联的文本输入栏或其他选项的选择,在三维环境中显示虚拟键盘。因此,在一些实施方案中,检测第一事件已经发生包括检测选择使得显示虚拟键盘的用户界面对象的用户输入,诸如与在第一用户界面元素中输入文本的请求相对应的用户输入。在一些实施方案中,虚拟键盘与在计算机系统上运行的应用程序相关联,诸如与第一用户界面元素相关联的应用程序(例如,文本消息传送或网络消息传送应用程序的键盘)。在一些实施方案中,虽然虚拟键盘在三维环境中至少部分地与第一用户界面元素重叠,但是计算机系统在显示虚拟键盘时放弃在视觉上削弱第一用户界面元素,以允许用户保持第一用户界面元素的可见性(例如,使得用户能够查看文本输入栏和/或响应于检测到对虚拟键盘的一个或多个键的选择而输入到文本输入栏中的文本)。当响应于检测到事件已经发生而将虚拟键盘与第一用户界面元素重叠显示时,放弃在三维环境中以更少的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与虚拟键盘交互的用户输入,从而避免使用虚拟键盘指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,在根据确定第二用户界面元素(例如,上文所述的虚拟键盘)是第四类型的用户界面元素来显示第二用户界面元素而不相对于环境在视觉上削弱第一用户界面元素时,计算机系统经由一个或多个输入设备检测第二事件已经发生,诸如如图16D所示由手1603d提供的指向虚拟对象1606的输入。在一些实施方案中,第二事件具有上文先前所描述的第一事件的一个或多个特性。在一些实施方案中,如上文类似地讨论的,虚拟键盘与三维环境中的第一用户界面元素相关联。例如,虚拟键盘的键可经由用户输入(例如,由用户的手轻击或触摸输入)选择,以将文本(例如,字母、数字和特殊字符)输入到第一用户界面元素的文本输入栏中。
在一些实施方案中,响应于检测到第二事件已经发生,计算机系统在环境中显示不同于第一用户界面元素和第二用户界面元素的第三用户界面元素,诸如如图16E所示在三维环境1602中向前移动虚拟对象1606。例如,计算机系统在三维环境中显示具有第一用户界面元素或第二用户界面元素的一个或多个特性的虚拟应用程序窗口或其他用户界面对象。
在一些实施方案中,从计算机系统的用户的当前视点来看,第三用户界面元素至少部分地与第一用户界面元素重叠(例如,相应部分),诸如虚拟对象1606与搜索用户界面1614重叠,如图16E所示。在一些实施方案中,当显示第三用户界面元素时,从用户的当前视点来看,第三用户界面元素也至少部分地与第二用户界面元素重叠。
在一些实施方案中,根据确定第三用户界面元素是与第一用户界面元素重叠的第一类型的用户界面元素(例如,上文先前讨论的第一类型的用户界面元素),第一用户界面元素和第二用户界面元素以第一方式相对于环境在视觉上被削弱(任选地不以第一方式相对于环境在视觉上削弱第三用户界面元素),诸如在视觉上削弱搜索用户界面1614和虚拟键盘1620。例如,由于虚拟键盘与第一用户界面元素相关联(例如,作为三维环境中的虚拟输入设备),因此当第一类型的第三用户界面元素显示在三维环境中时,计算机系统减小第一用户界面元素和虚拟键盘两者相对于三维环境的视觉突出性。在一些实施方案中,计算机系统将第一用户界面元素的一个或多个视觉特性(诸如第一用户界面元素的不透明度、亮度、尺寸和/或颜色饱和度)以及第二用户界面元素的一个或多个视觉特性(诸如第二用户界面元素的不透明度、亮度、尺寸和/或颜色饱和度)相对于三维环境改变相同的量和/或强度。在一些实施方案中,计算机系统将第一用户界面元素的视觉特性中的一个或多个视觉特性改变与第二用户界面元素的视觉特性中的改变相比不同的量和/或强度。
在一些实施方案中,根据确定第三用户界面元素是与第一用户界面元素重叠的第二类型的用户界面元素,第一用户界面元素和第二用户界面元素不以第一方式相对于环境在视觉上被削弱(例如,如上文参考步骤1702类似地描述的),诸如在虚拟对象1606不与图16E中的搜索用户界面1614重叠的情况下放弃在视觉上削弱搜索用户界面1614和虚拟键盘1620。在一些实施方案中,计算机系统在显示第二类型的第三用户界面元素时放弃以任何方式相对于环境在视觉上削弱第一用户界面元素和第二用户界面元素。当响应于检测到事件已经发生而将第三用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素和与第一用户界面元素相关联的第二用户界面元素向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第三用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第三用户界面元素交互的用户输入,从而避免指向第一用户界面元素和/或第二用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,响应于检测到第一事件已经发生,根据确定当显示第二用户界面元素时从用户的当前视点来看第二用户界面元素不至少部分地与第一用户界面元素重叠(并且任选地在三维环境中不与不同于第一用户界面元素的任何其他用户界面元素重叠),计算机系统放弃相对于环境在视觉上削弱第一用户界面元素(任选地以任何方式),如上文参考方法800类似地描述的,诸如在搜索用户界面1614不与图16C中的虚拟对象1606重叠的情况下放弃在视觉上削弱虚拟对象1606。当响应于检测到事件已经发生而显示不与第一用户界面元素重叠的第二用户界面元素时,放弃在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该事件的检测尚未导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这促进发现用户能够与三维环境中的任一用户界面元素交互,从而改善用户设备交互。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括根据确定第二用户界面元素与第一用户界面元素的第一部分(例如,图16F中的第一部分1607b)重叠(例如,并且不与第一用户界面元素的第二部分重叠),相对于环境在视觉上削弱第一用户界面元素的第一部分,而不相对于环境在视觉上削弱未被第二用户界面元素重叠的第一用户界面元素的不同于第一部分的第二部分(例如,图16F中的第二部分1607a)。例如,计算机系统在视觉上削弱第一用户界面元素的相对于用户的视点被第二用户界面元素遮挡的部分,而不在视觉上削弱第一用户界面元素的相对于三维环境中的用户的视点未被第二用户界面元素遮挡的其他部分。在一些实施方案中,计算机系统基于与第一用户界面元素重叠显示的用户界面元素的类型,相对于环境在视觉上削弱第一用户界面元素的第一部分,而不相对于环境在视觉上削弱第一用户界面元素的第二部分。例如,如果第二用户界面元素是覆盖小于第一用户界面元素的阈值量(例如,小于第一用户界面元素的5%、10%、15%、20%、25%、30%、35%或50%)的覆盖用户界面元素,诸如通知徽章或点,则计算机系统改变从用户的视点被第二用户界面元素遮挡的第一用户界面元素的部分的一个或多个视觉特性,如上文所讨论的。在一些实施方案中,计算机系统根据确定第二用户界面元素是警告用户界面元素(诸如如上文先前所讨论的与传入通知事件相关联的通知徽章或点),相对于环境在视觉上削弱第一用户界面元素的第一部分,而不相对于环境在视觉上削弱第一用户界面元素的第二部分。在一些实施方案中,根据确定第二用户界面元素是响应于用户输入而显示的用户界面(诸如如上文先前讨论的主用户界面或虚拟应用程序窗口),计算机系统相对于环境在视觉上削弱第一用户界面元素的第一部分和第一用户界面元素的第二部分(例如,即使第二部分未被第二用户界面元素重叠),如下文所讨论的。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素的第一部分重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素的第一部分为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互或保持与第一用户界面元素的交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,以第一方式相对于环境在视觉上削弱第一用户界面元素包括:根据确定第二用户界面元素与第一用户界面元素的第一部分重叠(例如,并且不与第一用户界面元素的第二部分重叠),相对于环境在视觉上削弱第一用户界面元素的第一部分,并且相对于环境在视觉上削弱未被第二用户界面元素重叠的第一用户界面元素的不同于第一部分的第二部分,诸如如图16C所示在视觉上削弱虚拟对象1606的整个部分。例如,计算机系统在视觉上削弱第一用户界面元素的相对于用户的视点被第二用户界面元素遮挡的部分以及第一用户界面元素的相对于三维环境中的用户的视点未被第二用户界面元素遮挡的其他部分。在一些实施方案中,计算机系统基于与第一用户界面元素重叠显示的用户界面元素的类型,相对于环境在视觉上削弱第一用户界面元素的第一部分并且相对于环境在视觉上削弱第一用户界面元素的第二部分。例如,如果第二用户界面元素是虚拟应用程序窗口,该虚拟应用程序窗口是或包括一个或多个用户界面,诸如主屏幕用户界面、系统设置用户界面、显示通知警告的通知区域、或如上文类似地描述的搜索用户界面,则计算机系统改变第一用户界面元素的一个或多个视觉特性,任选地考虑从用户的视点来看第一用户界面元素被第二用户界面元素重叠的量。当响应于检测到事件已经发生而将第二用户界面元素与第一用户界面元素的第一部分重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素为在三维环境中显示的用户界面元素的类型提供视觉反馈,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,检测第一事件已经发生包括在计算机系统处检测第一警告事件,诸如参考图16F所描述的通知事件。例如,如上文参考步骤1702类似地描述的,计算机系统检测使得计算机系统显示第二用户界面元素(例如,通知或警告用户界面元素)的第一通知事件。在一些实施方案中,第一警告事件与另一计算机系统相关联(例如,第一警告事件对应于来自第二计算机系统的传入文本消息、电子邮件、电话呼叫和/或视频呼叫)。在一些实施方案中,第一警告事件与在计算机系统上运行的应用程序相关联(例如,第一警告事件对应于系统警告,或与应用程序的操作相关联的警告)。在一些实施方案中,在计算机系统处检测到第一警告事件,而没有检测到与显示第二用户界面元素的请求相对应的用户输入。在一些实施方案中,根据确定第一事件是不会使得计算机系统在三维环境中显示第二用户界面元素的不同类型的事件,计算机系统放弃显示上文讨论的第一通知或者显示不同于第二用户界面元素的替代用户界面元素,诸如下文讨论的用户界面元素之一。当响应于在计算机系统处检测到警告事件而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,检测第一事件已经发生包括经由一个或多个输入设备检测与在环境中显示第二用户界面元素的请求相对应的第一输入,诸如图16A中由手1603a执行的空中手势。例如,如上文参考步骤1702类似地描述的,计算机系统检测使得计算机系统显示第二用户界面元素的用户输入(例如,空中手势、基于注视的输入和/或与计算机系统的硬件按钮的交互)。在一些实施方案中,检测第一输入包括检测指向在三维环境中显示的用户界面对象的空中捏合或空中轻击手势。例如,计算机系统基于用户注视位置来检测对第一用户界面元素中的选项(或在另一用户界面元素中显示的选项)和/或指向显示生成部件的预定区域的选择。在一些实施方案中,检测第一输入包括检测注视和停留输入,诸如检测用户的注视指向用户界面对象(例如,可选择选项)超过阈值时间量(例如,0.25、0.5、1、1.5、2、3、4、5或10秒)。在一些实施方案中,检测第一输入包括检测计算机系统的物理按钮或旋转元件的按压、按压和保持(例如,超过阈值时间量,诸如0.1、0.25、0.5、1、1.5、2、3或5秒)、按压序列和/或旋转。当响应于检测到相应用户输入而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该事件的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,检测第一输入包括检测指向显示生成部件的预定部分的用户注视(任选地持续阈值时间量,诸如0.1、0.25、0.5、0.75、1、2、3、5、8或10秒),诸如指向预定区域1610的注视1621持续阈值时间量1631,如图16G所示。在一些实施方案中,显示生成部件的预定部分对应于第一用户界面元素在三维环境中的位置。在一些实施方案中,显示生成部件的预定部分对应于显示生成部件的顶部区域、侧面区域和/或底部区域。在一些实施方案中,计算机系统检测指向显示生成部件的预定部分的注视,而不另外检测基于手的输入,诸如如上文所讨论的空中手势或对物理按钮的选择。当响应于检测到基于注视的输入而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对基于注视的输入的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,在响应于检测到第一输入而在环境中显示第二用户界面元素的同时,计算机系统经由一个或多个输入设备检测指向第二用户界面元素的第二输入,诸如如图16H所示在注视1621指向通知元素1624的同时由手1603e提供的空中手势。例如,在三维环境中显示第二用户界面元素的同时,计算机系统检测由用户的手提供的空中手势(例如,空中捏合或轻击手势)或计算机系统的物理按钮的按压/选择,任选地同时用户的注视指向第二用户界面元素。在一些实施方案中,检测第二输入包括检测指向第二用户界面元素的用户的注视超过阈值时间量(例如,0.1、0.25、0.5、0.75、1、2、3、5、8或10秒)。在一些实施方案中,第二输入具有如上文讨论的第一输入的一个或多个特性。
在一些实施方案中,响应于检测到第二输入,计算机系统停止经由显示生成部件显示第二用户界面元素,诸如停止显示图16I中的通知元素1624。在一些实施方案中,计算机系统经由显示生成部件在环境中显示不同于第一用户界面元素和第二用户界面元素的第三用户界面元素,其中第三用户界面元素与第二用户界面元素相关联,诸如如图16I所示的预览1636的显示。例如,计算机系统在三维环境中用第三用户界面元素替换第二用户界面元素的显示。在一些实施方案中,显示第三用户界面元素包括显示第二用户界面元素增大和/或扩展到第三用户界面元素中的动画(例如,第三用户界面元素包括第二用户界面元素中未包括的附加信息、图像或其他内容)。例如,如上文类似地讨论的,第二用户界面元素是包括对应于与通知相关联的应用程序的图像(例如,图标或其他表示)的通知徽章或点(例如,用于文本消息通知的文本气泡图标或用于电子邮件通知的信封图标)。当计算机系统显示第三用户界面元素时,计算机系统任选地扩展第二用户界面元素和/或替换第二用户界面元素的显示以显示通知的预览(例如,在计算机系统处检测到的文本消息或电子邮件的一部分)。在一些实施方案中,当显示第三用户界面元素时,如果第三用户界面元素至少部分地与第一用户界面元素重叠,如上文类似地描述的,则计算机系统基于第三用户界面元素的用户界面元素相对于三维环境的类型在视觉上削弱第一用户界面元素。响应于检测到指向与三维环境中的第一用户界面元素重叠显示的第二用户界面元素的用户输入而在三维环境中显示第三用户界面元素有助于避免指向第一用户界面元素的交互中的错误,从而改善用户设备交互。
在一些实施方案中,检测第一输入包括经由一个或多个输入设备检测对计算机系统的硬件按钮(或物理旋转元件)的选择(例如,如上文类似地描述的),诸如如图16A所示对由手1605a提供的物理按钮1615的选择。在一些实施方案中,响应于检测到对计算机系统的硬件按钮的选择,计算机系统具体地显示计算机系统的主用户界面,如上文类似地讨论的。例如,响应于检测到替代输入(诸如空中手势或基于注视的输入),计算机系统不显示计算机系统的主用户界面。在一些实施方案中,主用户界面是如上文参考步骤1702所讨论的第一类型的用户界面元素。当响应于检测到对计算机系统的硬件按钮的选择而将第二用户界面元素与第一用户界面元素重叠显示时,在三维环境中以更少的视觉突出性显示第一用户界面元素向用户提供对该选择的检测导致三维环境中的第一用户界面元素与第二用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与第二用户界面元素交互的用户输入,从而避免指向第一用户界面元素的交互中的错误并改善用户设备交互。
在一些实施方案中,第一用户界面元素对应于与在计算机系统上运行的相应应用程序相关联的虚拟应用程序窗口(例如,图16C中的搜索用户界面1614)(例如,如上文参考步骤1702类似地描述的)。当响应于检测到事件已经发生而将相应用户界面元素与虚拟应用程序窗口重叠显示时,在三维环境中以更少的视觉突出性显示虚拟应用程序窗口向用户提供对该事件的检测导致三维环境中的虚拟应用程序窗口与相应用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与相应用户界面元素交互的用户输入,从而避免指向虚拟应用程序窗口的交互中的错误并改善用户设备交互。
在一些实施方案中,第一用户界面元素对应于沉浸式虚拟对象,诸如图16G中的沉浸式虚拟对象1630。例如,如上文参考步骤1702类似地描述的,沉浸式虚拟对象对应于在三维环境中具有相应体积并且占据三维环境内的体积空间的三维对象。在一些实施方案中,沉浸式虚拟对象与在计算机系统上运行的沉浸式应用程序(诸如混合现实应用程序、视频游戏应用程序、冥想应用程序等)相关联。在一些实施方案中,沉浸式虚拟对象是世界锁定对象(例如,本文定义)。在一些实施方案中,沉浸式虚拟对象包括显示内容(例如,文本、图像或视频)的网页浏览应用程序的窗口、显示照片或视频剪辑的窗口、用于控制计算机系统上的内容项的回放的媒体播放器窗口、显示联系人信息(例如,电话号码、电子邮件地址和/或生日)的联系人应用程序中的联系人卡片和/或游戏应用程序的虚拟棋盘游戏中的一者。在一些实施方案中,允许显示沉浸式虚拟对象的应用程序显示遍及三维环境的可用显示区域(例如,任选地由门户或其他边界约束的体积或区域)空间分布的内容。在一些实施方案中,门户或其他边界是进入与应用程序相关联的和/或由应用程序提供的内容的门户。因此,从用户的视点来看,内容经由门户是可见的。在一些实施方案中,沉浸式虚拟对象能够位于门户内和/或位于门户外。因此,在一些实施方案中,计算机系统在门户内和门户外显示沉浸式虚拟对象。例如,如果应用程序包括媒体播放器应用程序,则由媒体播放器应用程序提供的内容的一部分(例如,图像、视频(例如,电影、电视剧集和/或其他视频剪辑)、文本和/或三维对象(例如,形状、模型和/或其他渲染))可显示在与媒体播放器应用程序相关联的虚拟门户或边界内(和/或覆盖在其上),并且从用户的视点来看,由媒体播放器应用程序提供的内容的另一部分可显示在虚拟门户或边界之外的位置中(例如,在虚拟门户或边界旁边、在虚拟门户或边界前方和/或在虚拟门户或边界后方)。当响应于检测到事件已经发生而将相应用户界面元素与沉浸式虚拟对象重叠显示时,在三维环境中以更少的视觉突出性显示沉浸式虚拟对象向用户提供对该事件的检测导致三维环境中的沉浸式虚拟对象与相应用户界面元素之间的空间冲突的视觉反馈,这向用户提供校正空间冲突的机会,和/或促进用于与相应用户界面元素交互的用户输入,从而避免指向沉浸式虚拟对象的交互中的错误并改善用户设备交互。
在一些实施方案中,在响应于检测到第一事件已经发生而在环境中显示第二用户界面元素的同时,计算机系统经由一个或多个输入设备检测指向环境中的第一用户界面元素(例如,上述沉浸式虚拟对象)的相应输入,诸如如果手1605b提供了指向图16I中的沉浸式虚拟对象1630的空中手势。在一些实施方案中,检测相应输入包括检测由用户的手提供的空中手势(例如,空中捏合手势或空中轻击手势),任选地同时用户的注视指向三维环境中的第一用户界面元素。在一些实施方案中,检测相应输入包括检测对应于与第一用户界面元素的交互的计算机系统的硬件按钮的选择。例如,硬件按钮(例如,旋转元件,诸如机械拨盘)的旋转对应于改变沉浸式虚拟对象的沉浸水平的请求。在一些实施方案中,沉浸水平控制在三维环境中显示的沉浸式虚拟对象的量(例如,尺寸、体积、亮度和/或颜色饱和度)。例如,如果相应输入包括增加(例如,或减少)沉浸水平的请求,则三维环境内显示的沉浸式虚拟对象的量任选地增加(例如,或减少)。在一些实施方案中,检测相应输入包括检测基于注视的输入,诸如注视和停留(例如,其中用户的注视指向第一用户界面元素持续阈值时间量,诸如0.5、1、1.5、2、3、4、5、10或15秒)。
在一些实施方案中,响应于检测到相应输入,计算机系统放弃执行与指向第一用户界面元素的相应输入相关联的操作(任选地任何操作,诸如放弃改变沉浸式虚拟对象的沉浸水平),诸如在图16I中显示预览1636时放弃执行指向沉浸式虚拟对象1630的操作。例如,在三维环境中显示第二用户界面元素的同时,计算机系统放弃对指向三维环境中的第一用户界面元素的相应输入的响应。当第二用户界面元素保持显示在三维环境中时,计算机系统任选地放弃执行响应于指向第一用户界面元素的进一步输入的操作。在一些实施方案中,放弃执行与指向第一用户界面元素的相应输入相关联的操作包括放弃向第一用户界面和/或与第一用户界面元素相关联的应用程序发送(例如,和/或阻止发送)与相应输入相关联的数据(例如,并且不管应用程序是否提供指示对相应输入作出响应的方式的数据)。在一些实施方案中,根据确定当检测到相应输入时第二用户界面元素未显示和/或未与第一用户界面元素重叠,计算机系统执行与指向第一用户界面元素的相应输入相关联的操作。在相应用户界面元素显示为与沉浸式虚拟对象重叠时,响应于检测到用户输入而放弃执行与在三维环境中显示的沉浸式虚拟对象相关联的操作向用户提供计算机系统在显示相应用户界面元素时不响应于指向沉浸式虚拟对象的输入的反馈,从而避免指向沉浸式虚拟对象的交互中的错误并改善用户设备交互。
在一些实施方案中,在环境中显示第一用户界面元素包括根据确定用户的第一部分(例如,第一只手)相对于用户的视点定位在环境内(例如,在第一只手相对于视点定位在用户的视场中的三维环境内时检测到第一事件),将视觉效果应用于用户的第一部分,这使得用户的第一部分相对于用户的视点显示为环境中的相应虚拟表示,诸如图16G中的虚拟表示1628。例如,计算机系统在与用户的第一部分(例如,用户的手)在三维环境中的位置相对应的三维环境中的位置处显示与沉浸式虚拟对象相关联的虚拟表示,诸如第二虚拟对象(例如,三维对象、形状、模型或渲染),使得虚拟表示在视觉上看起来相对于用户的视点替换(例如,或消耗或占据)用户的第一部分。在一些实施方案中,计算机系统基于用户的第一部分在三维环境内相对于用户的视点的移动来更新虚拟表示在三维环境中的显示。例如,如果计算机系统检测到用户的手在三维环境中相对于用户的视点向左或向右移动,则计算机系统更新虚拟表示在三维环境中显示的位置,并根据手的移动相对于用户的视点向左或向右移动虚拟表示,使得虚拟表示继续在视觉上出现以相对于用户的视点替换用户的第一部分。在一些实施方案中,如果计算机系统检测到用户的手在三维环境中相对于用户的视点向上或向下移动,则计算机系统更新虚拟表示在三维环境中显示的位置,并根据手的移动相对于用户的视点向上或向下移动虚拟表示,任选地改变虚拟表示的尺寸以考虑由于向上或向下的手移动而定位在三维环境中的用户的手的量的任何改变。又如,如果计算机系统检测到用户的手在三维环境中相对于视点朝向或远离用户的视点移动,则计算机系统任选地更新虚拟表示在三维环境中显示的位置,并根据手的移动朝向或远离用户的视点移动虚拟表示,任选地改变虚拟表示的尺寸以考虑当手朝向或远离视点移动时手的尺寸相对于视点的增加或减小。
在一些实施方案中,响应于检测到第一事件已经发生,根据确定当检测到第一事件已经发生时用户的第一部分相对于用户的视点定位在环境内(例如,当第一事件发生时计算机系统正在三维环境中显示虚拟表示),计算机系统停止将视觉效果应用于用户的第一部分,使得相应虚拟表示不再相对于用户的视点显示在环境中,诸如停止显示图16I中的虚拟表示1628。例如,当在三维环境中显示第二用户界面元素时,计算机系统停止将视觉效果应用于用户的第一部分,使得用户的第一部分经由显示生成部件可见,或者用户的第一部分的表示经由显示生成部件可见。在一些实施方案中,根据确定当检测到已经发生第一事件时用户的第一部分不相对于用户的视点定位在环境内,计算机系统在三维环境中显示第二用户界面元素而不停止将视觉效果应用于用户的第一部分(例如,因为当检测到第一事件已经发生时不将视觉效果应用于用户的第一部分)。当在三维环境中显示相应用户界面元素时停止将视觉效果应用于用户的第一部分有助于减少或避免用户的第一部分与三维环境中的相应用户界面元素之间的潜在深度冲突,和/或促进发现显示相应用户界面元素使得视觉效果不再应用于用户的第一部分,从而改善用户设备交互。
应当理解,对方法1700中的操作进行描述的特定顺序仅仅是示例性的,并非旨在表明所描述的顺序是可执行这些操作的唯一顺序。本领域的普通技术人员会想到多种方式来对本文所述的操作进行重新排序。
图18A至图18T示出了根据一些实施方案的计算机系统在三维环境中相对于第二虚拟对象移动第一虚拟对象的示例。图18A示出了计算机系统101(例如,电子设备)经由显示生成部件(例如,图1和图3的显示生成部件120)从用户1814的视点(例如,面向计算机系统101所处的物理环境的后壁)显示三维环境1801。
在一些实施方案中,计算机系统101包括显示生成部件120。在图18A中,显示生成部件120包括朝向用户的面部取向的一个或多个内部图像传感器314a(例如,参考图5描述的眼睛跟踪相机540)。在一些实施方案中,内部图像传感器314a用于眼睛跟踪(例如,检测用户的注视)。内部图像传感器314a任选地布置在显示生成部件120的左侧部分和右侧部分,被配置为跟踪用户的左眼和右眼的位置、取向和/或移动。显示生成部件120还包括从用户面向外的外部图像传感器314b和314c,以检测和/或捕获物理环境和/或用户的手部的移动。在一些实施方案中,图像传感器314a、314b和314c具有参考以数字7、10、12、14、16为前缀的一系列附图所描述的图像传感器314的特性中的一个或多个特性。
如图18A所示,计算机系统101捕获计算机系统101周围的物理环境(例如,操作环境100)(包括计算机系统101周围的物理环境中的一个或多个对象)的一个或多个图像。在一些实施方案中,计算机系统101在三维环境1801中显示物理环境的表示。例如,三维环境1801任选地包括窗口的表示,其任选地是物理环境中的物理窗口的表示。另外,三维环境1801包括经由图18A中的显示生成部件120可见的纹理壁。
如本文进一步讨论的,在图18A中,显示生成部件120被示为在三维环境1801中显示内容。在一些实施方案中,内容由包括在显示生成部件120中的单个显示器(例如,图5的显示器510)显示。在一些实施方案中,显示生成部件120包括具有被合并(例如,由用户的大脑合并)以创建图18A-18T中所示的内容的视图的显示输出的两个或更多个显示器(例如,分别用于用户的左眼和右眼的左显示面板和右显示面板,如参考图5所描述的)。
显示生成部件120具有对应于图18A中所示出的内容(对应于本文中进一步描述的“视口”)的视场(例如,由外部图像传感器314b和314c捕获和/或经由显示生成部件120对用户可见的视场)。由于显示生成部件120任选地是头戴式设备,因此显示生成部件120的视场任选地与用户的视场相同或相似。
如本文所讨论的,计算机系统101的用户执行一个或多个空中捏合手势(例如,用手1816)以向计算机系统101提供一个或多个输入,从而提供针对由计算机系统101显示的内容的一个或多个用户输入。由手1816执行的空中手势的描绘仅是示例性和非限制性的;用户任选地使用不同的空中手势和/或使用其他形式的输入来提供用户输入,如参考以数字7、10、12、14和/或16为前缀的一系列附图所描述的。
在图18A的示例中,由于用户的手位于显示生成部件120的视场内,因此在三维环境1801内可见。也就是说,用户能够任选地在三维环境中看到其自己身体的在显示生成部件120的视场内的任何部分。
如上所述,计算机系统101被配置为使用显示生成部件120在三维环境1801中显示内容。在图18A中,三维环境1801还包括虚拟对象1803和1804。在一些实施方案中,虚拟对象1804任选地是包含内容(例如,多个可选择的选项)、三维对象(例如,虚拟时钟、虚拟球、虚拟汽车等)或计算机系统101显示的未包含在显示生成部件120的物理环境中的任何其他元素的应用程序的用户界面。例如,在图18A中,虚拟对象1804是包括来自网站的网站相关内容(诸如文本、图像、视频、超链接和/或音频内容)的网络浏览应用程序的用户界面,或者是包括可选择的音乐类别的列表和与多个音乐专辑相对应的多个可选择的用户界面对象的音频回放应用程序的用户界面。应当理解,上文讨论的内容是示例性的,并且在一些实施方案中,在三维环境1801中提供附加和/或替代内容和/或用户界面,诸如下文参考方法1900所描述的内容。在一些实施方案中,虚拟对象与退出选项和抓取条一起显示。在一些实施方案中,退出选项可选择以发起停止在三维环境1801中显示虚拟对象1804的过程。在一些实施方案中,抓取条可选择以发起在三维环境1801内移动虚拟对象1804的过程。
在一些实施方案中,如图18A所示,虚拟对象1804相对于计算机系统101的用户1814的视点显示在三维环境1801内的第一位置处。另外,如图18A所示,当虚拟对象1804显示在三维环境1801中的第一位置处时,从用户的视点来看,虚拟对象1804至少部分地遮挡三维环境1801中用户的物理环境的一部分(例如,因为虚拟对象1804占据介于用户的物理环境的纹理后壁与用户1814的视点之间的模拟位置)。
在图18A中,三维环境1801包括与虚拟对象1804相关联的虚拟对象1806。例如,虚拟对象1804与一个或多个用户界面和/或包括虚拟内容(诸如与虚拟对象1804相关联的设置)的虚拟对象同时显示。虚拟对象1806例如包括与用户与虚拟对象1804的交互有关的多个可选择选项(例如,“文件”、“编辑”、“查看”、“历史”和“书签”)。例如,多个可选择选项是任选地分别可选择的以发起包括在虚拟对象1804中、从虚拟对象1806延伸和/或包括在该虚拟对象中、和/或与虚拟对象1804分离的虚拟内容的显示。例如,响应于检测到对用户界面1806中包括的“文件”的选择,计算机系统101任选地更新虚拟对象1806以包括多个可选择选项,这些可选择选项分别可选择以发起诸如关闭虚拟对象1804中包括的浏览器窗口、发起与作为虚拟对象1804的相同应用程序(例如,网络浏览应用程序)相关联的附加虚拟对象的显示、和/或将虚拟对象1804的内容导出为文件(例如,图片、文档、和/或链接到网页的快捷虚拟对象)的操作。因此,虚拟对象1806与虚拟对象1804相关联,并且计算机系统101任选地确定虚拟对象1804与虚拟对象1806之间的分层关系,从而指示虚拟对象1806依赖于虚拟对象1804和/或与其相关。
在一些实施方案中,虚拟对象1806显示在三维环境1801内相对于虚拟对象1804的位置处。例如,虚拟对象1806任选地显示为与虚拟对象1804齐平、从该虚拟对象延伸和/或靠近该虚拟对象。作为另一示例,虚拟对象1806任选地包括在虚拟对象1804的正面中和/或从其延伸,该正面任选地是在其上显示可见和/或可交互虚拟内容的虚拟对象的表面。应当理解,尽管虚拟对象1804和/或虚拟对象1806被描述为二维对象,但是应当理解,这种描述并非严格限制。例如,二维对象任选地具有一定深度和/或一定模拟厚度,并且因此任选地理解为“几乎”二维对象。例如,虚拟对象1804和虚拟对象1806不一定被理解为相对于三维环境1801无限薄的平面,并且任选地被理解为具有相对于三维环境1801的深度(例如,沿着垂直于虚拟对象的正面的轴的距离)的相对较薄的对象。
在图18A中,三维环境1801还包括虚拟对象1803,其任选地具有与参考虚拟对象1804所描述的类似或相同的一个或多个特性。在图18A中,虚拟对象1803任选地是包括文件浏览用户界面的容器虚拟对象,该文件浏览用户界面被配置为便于浏览存储在计算机系统101的存储器中和/或与计算机系统101的用户帐户相关联的虚拟内容。附加地或另选地,虚拟对象1803包括媒体的多个表示,诸如照片和/或媒体浏览应用程序。例如,虚拟对象1803包括虚拟对象1802。图18A中的虚拟对象1802包括如图18A所示的图像,并且任选地包括与该图像相关联的附加信息。例如,虚拟对象1802包括指示图像的文件类型、图像的描述符、与图像相关联的元数据和/或分配给图像的文件名的文本。本公开考虑了相对于虚拟对象1802执行的操作,然而,应当理解,操作任选地相对于附加或替代虚拟对象以与参考虚拟对象1802所描述的类似或相同的方式执行。另外,应当理解,计算机系统101任选地执行与如参考虚拟对象1802所描述的关于多个虚拟对象(诸如同时选择的多个虚拟对象(例如,和/或同时相对于三维环境1801在视觉上区分))的分组类似或相同的一个或多个操作。
在图18A中,在显示虚拟对象1802的同时,计算机系统101检测由手1816提供的与发起虚拟对象1802相对于三维环境1801的移动的请求相对应的输入。例如,如图18A所示,计算机系统101检测到手1816提供空中手势,诸如用户的手的食指和拇指一起接触的空中捏合手势,同时用户的注意力1807指向虚拟对象1802。在一些实施方案中,计算机系统101根据确定注意力1807停留在定向虚拟对象1802上大于阈值时间量(例如,0.5、1、1.5、2、3、5、10或15秒)的一段时间来发起虚拟对象1802的移动。附加地或另选地,在图18A中,计算机系统101检测到对计算机系统101的物理按钮的选择(例如,按压)。在一些实施方案中,物理按钮的选择对应于长按,其中与物理按钮的接触持续阈值时间量(例如,0.5、1、1.5、2、3、4或5秒)。应当理解,一个或多个空中手势和/或输入任选地由用户1814的一只或多只手提供。在一些实施方案中,同时或连续检测手和输入。在一些实施方案中,计算机系统101响应于独立地检测到示出和描述的手部和/或输入而独立地响应于此类手部和/或输入。在一些实施方案中,根据确定注意力1807指向相应虚拟内容,用户输入“指向”相应虚拟内容。下文省略对注意力1807的进一步描述,但是应当理解,包括手1816的移动的输入任选地向计算机系统101指示输入的目标。
在一些实施方案中,计算机系统101促进反馈的显示,包括当移动另一虚拟对象时改变三维环境1801中显示的虚拟对象的视觉突出性。如参考方法800、900、1100、1300、1500、1700和/或1900进一步描述的,计算机系统101显示具有活动聚焦状态的虚拟对象1804,包括相对于三维环境1801的高度不透明度或完全不透明的外观。在一些实施方案中,改变相应虚拟对象的视觉突出性(例如,相应虚拟对象的一个或多个部分的视觉突出性水平)包括改变虚拟对象的半亮度水平(例如,包括在相应虚拟对象内显示的内容和/或以其他方式与相应虚拟对象相关联的内容)。例如,减小相应虚拟对象的视觉突出性(例如,相对于三维环境1801在视觉上削弱相应虚拟对象)包括降低相应虚拟对象的亮度水平(例如,调暗相应虚拟对象的内容)。在一些实施方案中,改变相应虚拟对象的视觉突出性包括改变虚拟对象的半透明度/不透明度(例如,包括在相应虚拟对象内显示的内容和/或以其他方式与相应虚拟对象相关联的内容)。例如,减小相应虚拟对象的视觉突出性(例如,相对于三维环境1801在视觉上削弱相应虚拟对象)包括增加相应虚拟对象的半透明度(例如,减小相应虚拟对象的内容的不透明度)。参考方法800、900、1100、1300、1500、1700和/或1900提供了关于改变相应虚拟对象的视觉突出性的更多细节。
在图18B中,如三维环境1801的俯视图所示,如果不是为了改变虚拟对象1804的一部分的不透明度和/或视觉突出性,虚拟对象1802被移动到将被虚拟对象1804遮挡的位置。例如,虚拟对象1802根据手1816从图18A到图18B的移动在与手1816相对于计算机系统101移动的方向类似或相同的方向上移动。
在图18B中,计算机系统101改变虚拟对象1804的至少一部分的一个或多个视觉属性,以便于查看虚拟对象1802和/或与其交互。例如,从图18A到图18B,在移动虚拟对象1802的同时保持空中姿态(例如,所示的空中捏合)。响应于确定和/或根据确定虚拟对象将呈现虚拟对象1802的模拟遮挡,计算机系统101任选地改变图18B中所示的区域1818的一个或多个视觉属性以解决虚拟对象1802对虚拟对象1804的模拟遮挡并至少部分地保留虚拟对象1802的可见性。例如,如参考方法1900进一步描述的,计算机系统101任选地改变应用于区域1818的模拟模糊效果的亮度、不透明度、饱和度、色调、幅度和/或半径。具体地讲,在图18B中,区域1818的不透明度减小(例如,使其半透明或比先前更半透明)并且保持显示虚拟对象1802。
模拟遮挡(如本文中参考方法1900进一步描述的)任选地对应于这样的场景,其中相对更靠近用户1814的视点(例如,沿着平行于三维环境1801的地板并从用户1814的视点的中心延伸的深度维度)的第一虚拟内容的物理等效物将在视觉上阻挡或遮挡比第一虚拟内容相对更远离用户的视点的第二虚拟内容。例如,在图18B中所示的实施方案的替代布置中,不透明窗口的物理等效物(对应于虚拟对象1804)将相对于用户1814的视点在视觉上阻挡虚拟对象1802的物理等效物。因此,图18B中所示的实施方案的替代布置中的计算机系统任选地改变虚拟对象1802的视觉属性以模拟虚拟对象1802的遮挡,诸如停止显示虚拟对象1802。相比之下,图18B示出了修改区域1818的视觉突出性和/或一个或多个视觉属性以解决模拟遮挡的实施方案。
在一些实施方案中,修改虚拟对象1802的区域1818的视觉属性以解决虚拟内容的潜在遮挡,区域1818对应于图18B中的虚拟对象1804的边界。例如,计算机系统101将虚拟对象1802的感知边界投射到与虚拟对象1804平行和/或相交的平面和/或位置。例如,虚拟对象1802的边界相对于图18B中从用户1814的视点可见的边界延伸到与虚拟对象1804平行且相交的位置。投影的尺寸和/或比例限定虚拟对象1804的一部分,该部分任选地将以所修改的一个或多个视觉属性显示,以提高虚拟对象1802的可见性。在一些实施方案中,区域1818相对大于虚拟对象1802的边界到其与虚拟对象1804平行和/或相交的位置的投影。例如,图18B中虚拟对象1802的边界与区域1818的边界之间的虚拟对象1804的部分的不透明度也被减小,如呈现用户环境中的物理墙壁的表示的点填充图案所指示的。如参考图18C进一步示出和描述的,虚拟对象1802的边界与区域1818的边界之间的距离任选地基于虚拟对象1802与虚拟对象1804之间的相对深度。在一些实施方案中,改变区域1818中包括的一个或多个视觉属性以便于查看对象1802。例如,相对于三维环境1801降低一个或多个部分的不透明度、降低亮度、应用模糊效果、颜色去饱和、和/或改变它们的一些组合以查看对象1802,如图18B所示。
在一些实施方案中,计算机系统101动态地改变移动虚拟对象的比例,以按用户1814所感知的一致尺寸但相对于三维环境1801的改变尺寸呈现虚拟对象。虚拟对象的这种比例从图18A到图18B示出,如三维环境1801的俯视图中所示,并且应当理解,这种比例任选地适用于图18C至图18T中所示的移动虚拟对象。
在图18C中,虚拟对象1802朝向用户1814的视点移动得更近。例如,输入移动虚拟对象1802从图18B继续到图18C,并且相对于用户1814的视点围绕虚拟对象1802的区域根据虚拟对象1802的移动而改变。在一些实施方案中,被配置为保留虚拟对象1804的可见性的虚拟对象1802的区域的视觉属性根据虚拟对象1802与虚拟对象1804之间的相对距离和/或移动而改变。例如,根据虚拟对象1802与1804之间的相对减小的深度,图18C中的区域1820相对小于图18B中的区域1818。在一些实施方案中,区域1818和/或1820的尺寸根据虚拟对象1802与1804之间的深度相对于用户1814的视点的减小而增长和/或基于虚拟对象1802相对于用户的视点的边界。在一些实施方案中,响应于将虚拟对象1804更远离虚拟对象1802移动,计算机系统101改变(例如,放大或缩小)虚拟对象1804的包括经所修改的视觉属性的部分。
在一些实施方案中,计算机系统101响应于第一虚拟对象在第一方向上朝向或远离第二虚拟对象的移动而改变区域的视觉属性,从而促进虚拟对象1802在第一“方向”上的可见性,并且在一些实施方案中,响应于第一虚拟对象在第二方向上远离或朝向第二虚拟对象的移动而改变区域在第二“方向”上的视觉属性。例如,响应于虚拟对象1802朝向虚拟对象1804移动得更近而引起的虚拟对象1804的部分的视觉属性的改变任选地与远离虚拟对象1804移动的虚拟对象1802的视觉属性的改变相对(例如,缩小与增大该部分的尺寸、增加与减少不透明度、模糊效果的半径、饱和度水平、色调水平和/或亮度水平)。
在图18D中,指向虚拟对象1802的输入终止。在一些实施方案中,计算机系统101根据确定在虚拟对象1804相对于用户1814的视点遮挡虚拟对象1802的同时虚拟对象1802的移动终止来停止显示虚拟对象1802(例如,和/或虚拟对象1802不再对用户1814可见)和/或虚拟对象1804中包括的被配置为促进虚拟对象1804的可见性的区域。例如,从图18C到图18D,计算机系统101检测到空中捏合手势的停止(例如,用户1814的手指之间的接触的停止)、另一空中捏合姿势的停止、与表面(例如,由计算机系统101监视的触敏触控板或非触敏表面)的接触的停止、请求虚拟对象1802的移动的停止的语音命令和/或对物理或虚拟按钮的选择的停止。响应于输入移动虚拟对象1802的停止,并且由于虚拟对象1804的尺寸呈现出虚拟对象1802的模拟遮挡,计算机系统101停止在图18D中显示虚拟对象1802(例如,和/或停止保持虚拟对象1802透过虚拟对象1804的可见性)。在一些实施方案中,计算机系统101停止对虚拟对象1804(例如,图18C中的区域1820)的一个或多个视觉属性的修改,从而将视觉属性恢复到其在修改之前的相应值(例如,使得虚拟对象1804的视觉外观与图18A中所示的相似或相同)。
在图18E中,计算机系统101恢复虚拟对象1802的移动。例如,计算机系统101检测选择和/或移动虚拟对象1802的附加输入,或者保持在图18A中发起的移动操作(而不检测移动的停止,参考图18C至图18D所描述的)。在图18E中,与参考图18B之图18C所描述的类似,计算机系统101显示包括具有所修改的一个或多个视觉属性(例如,降低的不透明度水平)的区域1822的虚拟对象1804的一部分,指示虚拟对象1802与虚拟对象1804之间的接近度。根据与图18C中的距离相比虚拟对象1802与虚拟对象1804之间相对于用户的视点的距离,以相对于虚拟对象1804和/或相对于用户1814的视点的相对较小的尺寸显示图18E中的区域1822。因此,计算机系统101提供指示虚拟对象1802和1804彼此相对靠近的视觉反馈。
在图18F中,计算机系统101以指示虚拟对象1802将被添加到虚拟对象1804和/或可能将虚拟对象1802添加到虚拟对象1804的视觉外观显示虚拟对象1802和虚拟对象1804。如先前参考方法800、900、1100、1300、1500、1700及/或1900所描述的,在一些实施方案中,计算机系统101促进将第一虚拟对象包括在第二虚拟对象中,诸如当第二虚拟对象是用于其他虚拟对象(包括第一虚拟对象)的虚拟容器时。为了在视觉上指示第一虚拟对象将被和/或能够被添加到第二虚拟对象1804,计算机系统响应于由手1816保持的空中捏合从图18E到图18F的移动而显示覆盖虚拟对象1804的面向前方表面的虚拟阴影,诸如虚拟阴影1811。
在一些实施方案中,虚拟阴影1811以一个或多个视觉属性的一个或多个值显示,以传达虚拟对象1802与虚拟对象1804之间的接近度。例如,在图18F中,虚拟阴影1811以第一比例、饱和度、亮度、色调显示,具有第一模拟照明效果和/或其某种组合,模拟照亮虚拟对象1802的前方并将阴影投射到虚拟对象1804上的一个或多个光源的外观。例如,显示虚拟阴影1811,因为虚拟对象1802现在在虚拟对象1804的阈值距离内(例如,参考方法1900进一步描述的)。在图18F中,模拟光源的位置相对靠近虚拟对象1802,并且沿着垂直于包括图像的虚拟对象1802的表面延伸的轴定向。因此,虚拟阴影的空间轮廓(例如,形状、比例和相对于虚拟对象1804的位置)以虚拟对象1802为中心,并且与虚拟对象1802非常类似。
在一些实施方案中,虚拟阴影1811是和/或包括投影阴影,其中将α值和/或高斯模糊应用于虚拟阴影1811,以向靠近虚拟对象1804并在其前方移动的虚拟对象1802传达深度感。在一些实施方案中,虚拟阴影1811基于一个或多个模拟光源的位置。例如,模拟光源在虚拟对象1802的相对右上方,并且朝向虚拟对象1802向下定向。在一些实施方案中,模拟光源的位置和/或取向和/或模拟光源的取向响应于虚拟对象1802相对于虚拟对象1804的位置变化而变化。
在一些实施方案中,虚拟阴影1811还指示虚拟对象1802正在捕捉或已经捕捉到相对于虚拟对象1804的位置(例如,捕捉位置)。参考方法1900进一步描述的捕捉包括快速移动虚拟对象1802,如同被吸引朝向在虚拟对象1804的阈值距离(例如,参考方法1900所描述的)内的捕捉位置一样。在捕捉位置处,计算机系统101任选地提供对远离捕捉位置的移动的模拟阻力,和/或任选地在请求移动的输入在满足一个或多个标准之前终止的情况下,诸如当虚拟对象1802没有移动得足够远离捕捉位置和/或没有足够快地远离捕捉位置时,将虚拟对象1802朝向捕捉位置往回移动。
另外,如参考图18A至图18T所示,计算机系统101任选地显示视觉指示1805,以在视觉上传达虚拟对象1802可被“添加”到另一虚拟对象(例如,图18F中的虚拟对象1804)。将虚拟对象“添加”到另一虚拟对象任选地包括响应于在显示视觉指示1805的同时检测到移动输入的终止而显示没有虚拟阴影的虚拟对象。当本文中所描述的虚拟对象被“添加”到另一虚拟对象时,计算机系统101任选地将所添加的虚拟对象显示在接收者对象的主体附近、平行于接收者对象的主体和/或在接收者对象的主体内。虚拟对象的“添加”进一步参考方法1900来描述,并且任选地包括在与包含所添加的虚拟对象的虚拟对象的方向和/或幅度相匹配的方向和幅度上移动所添加的虚拟对象。在添加虚拟对象1802之后,计算机系统101任选地停止显示投射到虚拟对象1804上的虚拟阴影。
如俯视图所示,计算机系统101在图18F中以第一模拟速度(例如,“V=x cm/s”)移动虚拟对象1802。在一些示例中,计算机系统提供基于相对于虚拟内容的移动方向的对虚拟内容的移动的模拟阻力。例如,因为虚拟对象1802正从图18E到图18F被“拉动”穿过虚拟对象1804的面向后方表面,所以计算机系统101任选地将第一程度的模拟阻力应用于虚拟对象1802的移动,并且将虚拟对象1802的位置从第一位置平移到不同于明确请求的位置的第二位置。例如,第一位置与第二位置之间的距离是第一距离。在虚拟对象1802未穿过和/或朝向虚拟对象1802移动时检测到输入(与图18E中指向相同虚拟对象1804的输入类似或相同的输入)的情况下,计算机系统101任选地将虚拟对象1802从第三位置移动到第四位置,这两个位置彼此分开大于第一距离的第二距离。因此,根据确定所移动的虚拟对象未穿过和/或几乎未穿过另一虚拟对象,相同的输入任选地将虚拟对象移动更大的量。
在一些实施方案中,计算机系统101朝向虚拟对象1804的表面快速地移动虚拟对象1802。例如,作为上文所描述的实施方案的附加或替代实施方案,计算机系统101朝向虚拟对象1804的面向前方表面“捕捉”(例如,移动)虚拟对象1802,从图18E到图18F。在一些实施方案中,虚拟对象1802的捕捉和/或捕捉位置附加地或另选地包括相对于虚拟对象1804的预定取向。例如,图18F中的计算机系统101将虚拟对象1802定向为与虚拟对象1804平行,好像虚拟对象1802受到使虚拟对象对齐的力一样。
在一些实施方案中,计算机系统101阻止虚拟对象1802远离预定位置的移动。例如,计算机系统101检测到请求移动虚拟对象1802的输入,并且根据确定该输入不对应于以超过阈值速度(例如,0.05m/s、0.1m/s、0.25m/s、0.5m/s、0.75m/s、1m/s、1.25m/s、1.5m/s、3m/s、5m/s或10m/s)的模拟速度移动虚拟对象1802的请求和/或所请求的虚拟对象移动的距离不超过模拟阈值距离(例如,0.05m、0.1m、0.25m、0.5m、0.75m、1m、1.25m、1.5m、3m、5m或10m),计算机系统101放弃虚拟对象1802远离其在图18F中的捕捉位置的移动。另选地,计算机系统101任选地响应于前述输入而将虚拟对象1802移动显著小于所请求的移动距离的距离(例如,小一个数量级),并且响应于输入的终止,并且任选地以动画方式显示虚拟对象1802相对于虚拟对象1804返回到预定位置的移动而不检测明确地请求这种移动的附加输入。
从图18F到图18G,计算机系统101相对于虚拟对象1804移动虚拟对象1802。在图18G中,计算机系统101检测手1816的移动,诸如朝向用户1814的身体的保持空中捏合手势的移动,并且作为响应,“拉动”虚拟对象1802远离虚拟对象1804。在一些实施方案中,计算机系统101响应于检测到相对于虚拟对象1804移动虚拟对象1802的输入而改变虚拟阴影1811的位置、取向和/或一个或多个视觉属性。例如,从图18F到图18G,计算机系统101在图18G中向左、向下和相对较大地更新虚拟阴影1811的位置和/或比例。在图18G中,虚拟阴影1811的外观任选地类似于将模拟光源从沿着垂直于虚拟对象1802的轴的位置移动到相对于法向轴右侧的位置,并且向上朝向三维环境1801的天花板并且相对于用户1814的视点移动。
在一些实施方案中,计算机系统101在虚拟对象1802的移动期间改变虚拟对象1802的一个或多个维度。例如,计算机系统101任选地从图18B到图18C增加虚拟对象1802的相对宽度(例如,沿着与虚拟对象1802的宽度平行的横向维度向下缩放),以任选地保留虚拟对象相对于用户的视点的感知比例(例如,宽度)。因此,相对深度(例如,沿着从用户的视点的中心延伸、与三维环境801的地板平行的轴的距离)任选地是确定虚拟对象1802的动态比例的因素。应当理解,缩放任选地基于虚拟对象与用户的视点之间的相对深度成比例地、成反比地或以其他方式发生。附加地或另选地,缩放任选地沿着移动虚拟对象的一个或多个维度(例如,高度和宽度)发生,任选地通过类似或相同量的缩放,因此任选地保留虚拟对象相对于用户1814的视点的纵横比。
在一些实施方案中,当虚拟对象1802的移动超过阈值模拟速度时,计算机系统101放弃将虚拟对象1802捕捉到另一虚拟对象。例如,从图18E到图18F,计算机系统101以第一速度(例如,“x cm/s”)移动虚拟对象1802。作为替代示例,从图18E到图18G,计算机系统101以大于第一速度的第二速度(例如,“2x cm/s”)移动虚拟对象1802。在一些实施方案中,计算机系统101如从图18E到图18F所示捕捉移动的虚拟对象,包括当虚拟对象的速度比当虚拟对象“穿过”而不捕捉时相对较慢时,在图1811中显示虚拟阴影1811。在一些实施方案中,计算机系统101放弃如从图18E到图18G所示捕捉移动的虚拟对象1802。例如,计算机系统101在虚拟对象1802以第二速度移动期间不提供模拟阻力、不显示虚拟阴影、和/或不将虚拟对象1802朝向相对于虚拟对象1804的捕捉位置移动。应当理解,指示虚拟对象1802是捕捉还是通过而不捕捉的速度和/或阈值的相对差异不同于所描述的阈值(例如,“x cm/s”和“2x cm/s”仅传达相对速度的差异,而不是严格的数学关系)。
在图18H中,用户1814相对于三维环境1801的视点与图18A至图18G所示的不同。例如,响应于检测到视点的改变(例如,从图18G到图18H),计算机系统101显示虚拟对象1810和虚拟对象1808,它们是具有与虚拟对象1804类似或相同的一个或多个特性的虚拟窗口。如三维环境1801的俯视图中所示的虚拟对象1808和1810虚拟地相交,部分地占据三维环境的同一区域,如参考方法1900进一步描述的。在图18H中,虚拟对象1810以包括一定不透明度水平的视觉外观显示,以强调其对应于第一聚焦状态的活动聚焦状态,与之相比,虚拟对象1808以不同的视觉外观(例如,包括不同的、相对较低的不透明度水平)显示,以指示其对应于第二聚焦状态的非活动聚焦状态。在一些实施方案中,计算机系统101停止在相对于用户1814的视点受到模拟遮挡的位置处显示虚拟对象1808。例如,如至少参考方法800、900和/或1900进一步描述的,计算机系统101以低不透明度水平或完全透明的外观显示虚拟对象1808的否则将在视觉上遮挡虚拟对象1810的部分,如图18H中与虚拟对象1810的主体重叠的虚拟对象1808的虚线轮廓所指示的。
在图18H中,包括覆盖虚拟对象1810的菜单1826。在一些实施方案中,菜单1826包括用于控制与虚拟对象1810相关联的一个或多个设置的用户界面。附加地或另选地,菜单1826任选地包括一个或多个可选择选项(例如,“文件”、“编辑”、“查看”、“历史”),这些可选择选项分别可选择以发起附加用户界面和/或虚拟内容的显示。在一些实施方案中,虚拟对象(诸如菜单1826)被显示为具有指示其与底层虚拟对象(诸如虚拟对象1810)的关联的空间关系。例如,菜单1826显示为与虚拟对象1810的前表面相交、平行和/或虚拟地附连到该前表面,如图18H所示。在一些实施方案中,菜单1826显示为覆盖虚拟对象1810的表面并与其相切、与虚拟对象1810相交(例如,在深度方向上)、和/或从虚拟对象1810的前表面伸出预定距离(例如,0.001m、0.0025m、0.005m、0.01m、0.025m、0.05m、0.1m、0.15m或0.25m)。
在图18H中,计算机系统101显示作为用户注意力目标1807的虚拟对象1812(具有与虚拟对象1802类似或相同的特性)。在图18H中,计算机系统101检测到包括手1816形成发起虚拟对象1812的移动的空中捏合手势的输入。在图18I中,计算机系统101根据用户输入来移动虚拟对象1812,诸如响应于空中手势的移动和/或在图18H中检测到空中手势时。
在图18I中,虚拟对象1812移动到虚拟对象1810的阈值距离内,诸如虚拟对象1810前方的阈值距离和/或虚拟对象1810的任何部分的阈值距离内。响应于该移动,计算机系统101开始“捕捉”虚拟对象1812以对应于虚拟对象1810的前表面,包括旋转和/或平移虚拟对象1812。因此,在图18I中,计算机系统101显示与虚拟对象1810平行的虚拟对象1812,并启动虚拟阴影1828和“添加”视觉指示1805的显示。在图18I中,虚拟阴影1828的尺寸对应于虚拟对象1810的表面相对于用户的视点并平行于虚拟对象1810的表面的取向,类似于先前描述的虚拟阴影1811的旋转视图。可以理解,虚拟阴影的模拟取向任选地与图18I中的不同,诸如如果由与从用户的视点延伸的轴平行、与三维环境1801的地板平行、并且相对于三维环境1801的俯视图与用户的视点垂直取向的虚拟光源投射。在图18J中,计算机系统101开始将虚拟对象1812朝向虚拟对象1810捕捉,并相应地改变投射虚拟阴影1830的模拟光源的位置,从而改变覆盖虚拟对象1810的虚拟阴影1830的视觉外观。
在一些实施方案中,计算机系统101改变朝向另一虚拟对象捕捉的虚拟对象的比例。例如,从图18I到图18J,计算机系统101发起在虚拟对象1812的阈值距离(例如,捕捉阈值距离)内移动的虚拟对象1810的捕捉。为了在视觉上指示捕捉的发起,计算机系统101显示虚拟对象1812将虚拟对象1812的比例从图18I增加到图18J,增加的幅度在一个或多个维度上大于和/或独立于本文所述的虚拟对象1812的动态缩放。在一些实施方案中,缩放是动画的,和/或是虚拟对象1812与相对于虚拟对象1810的捕捉位置之间的距离的函数。如参考图18M至图18N进一步描述的,计算机系统101任选地将虚拟对象1812朝向虚拟对象1808捕捉;因此,计算机系统101由于这种捕捉而增加虚拟对象1812的比例,类似于参考图18I至图18J描述的。在一些实施方案中,响应于在捕捉位置处的虚拟对象相对于相应虚拟对象的移动,计算机系统101响应于远离捕捉位置的移动而逐渐缩小移动的虚拟对象。在一些实施方案中,在缩放的幅度和/或方向上,虚拟对象的缩小与朝向另一虚拟对象移动到捕捉位置的虚拟对象的放大相反。
在图18K中,计算机系统101显示覆盖菜单1826的虚拟对象1812。例如,响应于检测到包括由从图18J到图18K的1816保持的空中捏合的用户输入,计算机系统101移动虚拟对象1812,保持其相对于虚拟对象1810的取向。在一些实施方案中,计算机系统101根据确定第三虚拟对象在第一虚拟对象与第二虚拟对象中间来偏移在第二虚拟对象的阈值距离内移动的虚拟对象的位置或定位。例如,在图18J中,计算机系统101检测将虚拟对象1812的位置平行于虚拟对象1810的表面平移的请求。从图18J到图18K,计算机系统101确定虚拟对象1812的平移将导致虚拟对象1812在菜单1826的阈值距离内(例如,在深度方向上)。因此,计算机系统101任选地将虚拟对象1812从图18K中的菜单1826偏移(例如,在深度方向上)。例如,计算机系统101保持虚拟对象1812与相应虚拟内容之间的深度,诸如相对于图18J中的虚拟对象1810的深度和相对于图18K中的菜单1826的深度,因此将虚拟对象1812进一步移动得更远离图18K中的虚拟对象1810。如果不存在菜单1826,则计算机系统101任选地平移图18K中的虚拟对象1812,从而保持相对于图18J中的虚拟对象的相同深度。
在图18L中,计算机系统101显示虚拟对象1812覆盖虚拟对象1810的另一部分而不与菜单1826重叠(例如,在深度方向上)。例如,虚拟对象1812和虚拟对象1810的表面之间的深度任选地在图18J和图18L中相同。该平移任选地响应于检测到平行于虚拟对象1810和/或菜单1826的表面移动虚拟对象1812的请求而发生,不包括朝向虚拟对象1810(例如,或远离虚拟对象1810)移动虚拟对象1812的请求。与参考图18J所描述的类似,计算机系统101任选地保持虚拟对象1812“捕捉”到靠近虚拟内容的表面。在图18L中所示的实施方案中,虚拟对象1812被捕捉到相对于虚拟对象1810而不是菜单1826的深度。
从图18L到图18M,计算机系统101改变虚拟对象1808和1810的聚焦状态。在一些实施方案中,计算机系统101响应于将虚拟对象移动到相应虚拟对象的阈值距离内而改变相应虚拟对象的聚焦状态。例如,在图18N中,计算机系统101显示具有活动聚焦状态的虚拟对象1808以及具有非活动聚焦状态的虚拟对象1810,从而提供虚拟对象1808的完全可见性以及呈现虚拟对象1808的模拟遮挡的虚拟对象1810的部分的降低的可见性(例如,不透明度)。例如,图18M中的虚拟对象1810和菜单1826的虚线轮廓指示这种虚拟内容以低不透明度水平显示,或者相对于三维环境1801完全透明。另外,在图18M中,虚拟对象1810任选地以去饱和的外观显示,以进一步指示非活动聚焦状态。在图18N中,计算机系统101进一步移动虚拟对象1812以覆盖虚拟对象1808。因此,图18N中的计算机系统101显示虚拟阴影1834,就好像模拟光源指向虚拟对象1812,将阴影投射到虚拟对象1808上(例如,与投影阴影偏移,从而指示虚拟对象1812可被添加和/或正捕捉到虚拟对象1808)。
从图18M到图18N,计算机系统101将虚拟对象1812朝向虚拟对象1808移动得更近。例如,即使当手1816从图18M到图18N保持静止时,或者响应于检测到先前由手1816保持的空中手势的停止而移动虚拟对象1812,虚拟对象1812也朝向虚拟对象1808的表面捕捉。在一些实施方案中,当计算机系统101检测到手1816保持其相对于三维环境1801的位置(例如,尽管保持位置请求保持虚拟对象1812的位置)时发生捕捉,因为虚拟对象1812在图18M和图18N中的虚拟对象1808的阈值“捕捉”距离内。
在一些实施方案中,计算机系统101检测试图移动(例如,推动)虚拟对象1812通过虚拟对象1808的输入。例如,在图18N中,计算机系统101检测到手1816保持以一定速度(例如,“10x cm/s”)垂直于虚拟对象1808的表面移动的空中手势。在一些实施方案中,计算机系统101响应于这种推动输入而移动虚拟对象1812,直到虚拟对象1812在虚拟对象1808的第二阈值距离内(例如,相交,或在0.001m、0.0025m、0.005m、0.01m、0.025m、0.05m、0.1m、0.15m或0.25m内)。当虚拟对象1812在虚拟对象1808的第二阈值距离内时,如图18N所示,计算机系统101任选地放弃虚拟对象1812沿着深度方向进一步移动,进一步朝向和/或穿过虚拟对象1808的表面。因此,当虚拟对象1812太靠近虚拟对象1812时,计算机系统101任选地终止虚拟对象1808在深度方向上的移动。
从图18N到图18O,计算机系统101检测包括由手1816执行的空中捏合的移动的用户输入,该用户输入请求虚拟对象1812沿着虚拟对象1808的表面的移动。在图18O中,计算机系统101响应于前述移动输入显示平行于虚拟对象1808的表面平移(任选地不旋转)的虚拟对象1812。另外,即使手1816的移动请求虚拟对象在深度方向上远离虚拟对象1808的表面的移动,计算机系统101由于正在进行的捕捉而保持虚拟对象1812与虚拟对象1808之间的深度。
在图18O中,尽管虚拟对象1810与1812之间相对接近,但计算机系统101不将虚拟对象1812朝向虚拟对象1810捕捉。在一些实施方案中,计算机系统101不将虚拟对象1812捕捉到满足一个或多个标准的虚拟内容。例如,计算机系统101在图18O中不将虚拟对象1812朝向虚拟对象1810捕捉,因为虚拟对象1810的靠近虚拟对象1812的部分以小于阈值水平(例如,0%、5%、10%、20%、30%、40%、50%或60%不透明度)的视觉突出性水平显示。因此,计算机系统101放弃捕捉虚拟对象1812。相比之下,如果虚拟对象1810以活动聚焦状态显示,并且虚拟对象1810的靠近虚拟对象1812的部分以大于阈值视觉突出性水平显示,则计算机系统101任选地将虚拟对象1812朝向虚拟对象1810捕捉。
从图18O到图18P,计算机系统101检测虚拟对象1812远离虚拟对象1808并朝向虚拟对象1810的移动。例如,计算机系统101检测将虚拟对象1812移动到虚拟对象1810后方的输入。在一些实施方案中,根据确定虚拟对象被带到以非活动聚焦状态显示的对象的阈值距离内,计算机系统101改变近处对象的聚焦状态。例如,从图18O到图18P,计算机系统101增加虚拟对象1810的视觉突出性,并减小虚拟对象1808的视觉突出性,以类似于参考图18A所描述的布置相应对象的聚焦状态。在图18P中,计算机系统101以降低的视觉突出性水平(例如,本文所述的不透明度、亮度、饱和度和其他视觉属性)显示区域1839,类似于参考图18A参考区域1818所描述的。因此,在图18P中,计算机系统101再次呈现原本将被虚拟对象1810遮挡的虚拟对象1812的可见性。
从图18P到图18Q,计算机系统101检测将虚拟对象1812朝向和/或穿过虚拟对象1810的正面移动的一个或多个输入,并且任选地将虚拟对象1812相对于虚拟对象1810的表面移动一定距离(例如,本文进一步描述的预定和/或捕捉距离)。尽管计算机系统101放弃虚拟对象1812相对于以降低的视觉突出性水平显示的虚拟对象1810的部分的捕捉(如参考图18O所描述的),但是计算机系统101从图18P到图18Q执行虚拟对象1812相对于以大于阈值视觉突出性水平的视觉突出性水平显示的虚拟对象1810的部分的捕捉。例如,响应于将虚拟对象1812移动到以去饱和外观显示的虚拟对象1810的部分的捕捉阈值距离内,计算机系统101将任选地如图18Q中所示将虚拟对象1812捕捉到虚拟对象1810,同时虚拟对象1810显示为具有图18O中所示的非活动状态。响应于这种捕捉,计算机系统101任选地显示虚拟内容的布置,如图18Q所示。
从图18Q到图18R,计算机系统101检测相对于虚拟对象1810的表面移动虚拟对象1812、请求沿着表面相对于三维环境1801的地面的垂直维度平移的一个或多个输入。响应于这样的一个或多个输入,计算机系统101将虚拟对象1812移动到其在图18R中所示的位置,同时保持虚拟对象1812与虚拟对象1810之间的相对深度。在一些实施方案中,计算机系统101忽略远离捕捉容器虚拟对象的移动输入。例如,计算机系统任选地忽略手1816由于“捕捉”吸引而在移动虚拟对象1812的同时远离虚拟对象1810的表面移动的一些移动,从而保持虚拟对象1810与1812之间的深度。然而,在一些实施方案中,远离虚拟对象1810的移动满足一个或多个标准(例如,虚拟对象1812的阈值请求速度和/或距离),并且计算机系统将虚拟对象1812远离虚拟对象1810移动。
图18S至图18T示出了计算机系统的视点相对于虚拟对象以相对极端的视角取向的实施方案,并且示出了相对于虚拟对象执行或不执行的捕捉操作。从图18R到图18S,计算机系统101检测用户1814的视点的改变,并发起虚拟对象1809的显示。如图18S所示,虚拟对象1809显示为使得相对于虚拟对象1809的面部法向延伸的线与从用户1814的视点的中心延伸的线形成一定角度。图18S中的角度大于计算机系统101确定适于查看虚拟对象1809的阈值角度(例如,5、10、20、30、40、50、60、70或80度);因此,计算机系统101减小图18S中的虚拟对象1809的视觉突出性和/或不透明度的水平。在一些实施方案中,虚拟对象1809以占位符边界显示,指示虚拟对象1809的一般存在但缺少虚拟对象1809中包括的内容(例如,搜索栏、菜单窗口、和/或网络浏览用户界面中包括的媒体)。
在一些实施方案中,通常可见且包括在虚拟对象1809中的虚拟内容不再显示,并且当从这样的极端角度查看虚拟对象时显示占位符,诸如虚拟对象1809的边界。在一些实施方案中,计算机系统101不朝向以降低的不透明度水平显示的虚拟对象1809捕捉对象。例如,从图18S到图18T,计算机系统101检测由手1816提供的朝向虚拟对象1809移动虚拟对象1812的一个或多个输入。在图18T中,由于用户的视点与虚拟对象1809之间的相对极端的视角,计算机系统101响应于移动虚拟对象1812的输入而放弃将虚拟对象1812捕捉到虚拟对象1809。
图19是示出改变虚拟对象的视觉突出性以解决与另一虚拟对象的模拟重叠的示例性方法1900的流程图。在一些实施方案中,方法1900在计算机系统(例如,图1中的计算机系统101,诸如平板电脑、智能电话、可穿戴计算机或头戴式设备)处执行,该计算机系统包括显示生成部件(例如,图1、图3和图4中的显示生成部件120)(例如,平视显示器、显示器、触摸屏和/或投影仪)和一个或多个相机(例如,向下指向用户的手的相机(例如,颜色传感器、红外传感器或其他深度感测相机)或从用户的头向前指向的相机)。在一些实施方案中,方法1900通过存储在非暂态计算机可读存储介质中并由计算机系统的一个或多个处理器诸如计算机系统101的一个或多个处理器202(例如,图1A中的控制单元110)执行的指令来管理。方法1900中的一些操作任选地被组合,并且/或者一些操作的次序任选地被改变。
在一些实施方案中,方法1900在与一个或多个输入设备和显示生成部件通信的计算机系统处执行,诸如与图像传感器314a-c和显示生成部件120通信的计算机系统101,如图18A所示。例如,计算机系统、一个或多个输入设备和显示生成部件分别具有参考方法800、900、1100、1300、1500和/或1700所描述的计算机系统、一个或多个输入设备和/或显示生成部件的一个或多个特性。
在一些实施方案中,计算机系统经由显示生成部件同时显示(1902a)经由显示生成部件可见的三维环境中的第一虚拟对象和第二虚拟对象,诸如图18A所示的虚拟对象1802和虚拟对象1804。在一些实施方案中,第一虚拟对象和第二虚拟对象分别显示在三维环境中的第一位置和第二位置处。在一些实施方案中,第一虚拟对象和/或第一虚拟位置具有与参考方法800、900、1100、1300、1500和/或1700所描述的虚拟对象及其对应位置类似或相同的一个或多个特性。附加地或另选地,第二虚拟对象任选地具有与参考方法800、900、1100、1300、1500和/或1700所描述的虚拟对象及其对应位置类似或相同的一个或多个特性。应当理解,虚拟对象任选地显示在三维环境内的某个位置处和/或对应于三维环境内的某个位置。例如,虚拟对象任选地显示为好像虚拟对象是占据用户的物理环境内的空间的二维、近似二维对象和/或三维对象。在一些实施方案中,虚拟对象分别对应于分别显示二维、近似二维对象和/或三维对象的位置中的任何一个或多个位置。在一些实施方案中,三维环境具有与参考方法800、900、1100、1300、1500和/或1700所描述的三维环境的一个或多个特性类似或相同的一个或多个特性。
在一些实施方案中,第一位置处的第一虚拟对象以第一视觉突出性水平(诸如如图18A所示的虚拟对象1802的视觉突出性水平)显示。在一些实施方案中,显示在第二位置处的第二虚拟对象以不同于第一视觉突出性水平的第二视觉突出性水平显示,诸如如图18A所示的虚拟对象1804的视觉突出性水平。在一些实施方案中,第一视觉突出性水平和第二水平具有与参考方法800、900、1100、1300、1500和/或1700所描述的视觉突出性水平类似或相同的一个或多个特性。如本文进一步描述的,视觉突出性水平任选地包括虚拟对象的一部分的模拟模糊效果、不透明度水平、模拟照明效果、饱和度和/或亮度变化。应当理解,如本文所描述的视觉突出性任选地不同于虚拟对象的比例、位置和/或取向(或虚拟对象如何显示的其他改变仅由于虚拟对象的移动和/或虚拟对象相对于用户的视点在不同取向和/或位置处的显示)。例如,改变视觉突出性水平任选地包括以相对于三维环境的比例、位置和/或取向显示虚拟对象和/或虚拟对象的一个或多个部分,并同时改变虚拟对象的一个或多个其他视觉属性。
在一些实施方案中,在经由显示生成部件同时显示第一虚拟对象和第二虚拟对象的同时,计算机系统经由一个或多个输入设备检测(1902b)包括相对于第二虚拟对象移动第一虚拟对象的请求的第一输入,诸如包括如图18A所示的手1816的移动的输入。例如,第一输入任选地具有与参考方法800、900、1100、1300、1500和/或1700所描述的输入类似或相同的一个或多个特性。类似地,相对于第二虚拟对象移动第一虚拟对象的请求具有与参考方法800、900、1100、1300、1500和/或1700所描述的用于在三维环境内移动虚拟对象的请求和/或操作所描述的特性类似或相同的一个或多个特性。例如,第一对象任选地移动得更靠近第二虚拟对象、远离第二虚拟对象、朝向第二虚拟对象旋转和/或远离第二虚拟对象旋转。
在一些实施方案中,响应于检测到第一输入(1902c)(和/或在检测到第一输入的同时)(例如,在计算机系统检测到保持与触控板的接触、保持空中手势(例如,空中捏合手势)、保持对按钮的选择的同时和/或在第一虚拟对象的移动模式被启用的同时,第一输入任选地正在进行和/或保持),计算机系统根据第一输入相对于第二虚拟对象移动(1902d)第一虚拟对象,诸如虚拟对象1802从图18A移动到图18B。在一些实施方案中,第一虚拟对象从第一位置移动到第三位置。在一些实施方案中,第三位置具有与第一位置类似或相同的一个或多个特性。在一些实施方案中,相对于用户的视点,第三位置位于与第一和/或第二位置不同的模拟深度处。该深度任选地是相对于计算机系统的用户的视点测量的模拟深度。在一些实施方案中,视点和/或用户具有与方法800、900、1100、1300、1500和/或1700的上下文中参考视点和/或用户所描述的特性类似或相同的一个或多个特性。
在一些实施方案中,根据确定移动第一虚拟对象导致第一虚拟对象的当前位置相对于计算机系统的用户的视点与第二虚拟对象的当前位置重叠,同时第一虚拟对象比第二虚拟对象更远离用户的视点(例如,第一对象在深度维度上在空间上在第二虚拟对象“后方”),计算机系统减小(1902e)第二虚拟对象的相应部分的不透明度(例如,停止显示第二虚拟对象的相应部分或使第二虚拟对象的相应部分透明,或增加第二虚拟对象的相应部分的透明度,以增加第一虚拟对象的至少第一部分从用户的视点的可见性),诸如虚拟对象1802与虚拟对象1804之间的重叠,以及区域1818的不透明度的减小,如图18B所示。在一些实施方案中,第二虚拟对象的相应部分的不透明度的减小应用于整个第二虚拟对象。在一些实施方案中,第二虚拟对象的相应部分的不透明度的减小应用于第二虚拟对象的一部分而不应用于第二虚拟对象的其他部分(例如,第二虚拟对象的相应部分的不透明度相对于第二虚拟对象的其他部分的不透明度减小)。
在一些实施方案中,根据确定在第一虚拟对象正被移动(诸如虚拟对象1802相对于虚拟对象1804从如图18A所示移动到如图18B所示)的同时第二虚拟对象至少部分地呈现第一虚拟对象的模拟或虚拟遮挡,计算机系统修改(例如,降低)第二虚拟对象的至少一部分的视觉突出性水平,以提高第一虚拟对象(诸如如图18B所示的区域1818中包括的虚拟对象1804的一个或多个部分)的可见性和/或可交互性。应当理解,第一虚拟对象的模拟遮挡任选地包括在第一和第二虚拟对象的当前位置处相对于用户的视点(例如,在物理环境中)模仿由第二虚拟对象的物理等效物对第一虚拟对象的物理等效物的物理遮挡。本文设想的系统和方法任选地包括修改第二虚拟对象的视觉外观以至少部分地“保留”当前正被移动到第二虚拟对象后方的第一虚拟对象的可见性(例如,根据第一输入),否则第一虚拟对象将被第二虚拟对象遮挡。因此,计算机系统任选地增加第一虚拟对象的第一部分的可见性。例如,第二虚拟对象的一个或多个部分以更高的半透明度显示,或者任选地是完全半透明的,该一个或多个部分任选地包括围绕第一虚拟对象的区域,以提高第一虚拟对象的可见性和/或可交互性。
在一些实施方案中,改变视觉外观包括改变第二虚拟对象(例如,虚拟对象的至少第二部分)的附加或替代视觉属性,诸如如图18B所示的区域1818和/或虚拟对象1804的视觉属性,以增加第一虚拟对象(例如,第一虚拟对象的第一部分)的可见性。例如,所改变的视觉外观任选地包括第二虚拟对象的移动(例如,平移、旋转和/或缩放以解决模拟遮挡),任选地包括改变第二虚拟对象的颜色、饱和度和/或亮度,任选地包括使第二虚拟对象模糊,和/或包括显示指示被第二虚拟对象虚拟遮挡的虚拟对象的至少第一部分的尺寸的边界(例如,同时保持第二虚拟对象的位置)。在一些实施方案中,视觉外观的改变包括本文所述的一个或多个视觉属性的一些组合。在一些实施方案中,响应于和/或根据第一输入,并且根据确定满足一个或多个标准,包括当第二虚拟对象的当前位置将使得第二虚拟对象遮挡第一虚拟对象时满足的标准,计算机系统保持第一虚拟对象的视觉外观,和/或在与模拟遮挡第二虚拟对象的一个或多个部分的模拟视觉冲突中改变第一虚拟对象的一个或多个部分的视觉外观。在一些实施方案中,改变或保持第一虚拟对象的视觉外观包括改变或保持参考第二虚拟对象的视觉外观所描述的一个或多个视觉属性。应当理解,第一虚拟对象和/或第二虚拟对象的视觉特性、属性和/或视觉外观任选地具有与参考方法800、900、1100、1300、1500和/或1700所描述的特性类似或相同的一个或多个特性。
在一些实施方案中,基于第二虚拟对象的第二位置与第一虚拟对象的当前位置(例如,第三位置)之间(诸如如图18B所示的虚拟对象1802与虚拟对象1804之间)的空间关系来满足一个或多个标准。例如,空间关系任选地包括第一虚拟对象的当前位置与第二虚拟对象的第二位置之间的相对接近度(例如,距离),诸如当第二虚拟对象的第二位置比第一虚拟对象的当前位置(例如,第三位置)相对更靠近用户的视点时。附加地或另选地,这种确定任选地包括第二虚拟对象在显示在第三位置处时将至少部分地遮挡第一虚拟对象而不存在第二虚拟对象的视觉外观的改变的肯定确定。
在一些实施方案中,第二虚拟对象的改变的视觉外观是任选地预定的,诸如包括对应于预定视觉突出性水平(例如,5%、10%、20%、30%、40%、50%、60%、70%或80%的不透明度)的第三视觉突出性水平。在一些实施方案中,视觉外观是动态地确定的,诸如随着第一虚拟对象的当前位置与第三虚拟对象之间的空间关系(例如,距离)改变(例如,增加或减小),视觉突出性相对减小或增加。在一些实施方案中,所改变的视觉外观是根据确定第一虚拟对象和/或第二虚拟对象中包括的虚拟内容的视觉属性来附加地或另选地确定的,诸如存在于相对于用户的视点的模拟重叠的部分处和/或围绕该部分的虚拟内容。例如,包括在第一虚拟对象的第一部分和/或第二虚拟对象的第二部分中的文本、媒体、虚拟对象和/或用户界面的各部分的颜色、空间密度、亮度和/或不透明度的存在任选地调制第二虚拟对象的第二部分的视觉外观改变的程度。例如,根据确定虚拟对象的第一部分和第二部分中包括的虚拟内容的颜色相似或相同,计算机系统任选地将虚拟对象的第二部分的视觉外观(例如,不透明度水平)改变与在满足一个或多个标准时颜色在视觉上不同(例如,白色和黑色)的情况下相比更大的程度(例如,不透明度水平的更大变化)。附加地或另选地,计算机系统任选地确定第一虚拟对象的第一部分中包括的文本之间的相对间距相对宽敞,并且任选地将第二虚拟对象的第二部分的视觉外观改变到比在文本被密集地布置在第一虚拟对象的第一部分内的情况下更小的程度。当第一虚拟对象移动到第二虚拟对象后方时减小第二虚拟对象的至少一部分的视觉突出性降低第一虚拟对象错误地从第一位置移动到第三位置的可能性,有助于降低为第一虚拟对象的移动提供进一步输入的难度和/或减少对保持第一虚拟对象的可见性和/或可交互性的输入的需求,从而降低执行此类操作所需的计算机系统的计算负载和功率。
在一些实施方案中,响应于检测到第一输入(和/或在检测到第一输入的同时),诸如手1816从图18A到图18B的移动,根据确定移动第一虚拟对象不会导致第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠(例如,在第一虚拟对象比第二虚拟对象更远离用户的视点的同时),诸如将虚拟对象1802相对于用户的视点远离虚拟对象1804移动到如图18A所示的布置,计算机系统放弃减小第二虚拟对象的相应部分的不透明度(并且任选地放弃减小第二虚拟对象的不透明度、放弃减小整个第二虚拟对象的不透明度,和/或放弃减小第二虚拟对象的任何部分的不透明度)。对检测到第一输入的响应任选地在保持用户的视点的同时发生。例如,根据确定第一虚拟对象和第二虚拟对象的当前位置相对于用户的视点不呈现模拟重叠和/或遮挡,计算机系统不减小第二虚拟对象的相应部分的不透明度。在一些实施方案中,不透明度的减小与第一虚拟对象或第二虚拟对象是否更靠近用户的视点无关地执行。例如,在保持用户的视点的同时,计算机系统任选地检测相对于第二虚拟对象移动第一虚拟对象的用户输入(例如,第一输入),使得第一虚拟对象的感知边界不重叠和/或遮挡第二虚拟对象的感知边界。因此,计算机系统任选地响应于第一虚拟对象相对于第二虚拟对象的这种移动而保持第二虚拟对象的相应部分的不透明度和/或保持第二虚拟对象整体的不透明度。在一些实施方案中,根据确定虚拟对象分别不呈现彼此的模拟遮挡,保持第一和/或第二虚拟对象的不透明度而与虚拟对象之间的相对距离无关和/或与第一或第二虚拟对象是否更靠近用户的视点无关。在第二虚拟对象的移动不会导致第二虚拟对象的相应部分与第一虚拟对象重叠的情况下,放弃减小第二虚拟对象的相应部分的不透明度保留第二虚拟对象的相应部分的可见性,因此保留第二虚拟对象整体的可见性,并从而减少功耗和处理以不必要地减小相应部分的不透明度和/或手动地校正透明度的不必要减小。
在一些实施方案中,响应于检测到第一输入(和/或在检测到第一输入的同时),根据确定在第一虚拟对象比第二虚拟对象更靠近用户的视点的同时移动第一虚拟对象导致第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠,诸如从如图18A所示的布置发起的将虚拟对象1802移动到虚拟对象1804的前方,计算机系统放弃减小第二虚拟对象的相应部分的不透明度(并且任选地放弃减小第二虚拟对象的不透明度、放弃减小整个第二虚拟对象的不透明度,和/或放弃减小第二虚拟对象的任何部分的不透明度),诸如保持虚拟对象1802的视觉突出性水平。对检测到第一输入的响应任选地在保持用户的视点的同时发生。在一些实施方案中,根据确定第一虚拟对象比第二虚拟对象相对更靠近用户的视点,计算机系统放弃减小第二虚拟对象的一个或多个部分(包括第二虚拟对象的相应部分)的不透明度(并且任选地保持第二虚拟对象的一个或多个部分的不透明度)。例如,由于第二虚拟对象的物理等效物不会遮挡比第二虚拟对象更靠近用户的视点放置的第一虚拟对象的物理等效物,因此计算机系统确定第二虚拟对象不会呈现第一虚拟对象的模拟遮挡。因此,计算机系统任选地放弃减小虚拟对象的相应部分的视觉突出性,以提高第一虚拟对象的可见性和/或可交互性。在一些实施方案中,响应于第一虚拟对象比第二虚拟对象相对更接近用户的视点的这种空间布置,并且根据确定第一虚拟对象的移动将呈现第二虚拟对象的模拟遮挡,计算机系统减小第二虚拟对象的一个或多个部分(例如,除相应部分之外,并且任选地包括相应部分)的不透明度,以模拟第一虚拟对象遮挡第二虚拟对象的视觉效果。根据确定第一虚拟对象比第二虚拟对象相对更靠近用户的视点,放弃减小虚拟对象的相应部分的不透明度改善关于虚拟对象的空间关系的视觉反馈和用户直觉,类似于在用户的物理环境内移动的物理对象,因此降低检测到用户输入错误地移动虚拟对象的可能性,并且从而减少根据错误输入执行操作所需的功耗和处理。
在一些实施方案中,在第一虚拟对象比第二虚拟对象更远离用户的视点时第一虚拟对象与第二虚拟对象之间的重叠包括相对于用户的视点的第一重叠程度,诸如如图18B所示虚拟对象1802与虚拟对象1804之间的重叠程度。例如,参考步骤1902所描述的第一虚拟对象与第二虚拟对象之间的重叠包括相对于相对于用户的视点可见的内容的第一重叠尺寸和/或程度。例如,重叠程度包括第一和/或第二虚拟对象的一部分。该部分任选地包括当投影到平面上时由第一虚拟对象与第二虚拟对象之间的交点界定的区域(例如,横向地与用户的视点相交、平行于用户的肩部并垂直于地板)。
在一些实施方案中,在第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠,同时第一虚拟对象比第二虚拟对象更远离用户的视点并且第二虚拟对象的相应部分的不透明度被减小时(例如,如参考步骤1902所描述的),计算机系统经由一个或多个输入设备检测相对于第二虚拟对象移动第一虚拟对象的第二输入,诸如如图18C所示在显示虚拟对象1802并且区域1820的不透明度减小时手1816的移动。例如,第二输入具有与第一输入类似或相同的一个或多个特性。在一些实施方案中,第二输入是第一输入的延续(例如,空中捏合手势的更多移动、触控板上的接触的更多移动和/或经由操纵杆请求的更多移动),也可能导致第一虚拟对象的遮挡。在一些实施方案中,第二输入是与第一输入分开的输入。
在一些实施方案中,响应于检测到第二输入,计算机系统根据第二输入移动第一虚拟对象(例如,与根据第一输入移动第一虚拟对象所描述的类似或相同),并且根据确定第一虚拟对象的移动导致第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠,包括相对于用户的视点的第二重叠程度(例如,不同于第一重叠程度),诸如如图18C所示的虚拟对象1802与虚拟对象1804之间的重叠,并且在第一虚拟对象比第二虚拟对象更远离用户的视点时,计算机系统减小不同于第二虚拟对象的相应部分的第二虚拟对象的附加部分的不透明度,诸如图18C中的区域1820与图18B中的区域1818的差异。例如,根据确定第一虚拟对象与第二虚拟对象重叠的程度相对于用户的视点增加,计算机系统任选地以减小的不透明度显示第二虚拟对象的附加部分,与参考第二虚拟对象的相应部分所描述的类似或相同,并且任选地与相应部分的减小的不透明度同时地。因此,第二虚拟对象的视觉突出性水平降低(例如,不透明度水平降低)的部分任选地取决于第二虚拟对象对第一虚拟对象的感知遮挡程度。在一些实施方案中,计算机系统检测到第一虚拟对象与第二虚拟对象重叠到更小程度,并且计算机系统根据相对于用户的视点的更小模拟重叠程度来缩小第二虚拟对象的相应部分。在一些实施方案中,根据确定第一虚拟对象的移动导致相对于用户的视点不包括第二重叠程度的与第二虚拟对象的重叠,计算机系统放弃减小第二虚拟对象的附加部分的不透明度(例如,同时保持附加部分的不透明度)。例如,计算机系统确定第二虚拟对象与第一虚拟对象重叠第一程度,或者重叠小于第二程度的第三程度,并放弃另外减小附加部分的不透明度。当第一虚拟对象的移动改变第二虚拟对象的与第一虚拟对象重叠的部分时,以降低的不透明度水平显示第二虚拟对象的附加部分保留第一虚拟对象的可见性,因此减少对提高第一虚拟对象的可见性的输入的需要,并且从而减少计算机系统响应于此类输入而执行操作时执行的处理和功耗。
在一些实施方案中,响应于检测到第一输入(和/或在检测到第一输入的同时),并且根据确定移动第一虚拟对象导致第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠,同时第一虚拟对象比第二虚拟对象更远离用户的视点(例如,如参考步骤1902所描述的),诸如如图18B所示的虚拟对象1804对虚拟对象1802的遮挡,根据确定第一虚拟对象与第二虚拟对象之间相对于用户的视点的距离是第一距离,第二虚拟对象的相应部分具有相对于三维环境(和/或相对于第二虚拟对象)的第一尺寸,诸如如图18B所示的区域1818的尺寸。例如,以促进第一虚拟对象的可见性的一个或多个所修改的视觉属性显示的(例如,参考步骤1902所描述的)第二虚拟对象的相应部分具有取决于第一虚拟对象与第二虚拟对象之间的距离的尺寸。例如,计算机系统任选地确定根据距离向上或向下缩放的以减小的不透明度显示的第二虚拟对象的椭圆区域的半径和/或焦点。例如,随着第一虚拟对象与第二虚拟对象之间的距离减小,半径或焦点增加(或减小)。随着第一虚拟对象与第二虚拟对象之间的距离增加,半径或焦点减小(或增加)。附加地或另选地,计算机系统任选地确定第一虚拟对象相对于用户的视点的边界,并确定第二虚拟对象的相应部分具有对应于(例如,匹配或基于)边界的尺寸。在一些实施方案中,相应部分不具有多边形形状,但通常被布置和/或缩放,使得第一虚拟对象完全可见,同时保持用户的视点并且第一虚拟对象相对于第二虚拟对象移动。
在一些实施方案中,响应于检测到第一输入(和/或在检测到第一输入的同时),并且根据确定移动第一虚拟对象导致第一虚拟对象的当前位置相对于用户的视点与第二虚拟对象的当前位置重叠,同时第一虚拟对象比第二虚拟对象更远离用户的视点(例如,如参考步骤1902所描述的),根据确定第一虚拟对象与第二虚拟对象之间的距离相对于用户的视点是不同于第一距离的第二距离,第二虚拟对象的相应部分具有相对于三维环境(和/或相对于第二虚拟对象)的不同于第一尺寸的第二尺寸,诸如如图18C所示的区域1820的尺寸。例如,根据确定第一虚拟对象相对于用户的视点移动得更靠近第二虚拟对象,计算机系统任选地减小(或增加)第二虚拟对象的相应部分的尺寸。根据确定第一虚拟对象移动得更远离第二虚拟对象,计算机系统任选地增加(或减小)第二虚拟对象的相应部分的尺寸。应当理解,相应部分的尺寸可基于第一虚拟对象与第二虚拟对象之间的相对距离成比例地、成反比地或以其他方式增加。根据第一虚拟对象与第二虚拟对象之间的距离的改变,相对于三维环境缩放相应部分的尺寸减少手动地改变视觉属性和/或分开地移动虚拟对象以保持第一虚拟对象的可见性所需的用户输入。
在一些实施方案中,第二虚拟对象的相应部分包括第一部分和不同于第一部分的第二部分,诸如如图18B所示的对应于虚拟对象1802的边界的部分和如图18B所示的从该边界延伸到区域1818的不同边界的部分。例如,计算机系统任选地改变第二虚拟对象的相应部分(包括第二虚拟对象的第一和第二部分)的视觉外观(例如,降低不透明度水平)。在一些实施方案中,相对于用户的视点和/或相对于第二虚拟对象的一个或多个表面,第一和第二部分是第二虚拟对象的连续部分。
在一些实施方案中,第一部分对应于第一虚拟对象与第二虚拟对象之间相对于用户的视点的视觉重叠的区域,诸如如图18B所示的对应于虚拟对象1802的边界的部分。例如,第二虚拟对象的第一部分的区域和/或空间轮廓任选地被配置为使得第一虚拟对象和第一虚拟对象相对于用户的视点的视觉边界对用户是可见的。例如,第一部分的区域和/或空间轮廓包括第一虚拟对象的视觉边界的投影,该投影相对于用户的视点投影到第二虚拟对象的当前位置。例如,计算机系统确定与用户的横向维度平行并与三维环境的地板或地面垂直的平面。这样的平面任选地表示用户的视点的视觉平面。该平面任选地平移以与第二虚拟对象相交,并且计算机系统任选地确定第一虚拟对象的表观边界在平移平面上的投影,因此指示第二虚拟对象的相对于用户的视点呈现第一虚拟对象的模拟遮挡的部分。在一些实施方案中,计算机系统降低这样的部分(例如,相应部分的第一部分)的不透明度水平,就好像第一虚拟对象“透过”第二虚拟对象可见。投影例如确定虚拟平面的“切口”区域,并且任选地映射到第二虚拟对象的呈现第一虚拟对象的模拟遮挡的部分。此后,计算机系统任选地降低第二虚拟对象的各部分(例如,包括第一部分)的不透明度水平,好像计算机系统切掉并移除第二虚拟对象的第一部分一样,以呈现第一虚拟对象的可见性。此类操作任选地响应于检测到指向第一虚拟对象的移动输入(例如,平移、旋转和/或缩放)而重复,以提供第一虚拟对象在其移动期间和之后的连续或接近连续的可见性。
在一些实施方案中,根据确定第一虚拟对象的尺寸是第一尺寸,第二虚拟对象的第一部分是第一区域,诸如如图18B所示的对应于或匹配虚拟对象1802的边界的区域。在一些实施方案中,根据确定虚拟对象的尺寸是第二尺寸,第二虚拟对象的第一部分是不同于(例如,大于或小于)第一区域的第二区域,诸如对应于或匹配以比图18B中所示更大或更小比例显示的虚拟对象1802的边界的区域。例如,与在第一虚拟对象是相对于第二虚拟对象的第二较小尺寸的情况下相比,当第一虚拟对象在第一位置处相对于第二虚拟对象相对较大时,第二虚拟对象的第一部分任选地相对较大。附加地或另选地,计算机系统任选地根据第一虚拟对象与第二虚拟对象之间的深度/距离来改变(例如,减小或增加)虚拟对象的第一部分的区域。
在一些实施方案中,第二部分对应于相对于用户的视点围绕第二虚拟对象的第一部分的区域,诸如如图18B所示的从虚拟对象1802的边界延伸到区域1818的不同边界的部分。例如,计算机系统任选地提供至少部分地围绕第二虚拟对象的第一部分的模拟填充。例如,计算机系统将第二部分的不透明度水平降低与第一部分的降低的不透明度水平相同或相似的程度。在一些实施方案中,填充相对于用户的视点从第二虚拟对象的第一部分均匀地延伸。例如,计算机系统确定第二部分包括围绕第二虚拟对象的第一部分的边界的阈值数量的像素(例如,1、2、4、8、16、32、64、128、256、512或1024个像素)。附加地或另选地,第二部分基于第二虚拟对象的第一部分的视觉区域(例如,第一部分的区域的0.01%、0.05%、0.1%、0.5%、1%、2.5%、5%、7.5%、10%、12.5%、15%或25%)。在一些实施方案中,虚拟对象的第二部分的不透明度不同于第一部分。例如,沿着第二部分的第一方向(例如,从第一部分的边界延伸到第二部分的边界)的不透明度的减小遵循朝向第二虚拟对象的第二部分的边界增加或减小的梯度。在一些实施方案中,第二虚拟对象的第二部分由计算机系统以与第二虚拟对象的第一部分不同地修改的附加或替代的视觉属性显示。例如,第二虚拟对象的第二部分以不同水平的饱和度、亮度、色调、模仿照亮第二部分的物理照明的模拟照明效果、和/或不同于第一部分的模糊效果的量值显示。显示包括对应于第一虚拟对象的尺寸的第一和第二部分的相应部分保留了第一虚拟对象的可见性,并且降低了第一虚拟对象以意外或不期望的方式相对于第二虚拟对象移动的可能性,因此减少了校正这种移动所需的用户输入,并且从而减少了计算机系统检测用户输入的处理。
在一些实施方案中,根据确定当第一虚拟对象与第二虚拟对象相对于用户的视点的当前位置重叠时第一虚拟对象距第二虚拟对象第一距离,第二虚拟对象的第二部分延伸超出第一虚拟对象的边界第一量,诸如如图18B所示的虚拟对象1802与虚拟对象1804之间的距离,以及如图18B所示的区域1818从虚拟对象1802的边界到区域1818的边界的延伸。在一些实施方案中,计算机系统显示第二虚拟对象的相应部分,其区域至少部分地基于第一虚拟对象相对于用户的视点与第二虚拟对象重叠的距离。例如,计算机系统任选地在相对于三维环境移动第一或第二虚拟对象的同时,保持第一和/或第二虚拟对象相对于三维环境的比例。在一些实施方案中,响应于检测到在被第二虚拟对象遮挡时移动第一虚拟对象的用户输入,计算机系统响应于第一虚拟对象的移动而逐步地增加或减小第二虚拟对象的相应部分(例如,第一和第二部分)的尺寸。例如,计算机系统将相应区域的尺寸从初始尺寸增加到对应于第一虚拟对象相对于用户的视点的边界的尺寸,或者增加到取决于第一虚拟对象与第二虚拟对象之间的距离的第二尺寸。应当理解,除了由从第一虚拟对象到第二虚拟对象之间的距离来调节之外,第二虚拟对象的第一和/或第二部分的尺寸和/或面积任选地对应于本文描述的视觉重叠的面积。
在一些实施方案中,根据确定当第一虚拟对象与第二虚拟对象相对于用户的视点的当前位置重叠时第一虚拟对象距第二虚拟对象不同于第一距离的第二距离,第二虚拟对象的第二部分延伸超出第一虚拟对象的边界不同于第一量的第二量,诸如如图18C所示的虚拟对象1802与虚拟对象1804之间的距离,以及如图18C所示的区域1820从虚拟对象1802的边界到区域1820的边界的延伸。例如,第二距离任选地大于或小于第一距离,并且相对于用户的视点的模拟重叠是对应于该距离的相应区域。在一些实施方案中,计算机系统改变第二虚拟对象的第二部分的尺寸以延伸超出第一虚拟对象的边界不同于第一距离的第二距离。例如,当第二虚拟对象相对更远离第一虚拟对象时,虚拟对象的相应部分和/或第二虚拟对象的第二部分比当相对更靠近第一虚拟对象时增加。在一些实施方案中,第二虚拟对象的第二部分的此类行为是第一虚拟对象与第二虚拟对象之间相对于用户的视点的距离的函数,和/或第一虚拟对象和/或第二虚拟对象的面积的函数。基于第一虚拟对象与第二虚拟对象之间的距离来改变第二虚拟对象的第二部分的尺寸增强围绕相对于用户的视点在第二虚拟对象后方的第一虚拟对象的三维环境的可见性,并在视觉上指示第一虚拟对象与第二虚拟对象之间的深度,因此降低用户移动第一虚拟对象与三维环境中包括的其他对象冲突和/或错误地相对于第二虚拟对象移动的可能性,因此减少解决此类冲突所需的用户输入和处理,并且从而减少检测此类用户输入的计算机系统的功耗。
在一些实施方案中,当第一输入正在进行时,计算机系统检测到第一输入的终止,诸如如图18D所示由手1816执行的空中捏合的停止。例如,计算机系统移动第一虚拟对象,直到计算机系统检测到先前保持空中捏合的手指之间的接触停止、触控板或非触敏表面上的接触停止、物理或虚拟按钮的选择停止、和/或请求停止移动的语音输入,任选地对应于第一输入的终止。
在一些实施方案中,响应于检测到第一输入的终止,根据确定当第一输入终止时第一虚拟对象的当前位置在第二虚拟对象的当前位置的阈值距离内,计算机系统将第一虚拟对象添加到第二虚拟对象,诸如当分别如图18F所示布置时将虚拟对象1802添加到虚拟对象1804。在一些实施方案中,计算机系统根据确定第一虚拟对象在第二虚拟对象的阈值距离(例如,0m、0.01m、0.05m、0.1m、0.5m、0.75m、1m、1.25m、1.5m、3m和/或5m)内“释放”,诸如响应于第一输入的终止,将第一虚拟对象添加到第二虚拟对象。在一些实施方案中,第二虚拟对象是“容器”虚拟对象,可在其中添加或移除虚拟对象,诸如第一虚拟对象。例如,响应于当第一虚拟对象在第二虚拟对象的当前位置的阈值距离内时检测到第一输入的终止,计算机系统移动虚拟对象(如果第一虚拟对象的当前位置和/或取向需要的话)以相对于第二虚拟对象采取一定位置和/或取向,诸如与第二虚拟对象的表面平行、在未被其他虚拟对象占据的位置处、在相对于第二虚拟对象的表面的预定距离处,和/或与第二虚拟对象的表面相交。在一些实施方案中,将第一虚拟对象添加到第二虚拟对象包括在由第二虚拟对象界定的位置处显示与第二虚拟对象相交和/或覆盖第二虚拟对象的第一虚拟对象。在将第一虚拟对象添加到第二虚拟对象之后,第二计算机系统任选地同时将第一虚拟对象和第二虚拟对象以类似和/或相同的量值并在类似和/或相同的方向上移动,好像第一虚拟对象和第二虚拟对象是单个虚拟对象一样。
在一些实施方案中,第一虚拟对象与第二虚拟对象之间的阈值和/或当前距离相对于第一和/或第二虚拟对象中包括的特定位置(例如,如图18F中所示的虚拟对象1802和虚拟对象1804的位置)来确定。例如,该距离相对于第一和/或第二虚拟对象的表面和/或主体的中心、拐角、边界和/或这些位置中间的位置来确定。在一些实施方案中,与阈值距离相比的第一虚拟对象与第二虚拟对象之间的距离相对于第一虚拟对象和第二虚拟对象的彼此最靠近的部分来确定。在一些实施方案中,阈值距离相对于第二虚拟对象的表面来测量,诸如沿着垂直于第二虚拟对象的表面或从相对于第二虚拟对象的表面的另一角度延伸的维度,和/或相对于用户的视点来测量(例如,沿着从用户的视点的中心延伸、平行于三维环境的地板或地面的矢量延伸)。应当理解,当前距离和/或阈值距离的描述另外应用于本文所述的涉及将第一虚拟对象朝向第二虚拟对象捕捉的一个或多个实施方案。根据确定在第一虚拟对象在第二虚拟对象的阈值距离内时第一输入终止,将第一虚拟对象添加到第二虚拟对象减少了原本执行添加所需的用户输入,因此减少了执行其他用户输入所需的计算机系统的处理和功耗。
在一些实施方案中,响应于检测到第一输入的终止,根据确定当第一输入终止时第一虚拟对象的当前位置不在第二虚拟对象的当前位置的阈值距离内并且第一虚拟对象的当前位置比第二虚拟对象的当前位置更靠近用户的视点,计算机系统放弃将第一虚拟对象添加到第二虚拟对象,诸如如图18H所示在虚拟对象1812远离虚拟对象1810时终止输入。例如,计算机系统根据确定当第一输入终止时第一虚拟对象不在第二虚拟对象的阈值距离内,不将第一虚拟对象添加到第二虚拟对象。例如,计算机系统根据确定当第一虚拟对象不在相应虚拟内容(例如,第二虚拟对象)的阈值距离(例如,0.0001m、0.005m、0.01m、0.05m、0.1m、0.25m、0.5m、0.75m、1m、1.25m、1.5m、3m或5m)内时第一输入终止,放弃将第一虚拟对象添加到第二虚拟对象。在一些实施方案中,计算机系统根据确定第一输入的终止对应于完全放弃第一虚拟对象的移动的请求,放弃将第一虚拟对象添加到第二虚拟对象。响应于这样的请求,计算机系统任选地将第一虚拟对象移回其在开始移动之前的先前位置(例如,作为三维环境中的独立对象或者作为位于另一对象内(诸如窗口或应用程序区域内)的对象)。附加地或另选地,计算机系统任选地根据确定第一虚拟对象比第二虚拟对象更靠近用户的视点,不将第一虚拟对象添加到第二虚拟对象。在一些实施方案中,根据确定当第一输入终止时当前位置在第二虚拟对象的当前位置的阈值距离内和/或第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点,计算机系统将第一虚拟对象添加到第二虚拟对象。根据确定在第一虚拟对象超出第二虚拟对象的阈值距离时第一输入终止,放弃将第一虚拟对象添加到第二虚拟对象减少了原本校正虚拟对象的错误添加所需要的用户输入,因此减少了执行对错误添加的校正所需要的计算机系统的处理和功耗。
在一些实施方案中,响应于检测到第一输入的终止,根据确定第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点,计算机系统放弃将第一虚拟对象添加到第二虚拟对象(例如,任选地不考虑第一虚拟对象是否在第二虚拟对象的当前位置的阈值距离内),诸如如图18D所示的响应于空中捏合的终止放弃将虚拟对象1802添加到虚拟对象1804。在一些实施方案中,计算机系统根据确定当第一输入终止时第一虚拟对象不在阈值距离内,不将第一虚拟对象添加到第二虚拟对象。附加地或另选地,计算机系统任选地根据确定第一虚拟对象比第二虚拟对象更远离用户的视点,不将第一虚拟对象添加到第二虚拟对象。在一些实施方案中,根据确定当第一输入终止时当前位置在第二虚拟对象的当前位置的阈值距离内和/或第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点,计算机系统将第一虚拟对象添加到第二虚拟对象。根据确定在第一虚拟对象在第二虚拟对象后方时第一输入终止,放弃将第一虚拟对象添加到第二虚拟对象减少了原本校正虚拟对象的错误添加所需要的用户输入,因此减少了执行对错误添加的校正所需要的计算机系统的处理和功耗。
在一些实施方案中,在同时显示第一虚拟对象和第二虚拟对象时,第一虚拟对象的第一部分以相对于三维环境的第一视觉突出性水平显示,并且第二虚拟对象的不同于第二虚拟对象的相应部分的第二部分以相对于三维环境的第二视觉突出性水平显示,诸如虚拟对象1808的视觉突出性水平,包括如图18L所示的去饱和部分和半透明部分。例如,视觉突出性水平具有如参考步骤1902所描述的一个或多个特性。在一些实施方案中,虚拟对象的视觉突出性水平和/或对此类视觉突出性水平的改变在视觉上指示虚拟对象的聚焦或活动/非活动状态,进一步参考方法800、900、1100、1300、1500和/或1700描述。在一些实施方案中,第一虚拟对象的第一部分和/或第二虚拟对象的第二部分对应于相应虚拟对象的不同部分或整体。
在一些实施方案中,在以第二视觉突出性水平(诸如虚拟对象1808的视觉突出性水平)同时显示第一虚拟对象的第一部分和第二虚拟对象的第二部分时,包括如图18L所示的去饱和部分和半透明部分,并且在检测到第一输入时(例如,在检测到第一输入的终止之前)并且在第一虚拟对象的移动满足一个或多个标准(诸如如图18M所示虚拟对象1812移动到虚拟对象1808的阈值距离内)时,根据确定第一虚拟对象的当前位置在第二虚拟对象的阈值距离内并且第一虚拟对象的当前位置比第二虚拟对象的当前位置更靠近用户的视点,诸如虚拟对象1812在虚拟对象1812前方,以大于第二视觉突出性水平的第三视觉突出性水平显示第二虚拟对象的第二部分,诸如如图18M所示以活动聚焦状态显示虚拟对象1808。例如,如参考步骤1902所描述的。在一些实施方案中,当正被移动的虚拟对象(例如,第一虚拟对象)保持在第二虚拟对象的阈值距离内时,计算机系统改变虚拟对象的聚焦状态(下文进一步描述)。例如,一个或多个标准包括当第一虚拟对象保持其相对于第二虚拟对象的位置达大于阈值时间段(例如,0.05、0.1、0.15、0.25、0.4、0.5、0.6、0.75、0.85、1、1.25或1.5秒)的时间段时满足的标准。一个或多个标准任选地包括当第一虚拟对象在该时间段期间移动小于阈值量(例如,0、0.001m、0.005m、0.01m、0.05m、0.1m、0.15m、0.25m、0.4m或0.5m)时满足的标准。在一些实施方案中,根据确定不满足一个或多个标准,计算机系统放弃改变虚拟对象的聚焦状态。
例如,当第一虚拟对象相对于用户的视点相对靠近第二虚拟对象并且在第二虚拟对象前方时,计算机系统任选地改变(例如,增加或减小)第二虚拟对象的视觉突出性水平。例如,计算机系统任选地增加第二虚拟对象的视觉突出性水平(例如,增加不透明度、色调、饱和度、亮度、照明效果的应用的水平,和/或减小应用于第二虚拟对象的第二部分或第二虚拟对象的整体的模糊效果的半径)。在一些实施方案中,在以第三视觉突出性水平显示第二虚拟对象的同时,计算机系统保持以第一视觉突出性水平显示第一虚拟对象。在一些实施方案中,计算机系统根据确定第一虚拟对象的当前位置相对于第二虚拟对象的当前位置在阈值距离内(并且更靠近用户的视点),同时以第二视觉突出性水平显示第二虚拟对象的第二部分并保持虚拟对象的相应部分的视觉突出性水平(例如,不透明度)。在一些实施方案中,计算机系统还要求在改变第二虚拟对象的视觉突出性水平之前,第一虚拟对象保持在第二虚拟对象的阈值距离内大于时间阈值的一段时间(例如,0.01、0.05、0.1、0.2、0.3、0.4、0.5、0.75、1、1.25或1.5秒)。在一些实施方案中,当第一虚拟对象未保持在阈值距离内超过阈值时间量时,即使当第一虚拟对象在第二虚拟对象的阈值距离内并且比第二虚拟对象更靠近用户的视点时,计算机系统也放弃改变第二虚拟对象的视觉突出性水平。
在一些实施方案中,在以第二视觉突出性水平同时显示第一虚拟对象的第一部分和第二虚拟对象的第二部分时,并且在检测到第一输入时(例如,在检测到第一输入的终止之前)并且在第一虚拟对象的移动满足一个或多个标准时,根据确定第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点,放弃以第三视觉突出性水平显示第二虚拟对象的第二部分,诸如将虚拟对象1812从图18L中显示的布置移动到虚拟对象1808后方,并保持图18L中所示的虚拟对象1808的视觉突出性水平。例如,计算机系统响应于第一输入并且根据确定在移动第一虚拟对象时第一虚拟对象的当前位置更远离第二虚拟对象的当前位置,任选地保持第二虚拟对象的第二部分、第一虚拟对象的第一部分、虚拟对象的相应部分和/或第二虚拟对象的全部的视觉突出性水平。在一些实施方案中,当第二虚拟对象比虚拟对象更靠近用户的视点时,计算机系统放弃以第三视觉突出性水平显示第二虚拟对象的第二部分,而不管第一虚拟对象与第二虚拟对象之间的距离如何。基于第一虚拟对象相对于第二虚拟对象的位置来改变第二虚拟对象的第二部分的视觉突出性水平增加了第二虚拟对象的视觉强调,因此在第一虚拟对象正被移动时提供关于第一虚拟对象与第二虚拟对象之间的空间关系的视觉反馈,并降低第一虚拟对象相对于第二虚拟对象的错误移动的可能性,从而减少计算机系统所需的处理。
在一些实施方案中,在响应于检测到第一输入(和/或在第一输入正在进行时)而根据确定第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点来减小第二虚拟对象的相应部分的不透明度时,计算机系统检测第一输入的终止,诸如如图18D所示由手1816执行的空中捏合手势的终止。例如,如参考步骤1902所描述的,并且在本文中进一步关于至少停止空中捏合手势和/或其他用户输入。
在一些实施方案中,响应于检测到第一输入的终止,根据确定第一虚拟对象的当前位置比第二虚拟对象的当前位置更远离用户的视点并且第一虚拟对象的当前位置导致第一虚拟对象相对于用户的视点与第二虚拟对象的当前位置重叠,计算机系统增加(例如,停止减小)第二虚拟对象的相应部分的不透明度,诸如从图18C到图18D增加区域1820的视觉突出性水平。例如,根据确定第一虚拟对象比第二虚拟对象相对更远离用户的视点,并且响应于检测到指向第一虚拟对象的移动输入(例如,第一输入)的终止,计算机系统停止第一虚拟对象的移动并在开始第一虚拟对象的移动之前以其不透明度水平显示第二虚拟对象的相应部分。计算机系统任选地在减小不透明度之前将第二虚拟对象的相应部分的不透明度增加到其视觉突出性和/或不透明度的水平。因此,计算机系统任选地恢复第二虚拟对象的可见性,并呈现第一虚拟对象的相对于用户的视点相对地在第二虚拟对象后方的部分的模拟遮挡。在第一虚拟对象相对于用户的视点在第二虚拟对象后方的同时第一虚拟对象的移动终止时,停止减小第二虚拟对象的相应部分的不透明度增强了虚拟对象之间相对于用户的视点的空间关系,因此在第一虚拟对象相对更近和/或当前正在移动的假设下减少请求第一虚拟对象的移动的用户输入,并且从而减少执行与第一虚拟对象的错误移动相关的操作所需的处理。
在一些实施方案中,响应于检测到第一输入(和/或在检测到第一输入的同时),并且在根据第一输入相对于第二虚拟对象移动第一虚拟对象时(例如,如参考步骤1902所描述的),诸如手1816从图18E到图18F的移动,根据确定所请求的第一虚拟对象的移动包括将第一虚拟对象的当前位置从从用户的视点来看(移动第二虚拟对象的面向后方侧所面向的第一虚拟对象(例如,第二虚拟对象的法线远离用户的视点取向的一侧))(诸如如图18M所示的虚拟对象1812的位置)在第二虚拟对象前方的位置(诸如虚拟对象1812从图18M到图18N的移动)移动第一量值穿过第二虚拟对象到从用户的视点来看(例如,移动第二虚拟对象的面向前方侧(任选地与面向后方侧相对)所面向的第一虚拟对象(例如,第二虚拟对象的法线朝向用户的视点取向的一侧))(诸如如图18N所示的虚拟对象1812的位置)在第二虚拟对象后方的位置的请求,计算机系统将第一虚拟对象移动第二量值(任选地与第一量值相同或不同),诸如虚拟对象1812从图18M到图18N的移动的量值。例如,计算机系统检测包括用于将第一虚拟对象至少部分地移动穿过第二虚拟对象的表面的请求的输入。应当理解,本文描述的移动虚拟对象的输入任选地附加地或另选地包括对这种移动的请求。在一些实施方案中,计算机系统确定相对于第二虚拟对象的表面的相应“侧”的移动的相对方向。例如,第二虚拟对象的表面的第一侧(本文中称为“前向”侧)任选地包括计算机系统的用户将可能查看和/或交互的虚拟内容,诸如包括由第二虚拟对象的表面呈现的应用程序的用户界面。此外,第二虚拟对象的表面的第二侧(本文中称为“后向”侧)任选地不包括用户将可能查看和/或交互的虚拟内容,和/或包括用户感兴趣的较少虚拟内容。例如,虚拟对象中包括的用户界面窗口包括面向前方侧,其中包括网络浏览用户界面,以及窗口虚拟对象的面向后方侧的颜色或填充图案。因此,计算机系统根据用户的输入和/或请求任选地在相对于第二虚拟对象的表面的相应“侧”的方向上移动第一虚拟对象,并且任选地将第一虚拟对象从相对于用户的视点在第二虚拟对象前方的第一位置移动到相对于用户的视点在第二虚拟对象后方的第二位置。
在一些实施方案中,计算机系统根据确定所移动的对象正行进穿过和/或朝向第一表面来调节移动虚拟对象穿过第二虚拟对象的一侧所需的模拟力,诸如当将虚拟对象1802从如图18E所示移动到如图18F所示时的模拟力。模拟力例如调节用户输入的量值(例如,手部移动、触控板或非触敏表面上的接触移动、操纵杆的移动和/或空间指向设备的移动)导致第一虚拟对象的移动的量值的程度。例如,计算机系统任选地不提供模拟阻力,或者在将第一虚拟对象从虚拟对象的面向后方侧上的位置朝向虚拟对象的面向前方侧上的位置移动时不提供阻力。例如,计算机系统检测到第一距离的空中捏合移动,并将第一虚拟对象从第二虚拟对象的面向后方侧朝向第二虚拟对象移动相应的第一量值(例如,距离)。应当理解,在一些实施方案中,虚拟内容在第二虚拟对象和/或虚拟对象的表面的“侧”上的描述包括将虚拟内容放置在表面的前向或面向后方侧上,或者将虚拟内容放置在三维环境的比表面的相应第二侧更靠近表面的相应第一侧的区域内。
在一些实施方案中,根据确定所请求的第一虚拟对象的移动包括将第一虚拟对象的当前位置从从用户的视点来看(例如,移动第二虚拟对象的面向前方侧所面向的第一虚拟对象)(诸如如图18E所示的虚拟对象1802的位置)在第二虚拟对象后方的位置移动第一量值穿过第二虚拟对象到从用户的视点来看(例如,移动第二虚拟对象的面向后方侧所面向的第一虚拟对象)(诸如如图18F所示的虚拟对象1802的位置)在第二虚拟对象前方的位置的请求,计算机系统将第一虚拟对象移动小于第二量值的第三量值,诸如虚拟对象1812从图18E到图18F的移动。例如,根据确定第一虚拟对象的移动包括穿过第二虚拟对象的表面的面向前方侧的移动,计算机系统不将第一虚拟对象移动到最初请求的位置(例如,将第一虚拟对象移动第三量值/距离)。例如,计算机系统任选地检测先前描述的移动第一距离、在从第二虚拟对象的面向前方侧朝向第二虚拟对象的面向后方侧的第二方向上行进的空中手势。代替将第一虚拟对象移动相应第一量值(例如,如上文参考第一和第二位置所描述的距离),计算机系统任选地将第一虚拟对象移动小于第一量值(例如,距离)的相应第二量值(例如,距离),因此模拟将第一虚拟对象朝向和/或穿过前向表面“推”的阻力。
作为附加的示例,计算机系统检测将第一虚拟对象从第二虚拟对象的面向前方侧前方的第三位置(例如,相对于用户的视点或独立于用户的视点)移动到第二虚拟对象的面向后方侧上的第四位置的请求和/或输入。由于所请求的移动需要穿过第二虚拟对象的面向前方侧的移动,因此计算机系统替代地将虚拟对象移动到第五位置,从而模拟将第二虚拟对象移动穿过第二虚拟对象的表面的面向前方侧比移动穿过第二虚拟对象的表面的面向后方侧所需的用户输入的更大量“力”(例如,空中手势的移动、跨触控板的接触、操纵杆和/或用户身体的移动)的效果。提供抵抗第一虚拟对象朝向和/或穿过第二虚拟对象的面向前方表面的移动的模拟力降低了用户将第一虚拟对象移动过远超过第二虚拟对象的一侧以供查看和/或交互的可能性,因此减少了对校正第一虚拟对象的错误移动的需要,从而降低了执行处理输入的操作所需的功耗。
在一些实施方案中,从用户的视点来看,防止第一虚拟对象在从第二虚拟对象的前方到第二虚拟对象的后方的方向上移动穿过第二虚拟对象(例如,将第一虚拟对象移动第三量值与所请求的第一虚拟对象穿过第二虚拟对象从第二虚拟对象的面向前方侧到面向后方侧的移动的量值无关),诸如虚拟对象1812从如图18M所示到如图18N所示的移动,而不移动穿过虚拟对象1808。例如,根据确定用户请求将第一虚拟对象移动穿过第二虚拟对象的面向前方侧(例如,移动相应量值到相对于用户的视点相对于第二虚拟对象的表面在面向后方侧上的第五位置),计算机系统放弃移动穿过第二虚拟对象的面向前方侧。相反,计算机系统任选地将第一虚拟对象朝向第二虚拟对象的面向前方侧移动,直到第一虚拟对象的一部分(例如,包围盒、沿着第一虚拟对象的点)与第二虚拟对象的面向前方侧相交和/或在阈值距离(例如,0m、0.01m、0.05m、0.1m、0.5m、0.75m、1m、1.25m、1.5m、3m和/或5m)内移动。此时,计算机系统任选地放弃进一步垂直于第二虚拟对象的表面的移动,并保持第一虚拟对象相对于法线的位置。防止第一虚拟对象移动穿过第二虚拟对象的面向前方侧降低了第一虚拟对象错误地移动穿过第二虚拟对象的可能性,从而减少呈现第二虚拟对象的不透明度的减小所需的操作和功耗,同时保留第一虚拟对象的可见性。
在一些实施方案中,将第一虚拟对象从从用户的视点来看第二虚拟对象前方的位置移动到第二虚拟对象后方的位置(诸如虚拟对象1802从如图18E所示到如图18F所示的移动)包括:根据确定所请求的第一虚拟对象的移动对应于大于阈值速度的第一虚拟对象的移动速度,当第一虚拟对象在第二虚拟对象(任选地,第二虚拟对象的面向前方侧和/或面向后方侧)的阈值距离内时,计算机系统将第一虚拟对象移动穿过第二虚拟对象而不将第一虚拟对象捕捉到第二虚拟对象(任选地,第二虚拟对象的面向前方侧),诸如虚拟对象1802以大于阈值速度的速度穿过虚拟对象1804从如图18E所示到如图18F所示的移动速度。例如,计算机系统基于第一虚拟对象是以大于还是小于阈值速度(例如,0.01m/s、0.05m/s、0.1m/s、0.5m/s、0.75m/s、1m/s、1.25m/s、1.5m/s、3m/s、5m/s或10m/s)的速度朝向第二虚拟对象移动,放弃将第一虚拟对象添加到第二虚拟对象或者放弃捕捉到第二虚拟对象。例如,计算机系统放弃添加和/或捕捉,而是根据确定第一虚拟对象正以大于阈值速度(例如,0.01m/s、0.05m/s、0.1m/s、0.5m/s、0.75m/s、1m/s、1.25m/s、1.5m/s、3m/s、5m/s或10m/s)的速度朝向第二虚拟对象移动,将第一虚拟对象穿过和/或朝向第二虚拟对象移动。例如,根据确定第一虚拟对象正从第二虚拟对象的表面的面向后方侧移动、在第二虚拟对象的表面的面向后方侧的阈值距离(例如,0m、0.01m、0.05m、0.1m、0.5m、0.75m、1m、1.25m、1.5m、3m和/或5m)内和/或超过速度阈值,计算机系统任选地移动第一虚拟对象而不将其添加和/或捕捉到第二虚拟对象。
在一些实施方案中,根据确定所请求的第一虚拟对象的移动对应于小于阈值速度的第一虚拟对象的移动速度,当第一虚拟对象在第二虚拟对象(任选地,第二虚拟对象的面向前方侧和/或面向后方侧)的阈值距离内时,计算机系统将第一虚拟对象捕捉到第二虚拟对象(任选地,第二虚拟对象的面向前方侧),同时将第一虚拟对象移动穿过第二虚拟对象,诸如虚拟对象1802以小于阈值速度的速度穿过虚拟对象1804的移动速度,从如图18E所示朝向虚拟对象1804捕捉到如图18F所示。例如,根据确定第一虚拟对象正从行进低于阈值速度的第二虚拟对象的表面的面向后方侧移动、和/或在第二虚拟对象的表面的面向后方侧的阈值距离(例如,0m、0.01m、0.05m、0.1m、0.5m、0.75m、1m、1.25m、1.5m、3m和/或5m)内,计算机系统任选地将第一虚拟对象添加或捕捉到第二虚拟对象。在一些实施方案中,计算机系统根据确定与虚拟对象的速度相关联并且独立于第一虚拟对象的方向(例如,穿过第二虚拟对象从第三位置移动到第四位置),将第一虚拟对象添加或捕捉到第二虚拟对象。
在一些实施方案中,计算机系统将第一虚拟对象捕捉到第二虚拟对象。捕捉任选地包括快速地将第一虚拟对象朝向第二虚拟对象移动,并且在捕捉到相对于第二虚拟对象的捕捉位置之后,响应于将第一虚拟对象移动远离捕捉位置的输入而提供模拟阻力。例如,当第一虚拟对象朝向第二虚拟对象移动得更近时,计算机系统以增加的速度移动(例如,捕捉)第一虚拟对象。另外,当移动第一虚拟对象远离捕捉位置时,计算机系统移动第一虚拟对象小于所请求的移动,好像第一虚拟对象被朝向捕捉位置吸引一样。在一些实施方案中,计算机系统根据确定第一虚拟对象在第二虚拟对象的阈值距离内移动,移动第一虚拟对象以呈现相对于第二虚拟对象的预定或动态确定的位置和/或取向,好像“捕捉”到第二虚拟对象一样。这种位置(例如,第一位置)和/或取向任选地在没有明确请求的情况下确定,好像磁极自动地重新对准第一虚拟对象的位置和/或取向一样。例如,第一虚拟对象显示为具有与第二虚拟对象的表面(例如,面向前方表面)平行的表面和/或远离第二虚拟对象的阈值距离(例如,0.0001m、0.005m、0.01m、0.05m、0.1m、0.25m、0.5m、0.75m、1m、1.25m、1.5m、3m或5m)。在一些实施方案中,计算机系统确定第一虚拟对象在捕捉到第二虚拟对象(例如,平行于第二虚拟对象)时的相对取向,并确定不一定预先确定的位置。例如,将第一虚拟对象的相对中心与对应于第二虚拟对象的表面的特定位置对准,诸如第一虚拟对象的中心到该表面上的投影。根据确定对第一虚拟对象移动的特性(诸如移动速度)来执行相对于第二虚拟对象的不同操作允许对虚拟对象的更精细的控制,而不需要明确地请求相对于虚拟对象执行第一或第二操作的附加输入。
在一些实施方案中,将第一虚拟对象从第二虚拟对象后方的位置移动到第二虚拟对象前方的位置(诸如虚拟对象1812从如图18M所示到如图18N所示的移动)包括当第一虚拟对象在第二虚拟对象(任选地,第二虚拟对象的面向前方侧)的阈值距离内时将第一虚拟对象捕捉到第二虚拟对象(任选地,第二虚拟对象的面向前方侧)(例如,不考虑所请求的第一虚拟对象的移动是否对应于阈值模拟速度),诸如虚拟对象1812从如图18M所示到如图18N所示的捕捉。
在一些实施方案中,根据确定所请求的第一虚拟对象的移动对应于大于阈值速度的第一虚拟对象的移动速度,当第一虚拟对象在第二虚拟对象(任选地,第二虚拟对象的面向前方侧)的阈值距离内时,计算机系统将第一虚拟对象捕捉到第二虚拟对象(任选地,第二虚拟对象的面向前方侧)。例如,当将第一虚拟对象移动第三量值时并且响应于在第二虚拟对象的阈值距离内移动,计算机系统将第一虚拟对象捕捉到第二虚拟对象。
在一些实施方案中,根据确定所请求的第一虚拟对象的移动对应于小于阈值速度的第一虚拟对象的移动速度,当第一虚拟对象在第二虚拟对象(任选地,第二虚拟对象的面向前方侧)的阈值距离内时,计算机系统将第一虚拟对象捕捉到第二虚拟对象(任选地,第二虚拟对象的面向前方侧)。在一些实施方案中,计算机系统根据确定第一虚拟对象从第二虚拟对象的面向前方侧移动和朝向第二虚拟对象的面向前方侧移动,独立于第一虚拟对象的模拟移动速度而将第一虚拟对象捕捉和/或添加到第二虚拟对象。例如,如本文进一步描述的,响应于检测到以从第二虚拟对象的面向前方侧发起的第二模拟速度移动第一虚拟对象并朝向第二虚拟对象的面向前方侧移动的用户输入,计算机系统任选地根据用户输入将第一虚拟对象移动到相应位置,并将第一虚拟对象添加或捕捉到第二虚拟对象。例如,根据确定第一虚拟对象在第二虚拟对象的面向前方侧的阈值距离内,计算机系统将第一虚拟对象添加或捕捉到第二虚拟对象,而与第一虚拟对象的速度无关。当将第一虚拟对象朝向第二虚拟对象的面向前方侧移动(与第一虚拟对象的速度无关)时,将第一虚拟对象捕捉和/或添加到第二虚拟对象允许更宽范围的用户输入以引起第一虚拟对象到第二虚拟对象的添加,从而提高与三维环境中包括的虚拟内容的交互的效率。
在一些实施方案中,第一虚拟对象的移动的速度是第一虚拟对象的移动的平均速度,诸如虚拟对象1812从如图18M所示移动到如图18N所示的平均速度。例如,计算机系统任选地在第一虚拟对象的移动之前和/或在第一虚拟对象朝向第二虚拟对象移动的移动之前确定第一虚拟对象的速度的平均值、中值和/或某一其他聚合。在一些实施方案中,导致与阈值速度进行比较的速度和/或速度数据在当前时刻的时间窗(例如,0.05、0.1、0.5、1、1.5、2.5、3、5或10秒)内和/或在第一虚拟对象在第二虚拟对象的阈值距离(例如,0.0001m、0.005m、0.01m、0.05m、0.1m、0.25m、0.5m、0.75m、1m、1.25m、1.5m、3m或5m)内移动时的时间窗内捕获。根据确定所聚合的第一虚拟对象在该时间段内的速度的指示超过阈值速度,计算机系统任选地放弃将第一虚拟对象捕捉到第二虚拟对象。因此,任选地将第二虚拟对象的第一模拟速度和/或第二模拟速度与模拟阈值速度进行比较,以确定第一虚拟对象的捕捉行为。将第一虚拟对象的可变速度与阈值速度进行比较以确定第一虚拟对象是否捕捉到第二虚拟对象降低了虚拟对象被错误地添加到第二虚拟对象的可能性,因此减少输入,并从而减少响应于解决错误添加所需的输入而执行操作的计算机系统的功耗。
在一些实施方案中,在根据第一输入相对于第二虚拟对象移动第一虚拟对象(例如,如参考步骤1902所描述的)(诸如如图18O所示移动虚拟对象1812)时,根据确定第一虚拟对象的当前位置在第二虚拟对象的以大于相对于三维环境的阈值视觉突出性水平的视觉突出性水平(诸如如图18O所示的虚拟对象1810的向右部分的视觉突出性水平)显示的第二部分的阈值距离内,计算机系统将第一虚拟对象捕捉到三维环境中的第二虚拟对象的第二部分,诸如如图18Q所示将虚拟对象1812捕捉到虚拟对象1810。例如,如本文中参考将第一虚拟对象“捕捉”到第二虚拟对象进一步描述的。例如,捕捉任选地包括相对于第二虚拟对象将第一虚拟对象移动到第一位置,诸如将第一虚拟对象的中心与第一虚拟对象在第二虚拟对象的表面上的投影(例如,第二虚拟对象的第二部分)对准。在一些实施方案中,第二虚拟对象的其他部分以与第二部分的视觉突出性水平相同或不同的视觉突出性水平显示。例如,第二虚拟对象任选地以一致的视觉突出性(例如,不透明度)水平显示。附加地或另选地,除第二部分之外的部分任选地以高于或低于第二部分的视觉突出性水平显示。响应于检测到第一虚拟对象在第二虚拟对象的另一部分的阈值距离内的移动,计算机系统任选地根据确定另一部分以大于阈值视觉突出性水平的视觉突出性水平显示,将第一虚拟对象捕捉到第二虚拟对象的另一部分。在一些实施方案中,将第一虚拟对象捕捉到第二虚拟对象的第二部分包括将第一虚拟对象移动到相对于并对应于第二虚拟对象的第二部分的位置。例如,如本文所述,捕捉任选地包括将第一虚拟对象移动到以第二虚拟对象的第二部分的表面为中心的位置。
在一些实施方案中,在根据第一输入相对于第二虚拟对象移动第一虚拟对象(例如,如参考步骤1902所描述的)时,根据确定第一虚拟对象的当前位置在对应于第二虚拟对象的第二部分的位置的阈值距离内但第二虚拟对象的第二部分不以大于相对于三维环境的阈值视觉突出性水平的视觉突出性水平(诸如如图18O所示虚拟对象1810的在指示虚拟对象1808的边界的虚线附近与虚拟对象1810重叠的部分的视觉突出性水平)显示,计算机系统放弃将第一虚拟对象捕捉到第二虚拟对象的第二部分,诸如如图18O所示放弃将虚拟对象1812捕捉到虚拟对象1810。
在一些实施方案中,在根据第一输入并根据确定第一虚拟对象的当前位置不在对应于第二虚拟对象的第二部分的位置的阈值距离内(例如,不考虑虚拟对象的第二部分是否以大于相对于三维环境的阈值视觉突出性水平的视觉突出性水平显示)相对于第二虚拟对象移动第一虚拟对象时,计算机系统放弃将第一虚拟对象捕捉到第二虚拟对象的第二部分。
例如,即使当第一虚拟对象在第二虚拟对象的第二部分的阈值距离内时,计算机系统也任选地根据确定不满足一组标准不将第一虚拟对象“捕捉”到第二虚拟对象或朝向第二虚拟对象“捕捉”。例如,计算机系统确定第二虚拟对象的一部分(例如,在第一虚拟对象的阈值距离内)以小于阈值水平的不透明度和/或视觉突出性水平(例如,小于0.5%、1%、5%、10%、20%、30%、40%、50%、60%或70%的不透明度和/或另一视觉属性)显示。附加地或另选地,计算机系统根据确定另一部分以小于阈值视觉突出性水平的视觉突出性水平显示,不将第一虚拟对象捕捉到第二虚拟对象的另一部分和/或朝向该另一部分捕捉。在此类实施方案中,计算机系统放弃将第一虚拟对象捕捉到与第二虚拟对象对准并靠近第二虚拟对象。在一些实施方案中,当不满足该组标准时,计算机系统根据移动第一虚拟对象的用户输入在第二位置和/或以第二取向显示第一虚拟对象。例如,第一虚拟对象在对应于用户的空中手势的位置处并且以对应于用户的空中手势的取向显示,而不自动调整以使第一虚拟对象在第二虚拟对象的阈值距离内,和/或相对于第二虚拟对象的表面重新定向第一虚拟对象。作为附加的示例,放弃第二虚拟对象的捕捉包括放弃第一虚拟对象到相对于并且对应于第二虚拟对象的第二部分的位置的移动。附加地或另选地,当放弃捕捉时,计算机系统保持第一虚拟对象相对于第二虚拟对象的位置。根据确定满足一组标准在第一或第二位置处显示第一虚拟对象提供了朝向用户的视点布置第一虚拟对象的灵活方法,并降低了第一虚拟对象不被错误地重新定位和/或重新定向的可能性,因此减少了提高第一虚拟对象的可见性所需的用户输入并从而减少了处理用户输入所需的功耗。
在一些实施方案中,在显示第二虚拟对象时,根据确定相应虚拟对象(或物理对象的表示)的第一部分具有对应于(例如,在不存在空间冲突的情况下占据或将占据)三维环境的与第二虚拟对象的第二部分相同的部分的位置,诸如如图18O所示虚拟对象1810的在指示虚拟对象1808的边界的虚线附近与虚拟对象1810重叠的部分,计算机系统以小于阈值视觉突出性水平的第一视觉突出性水平(诸如如图18O所示虚拟对象1810的在指示虚拟对象1808的边界的虚线附近与虚拟对象1810重叠的视觉突出性水平)显示第二虚拟对象的第二部分。例如,计算机系统确定第二虚拟对象与另一虚拟对象(例如,第一、第三和/或第四虚拟对象)之间的模拟交点,其中该对虚拟对象至少部分地占据三维环境的相同部分。模拟交点被配置为模拟被放置为试图占据相同位置的两个物理对象的外观。应当理解,两个单独的物理对象不能在物理环境内占据同一点;因此,计算机系统任选地降低呈现模拟交点(例如,对应于三维环境的相同部分)的违规对象的不透明度和/或视觉突出性水平,以呈现虚拟内容的交点的虚拟指示。例如,以减小的不透明度(例如,0%、5%、10%、15%、20%或30%的不透明度)显示相应虚拟对象的第一部分和/或第二虚拟对象的第二部分。在此类实施方案中,计算机系统任选地放弃第一虚拟对象在第二虚拟对象的第二部分的阈值距离内和/或在相应虚拟对象的第一部分的阈值距离内移动的“捕捉”。在一些实施方案中,呈现模拟交点的虚拟对象中的相应第一虚拟对象至少部分地显示在呈现交点的位置处,并且相应第二虚拟对象不显示在该位置处。
在一些实施方案中,在显示第二虚拟对象时,根据确定没有对象(例如,虚拟的或物理的)具有对应于(例如,在不存在空间冲突的情况下占据或将占据)三维环境的与第二虚拟对象的第二部分相同的部分的位置,诸如没有对象占据图18I中的虚拟对象1810的最右侧部分,计算机系统以大于阈值视觉突出性水平的第二视觉突出性水平(诸如图18I中的虚拟对象1810的最右侧部分的视觉突出性水平)显示第二虚拟对象的第二部分。例如,计算机系统任选地根据确定第二虚拟对象的第二部分和/或相应虚拟对象的第一部分在三维环境内不呈现模拟交点来保持这些部分的视觉突出性水平。在此类实施方案中,计算机系统根据确定第一虚拟对象与第二虚拟对象之间的移动和/或接近度满足本文中进一步描述的标准(例如,与相对于用户的视点的速度、距离和可见性有关)来相对于第二虚拟对象(例如,第二虚拟对象的第二部分)捕捉第一虚拟对象。修改虚拟对象的各部分的视觉突出性水平指示模拟交点,并且放弃第一虚拟对象朝向模拟交叉点的移动降低了第一虚拟对象以用户不期望和/或预期的方式重新定位和/或重新定向的可能性,因此减少了解决不期望的位置和/或取向所需的用户输入,并且从而减少了响应于这样的用户输入执行操作所需的功耗和处理。
在一些实施方案中,在显示第二虚拟对象时,根据确定用户的视点与第二虚拟对象的相应观看矢量(例如,对应于从被指定为第二虚拟对象的“前方”的一侧观看第二虚拟对象的面向前方视角,诸如垂直于窗口表面的矢量)之间的视角大于阈值角度,诸如如图18S所示的用户的视点与从虚拟对象1809的面部延伸的矢量之间的视角,计算机系统以小于相对于三维环境的阈值视觉突出性水平的第一视觉突出性水平(诸如如图18S所示的虚拟对象1809的视觉突出性水平)显示第二虚拟对象的第二部分。例如,根据确定由从第二虚拟对象的表面的法线延伸的矢量与从法线的原点延伸并与用户的视点的中心相交的矢量形成的视角超过阈值角度,计算机系统任选地降低第二虚拟对象的一个或多个部分的视觉突出性水平。例如,阈值角度是5、10、25、40、50、60、75、80或85度。在一些实施方案中,视觉突出性水平的降低包括降低第二虚拟对象的不透明度水平(例如,至0%、2.5%、5%、7.5%、10%、12.5%、15%、17.5%、20%或25%的不透明度)。在一些实施方案中,响应于检测到第一虚拟对象由于极端视角(例如,大于阈值角度)而在以降低的视觉突出性水平显示的第二虚拟对象的阈值距离内移动,计算机系统放弃将第一虚拟对象朝向第二虚拟对象捕捉(例如,自动地重新定位和/或重新定向第一虚拟对象),如本文进一步描述的。
在一些实施方案中,在显示第二虚拟对象时,根据确定用户的视点与第二虚拟对象的相应观看矢量之间的视角小于或等于阈值角度,诸如如图18D所示的用户的视点与从虚拟对象1804延伸的法线之间的视角,计算机系统以大于相对于三维环境的阈值视觉突出性水平的第二视觉突出性水平(诸如如图18D所示的虚拟对象1804的视觉突出性水平)显示第二虚拟对象的第二部分。例如,根据确定视角小于阈值角度,计算机系统放弃降低第二虚拟对象的不透明度水平。在一些实施方案中,响应于检测到第一虚拟对象(例如,根据用户输入)而在以保持的视觉突出性水平显示的第二虚拟对象的阈值距离内移动,计算机系统执行将第一虚拟对象朝向第二虚拟对象捕捉(例如,自动地重新定位和/或重新定向第一虚拟对象),如本文进一步描述的。根据极端视角以降低的视觉突出性水平显示第二虚拟对象,并且当第二虚拟对象的视觉突出性没有降低时将第一虚拟对象朝向第二虚拟对象捕捉,降低了第一虚拟对象相对于用户的视点以难以查看和/或与第一虚拟对象交互的角度显示的可能性,因此减少了校正这种极端角度所需的用户输入,并且从而减少了执行校正极端角度的输入的计算机系统的处理和功耗。
在一些实施方案中,方法800、900、1100、1300、1500、1700和/或1900的各方面/操作可在这些方法之间互换、替换和/或添加。例如,方法800、900、1100、1300、1500、1700和/或1900的三维环境、方法800、900、1100、1300、1500、1700和/或1900的虚拟内容(例如,虚拟对象)、方法800、900、1100、1300、1500、1700和/或1900的视觉效果、方法800、900、1100、1300、1500、1700和/或1900的注意力和基于注意力的输入、和/或增加或减少(例如,减少)800、900、1100、1300、1500、1700和/或1900中的虚拟内容(例如,虚拟对象)的视觉突出性的技术任选地在这些方法之间互换、替换和/或添加。为了简明起见,此处不再重复这些细节。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性讨论并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择和描述实施方案是为了最佳地阐明本发明的原理及其实际应用,以便由此使得本领域的其他技术人员能够最佳地使用具有适合于所构想的特定用途的各种修改的本发明以及各种所描述的实施方案。
如上文所述,本技术的一个方面在于采集并使用得自各种来源的数据,以改善用户的XR体验。本公开预期,在一些实例中,这些所采集的数据可以包括唯一地标识或可以用于联系或定位特定人员的个人信息数据。此类个人信息数据可包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、社交媒体ID、家庭地址、与用户的健康或健身级别相关的数据或记录(例如,生命体征测量、药物信息、锻炼信息)、出生日期或任何其他识别或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可以用于使用户受益。例如,个人信息数据可用于改善用户的XR体验。此外,本公开还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可以用于提供对用户总体健康状况的见解,或者可以用作对使用技术追求健康目标的个人的积极反馈。
本公开预期,负责这样的个人信息数据的收集、分析、公开、传输、存储或其他用途的实体将遵守完善的隐私政策和/或隐私措施。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和措施。这样的政策应当便于用户访问,并应当随着对数据的收集和/或使用的变化而被更新。来自用户的个人信息应当出于合法且合理的实体用途进行收集,并且不得在这些合法用途之外共享或出售。此外,此类收集/共享应当在接收到用户的知情同意之后进行。另外,此类实体应当考虑采取任何必要的步骤,以用于保护和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他实体遵守其他实体的隐私政策和规程。此外,此类实体可以使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,政策和实践应当适应于采集和/或访问的特定类型的个人信息数据,并适应于包括特别管辖范围的考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,对于每个国家中的不同个人数据类型,应当主张不同的隐私措施。
不顾前述如何,本公开还预期用户选择性地阻挡使用或访问个人信息数据的实施方案。也就是说,本公开预期可以提供硬件元件和/或软件元件,以防止或阻挡对此类个人信息数据的访问。例如,就XR体验而言,本发明技术可被配置为在注册服务期间或之后任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。除了提供“选择加入”和“选择退出”选项以外,本公开还设想提供与访问或使用个人信息相关的通知。例如,可以在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本公开的意图是个人信息数据应当以最小化无意或未经授权访问或使用的风险的方式来管理和处理。一旦不再需要数据,可通过限制收集数据和删除数据使风险最小化。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可以用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可以在无需访问此类个人信息数据的情况下被实现。也就是说,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可通过基于非个人信息数据或绝对最低限度量的个人信息(诸如,与用户相关联的设备所请求的内容、对服务可用的其他非个人信息、或可公开获得的信息)推断偏好来生成XR体验。
Claims (188)
1.一种方法,包括:
在与一个或多个输入设备和显示生成部件通信的计算机系统处:
经由所述显示生成部件相对于所述计算机系统的用户的当前视点在三维环境中以第一空间关系显示包括第一虚拟对象和第二虚拟对象的多个虚拟对象,其中以所述第一空间关系显示所述第一虚拟对象和所述第二虚拟对象包括以相对于所述用户的所述当前视点没有重叠部分的方式显示所述第一虚拟对象和所述第二虚拟对象,并且以相对于所述三维环境的第一视觉突出性显示所述第一虚拟对象和所述第二虚拟对象;
经由所述一个或多个输入设备检测与相对于所述用户的所述当前视点将所述第一虚拟对象与所述第二虚拟对象之间的空间关系从所述第一空间关系改变为不同于所述第一空间关系的第二空间关系的请求相对应的第一输入;
响应于检测到所述第一输入:
根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过阈值量,经由所述显示生成部件以相对于所述三维环境小于所述第一视觉突出性的第二视觉突出性显示所述多个虚拟对象中的相应虚拟对象的相应部分;以及
根据确定从所述用户的所述当前视点来看所述第一虚拟对象与所述第二虚拟对象重叠不超过所述阈值量,经由所述显示生成部件以相对于所述三维环境的所述第一视觉突出性显示所述相应虚拟对象的所述相应部分。
2.根据权利要求1所述的方法,其中根据确定所述第一输入包括指向所述第一虚拟对象的注意力,所述多个虚拟对象中的所述相应虚拟对象是所述第二虚拟对象,所述方法还包括:
在检测到所述第一输入之后,检测与指向所述第二虚拟对象的注意力相对应的第二输入;以及
响应于检测到所述第二输入,根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过所述阈值量:
以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述相应部分;以及
以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的相应部分。
3.根据权利要求1至2中任一项所述的方法,还包括:
在检测到所述第一输入之后并且在以所述第一视觉突出性显示所述第一虚拟对象的同时,检测与指向所述第二虚拟对象的注意力相对应的第二输入;以及
响应于检测到所述第二输入,根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过所述阈值量:
以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的相应部分;以及
以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的相应部分。
4.根据权利要求3所述的方法,还包括:
在检测到所述第二输入之后并且在以所述第一视觉突出性显示所述第二虚拟对象的所述相应部分的同时,检测与指向所述三维环境中的所述多个虚拟对象中的第三虚拟对象的注意力相对应的第三输入;以及
响应于检测到所述第三输入,根据确定从所述用户的所述当前视点来看所述第三虚拟对象的至少一部分与所述第二虚拟对象重叠超过所述阈值量:
以相对于所述三维环境的所述第二视觉突出性显示所述第二虚拟对象的所述相应部分;以及
保持以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的所述相应部分。
5.根据权利要求4所述的方法,还包括:
响应于检测到所述第三输入,根据确定从所述用户的所述当前视点来看所述第三虚拟对象与所述第二虚拟对象重叠不超过所述阈值量:
保持以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述相应部分;以及
保持以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的所述相应部分。
6.根据权利要求3所述的方法,还包括:
响应于检测到所述第二输入,根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过所述阈值量并且从所述用户的所述当前视点来看所述第二虚拟对象的至少一部分与所述三维环境中的所述多个虚拟对象中的第三虚拟对象重叠超过所述阈值量:
以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述相应部分;
以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的所述相应部分;以及
以相对于所述三维环境的所述第二视觉突出性显示所述第三虚拟对象的相应部分。
7.根据权利要求1至6中任一项所述的方法,还包括:
在所述三维环境中显示所述多个虚拟对象的同时,在所述三维环境中显示与所述相应虚拟对象相关联的输入元素;以及
响应于检测到所述第一输入:
根据确定从所述用户的所述当前视点来看所述第一虚拟对象的所述至少一部分与所述第二虚拟对象重叠超过所述阈值量,以相对于所述三维环境小于所述第一视觉突出性的第三视觉突出性显示所述输入元素;以及
根据确定从所述用户的所述当前视点来看所述第一虚拟对象与所述第二虚拟对象重叠不超过所述阈值量,以相对于所述三维环境大于所述第二视觉突出性的第四视觉突出性显示所述输入元素。
8.根据权利要求7所述的方法,还包括:
在检测到所述第一输入之后,检测与在所述三维环境中显示与所述多个虚拟对象中的第三虚拟对象相关联的输入元素的请求相对应的第二输入;以及
响应于检测到所述第二输入:
停止在所述三维环境中显示与所述相应虚拟对象相关联的所述输入元素;以及
在所述三维环境中显示与所述第三虚拟对象相关联的所述输入元素。
9.根据权利要求1至8中任一项所述的方法,其中所述多个虚拟对象中的所述相应虚拟对象的所述相应部分是所述第二虚拟对象的相应部分,所述方法还包括:
在检测到所述第一输入之后,检测与指向所述三维环境中的位置的注意力相对应的第二输入,所述位置与所述三维环境中的空白空间相对应;以及
响应于检测到所述第二输入,根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过所述阈值量:
以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述相应部分;以及
以相对于所述三维环境的所述第二视觉突出性显示所述第一虚拟对象的相应部分。
10.根据权利要求1至9中任一项所述的方法,还包括:
响应于检测到所述第一输入,将所述相应虚拟对象从所述三维环境中的第一位置移动到所述三维环境中的第二位置,其中所述相应虚拟对象的移动导致所述第一虚拟对象的所述至少一部分与所述第二虚拟对象重叠。
11.根据权利要求1至9中任一项所述的方法,其中检测所述第一输入包括检测所述用户的所述当前视点从相对于所述三维环境的第一视点到相对于所述三维环境的第二视点的移动,其中所述用户的所述当前视点相对于所述三维环境的所述移动导致从所述用户的所述当前视点来看所述第一虚拟对象的所述至少一部分与所述第二虚拟对象重叠。
12.根据权利要求1至11中任一项所述的方法,其中:
根据确定所述第一虚拟对象与所述用户的所述当前视点之间的距离与所述第二虚拟对象与所述用户的所述当前视点之间的距离的差值是第一距离,所述阈值量是第一阈值量;以及
根据确定所述第一虚拟对象与所述用户的所述当前视点之间的距离与所述第二虚拟对象与所述用户的所述当前视点之间的距离的所述差值是不同于所述第一距离的第二距离,所述阈值量是不同于所述第一阈值量的第二阈值量。
13.根据权利要求12所述的方法,其中:
根据所述第一距离大于所述第二距离,所述第一阈值量大于所述第二阈值量;以及
根据所述第二距离大于所述第一距离,所述第二阈值量大于所述第一阈值量。
14.根据权利要求1至13中任一项所述的方法,其中:
以相对于所述三维环境的所述第一视觉突出性显示所述多个虚拟对象中的所述相应虚拟对象的所述相应部分包括以第一视觉特性的第一值显示所述相应虚拟对象的所述相应部分;以及
以相对于所述三维环境的所述第二视觉突出性显示所述多个虚拟对象中的所述相应虚拟对象的所述相应部分包括以所述第一视觉特性的小于所述第一值的第二值显示所述相应虚拟对象的所述相应部分。
15.根据权利要求1至14中任一项所述的方法,其中以相对于所述三维环境的所述第二视觉突出性显示所述相应虚拟对象的所述相应部分包括停止在所述三维环境中显示所述相应虚拟对象的所述相应部分的第一部分,其中所述相应虚拟对象的所述相应部分的所述第一部分具有与所述第一虚拟对象的与所述第二虚拟对象重叠的所述至少一部分的相对尺寸相对应的相对尺寸。
16.根据权利要求15所述的方法,其中以相对于所述三维环境的所述第二视觉突出性显示所述相应虚拟对象的所述相应部分包括与以所述第一视觉突出性显示所述相应虚拟对象的所述相应部分的第二部分相比,以更大量的透明度显示所述相应虚拟对象的所述相应部分的所述第二部分,其中所述相应虚拟对象的所述相应部分的所述第二部分围绕所述相应虚拟对象的所述相应部分的所述第一部分。
17.根据权利要求1至15中任一项所述的方法,其中以相对于所述三维环境的所述第二视觉突出性显示所述相应虚拟对象的所述相应部分包括在所述第一虚拟对象是与所述第二虚拟对象重叠的活动虚拟对象时:
根据确定所述第一虚拟对象比所述第二虚拟对象更远离所述用户的视点,停止在所述三维环境中显示所述第二虚拟对象的相应部分;以及
根据确定所述第一虚拟对象比所述第二虚拟对象更靠近所述用户的所述视点,保持在所述三维环境中显示所述第二虚拟对象的所述相应部分。
18.根据权利要求1至17中任一项所述的方法,还包括:
响应于检测到所述第一输入,根据确定从所述用户的所述当前视点来看所述多个虚拟对象中的第三虚拟对象的第一部分与所述第一虚拟对象重叠超过所述阈值量并且从所述用户的所述当前视点来看所述第三虚拟对象的第二部分与所述第二虚拟对象重叠超过所述阈值量:
以所述第二视觉突出性显示所述多个虚拟对象中的第一相应虚拟对象的第一相应部分;以及
以所述第二视觉突出性显示所述多个虚拟对象中的第二相应虚拟对象的第二相应部分。
19.根据权利要求1至18中任一项所述的方法,其中显示所述多个虚拟对象包括:
根据确定所述第一虚拟对象是活动虚拟对象,以所述第一视觉突出性显示所述第一虚拟对象,而不管所述第一虚拟对象是否与其他虚拟对象重叠;以及
根据确定所述第二虚拟对象是活动虚拟对象,以所述第一视觉突出性显示所述第二虚拟对象,而不管所述第一虚拟对象是否与其他虚拟对象重叠。
20.根据权利要求1至19中任一项所述的方法,还包括:
在以所述第二视觉突出性显示所述相应虚拟对象的同时,检测与将所述三维环境中的虚拟元素朝向与所述三维环境中的所述相应虚拟对象相关联的位置移动的请求相对应的第二输入;以及
在检测到所述第二输入时,根据在以所述第二视觉突出性显示所述相应虚拟对象时与所述第二输入相关联的移动,在所述三维环境中移动所述虚拟元素。
21.根据权利要求20所述的方法,还包括:
在将所述虚拟元素移动到与所述相应虚拟对象相关联的所述位置之后,经由所述一个或多个输入设备检测所述第二输入的终止;以及
响应于检测到所述第二输入的所述终止,将所述虚拟元素添加到所述三维环境中的所述相应虚拟对象,同时保持以所述第二视觉突出性显示所述相应虚拟对象的所述相应部分。
22.根据权利要求20所述的方法,还包括:
在检测到所述第二输入时:
根据确定所述虚拟元素在所述三维环境中的移动满足一个或多个第一标准,以大于所述第二视觉突出性的第三视觉突出性显示所述相应虚拟对象的所述相应部分;以及
根据确定所述虚拟元素在所述三维环境中的所述移动不满足所述一个或多个第一标准,保持以所述第二视觉突出性显示所述相应虚拟对象的所述相应部分。
23.根据权利要求22所述的方法,其中所述一个或多个第一标准包括当所述虚拟元素在所述相应虚拟对象的阈值距离内时满足的标准。
24.根据权利要求22至23中任一项所述的方法,其中所述一个或多个第一标准包括当所述虚拟元素的移动小于阈值移动量时满足的标准。
25.根据权利要求22至24中任一项所述的方法,其中所述一个或多个第一标准包括当所述虚拟元素在所述相应虚拟对象的阈值距离内超过阈值时间段时满足的标准。
26.根据权利要求22至25中任一项所述的方法,其中所述一个或多个第一标准包括当所述相应虚拟对象的第一部分在所述三维环境中从所述用户的所述当前视点可见时满足的标准。
27.根据权利要求22至26中任一项所述的方法,还包括:
在检测到所述第二输入时,根据与所述第二输入相关联的所述移动在所述相应虚拟对象的阈值距离内移动所述虚拟元素;以及
根据确定所述虚拟元素在所述三维环境中的所述移动满足所述一个或多个第一标准,在以所述第三视觉突出性显示所述相应虚拟对象的所述相应部分之前,将所述虚拟元素移动到所述三维环境中的所述相应虚拟对象。
28.根据权利要求22至27中任一项所述的方法,还包括:
在根据确定所述虚拟元素在所述三维环境中的所述移动满足所述一个或多个第一标准来以所述第三视觉突出性显示所述相应虚拟对象的所述相应部分的同时,经由所述一个或多个输入设备检测所述第二输入的终止;以及
响应于检测到所述第二输入的所述终止,根据所述虚拟元素处于所述三维环境中远离所述相应虚拟对象的位置处,保持以所述第三视觉突出性显示所述相应虚拟对象的所述相应部分。
29.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件相对于所述计算机系统的用户的当前视点在三维环境中以第一空间关系显示包括第一虚拟对象和第二虚拟对象的多个虚拟对象,其中以所述第一空间关系显示所述第一虚拟对象和所述第二虚拟对象包括以相对于所述用户的所述当前视点没有重叠部分的方式显示所述第一虚拟对象和所述第二虚拟对象,并且以相对于所述三维环境的第一视觉突出性显示所述第一虚拟对象和所述第二虚拟对象;
经由所述一个或多个输入设备检测与相对于所述用户的所述当前视点将所述第一虚拟对象与所述第二虚拟对象之间的空间关系从所述第一空间关系改变为不同于所述第一空间关系的第二空间关系的请求相对应的第一输入;
响应于检测到所述第一输入:
根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过阈值量,经由所述显示生成部件以相对于所述三维环境小于所述第一视觉突出性的第二视觉突出性显示所述多个虚拟对象中的相应虚拟对象的相应部分;以及
根据确定从所述用户的所述当前视点来看所述第一虚拟对象与所述第二虚拟对象重叠不超过所述阈值量,经由所述显示生成部件以相对于所述三维环境的所述第一视觉突出性显示所述相应虚拟对象的所述相应部分。
30.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
经由所述显示生成部件相对于所述计算机系统的用户的当前视点在三维环境中以第一空间关系显示包括第一虚拟对象和第二虚拟对象的多个虚拟对象,其中以所述第一空间关系显示所述第一虚拟对象和所述第二虚拟对象包括以相对于所述用户的所述当前视点没有重叠部分的方式显示所述第一虚拟对象和所述第二虚拟对象,并且以相对于所述三维环境的第一视觉突出性显示所述第一虚拟对象和所述第二虚拟对象;
经由所述一个或多个输入设备检测与相对于所述用户的所述当前视点将所述第一虚拟对象与所述第二虚拟对象之间的空间关系从所述第一空间关系改变为不同于所述第一空间关系的第二空间关系的请求相对应的第一输入;
响应于检测到所述第一输入:
根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过阈值量,经由所述显示生成部件以相对于所述三维环境小于所述第一视觉突出性的第二视觉突出性显示所述多个虚拟对象中的相应虚拟对象的相应部分;以及
根据确定从所述用户的所述当前视点来看所述第一虚拟对象与所述第二虚拟对象重叠不超过所述阈值量,经由所述显示生成部件以相对于所述三维环境的所述第一视觉突出性显示所述相应虚拟对象的所述相应部分。
31.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:经由所述显示生成部件相对于所述计算机系统的用户的当前视点在三维环境中以第一空间关系显示包括第一虚拟对象和第二虚拟对象的多个虚拟对象,其中以所述第一空间关系显示所述第一虚拟对象和所述第二虚拟对象包括以相对于所述用户的所述当前视点没有重叠部分的方式显示所述第一虚拟对象和所述第二虚拟对象,并且以相对于所述三维环境的第一视觉突出性显示所述第一虚拟对象和所述第二虚拟对象;
用于以下操作的装置:经由所述一个或多个输入设备检测与相对于所述用户的所述当前视点将所述第一虚拟对象与所述第二虚拟对象之间的空间关系从所述第一空间关系改变为不同于所述第一空间关系的第二空间关系的请求相对应的第一输入;
用于以下操作的装置:响应于检测到所述第一输入:
根据确定从所述用户的所述当前视点来看所述第一虚拟对象的至少一部分与所述第二虚拟对象重叠超过阈值量,经由所述显示生成部件以相对于所述三维环境小于所述第一视觉突出性的第二视觉突出性显示所述多个虚拟对象中的相应虚拟对象的相应部分;以及
根据确定从所述用户的所述当前视点来看所述第一虚拟对象与所述第二虚拟对象重叠不超过所述阈值量,经由所述显示生成部件以相对于所述三维环境的所述第一视觉突出性显示所述相应虚拟对象的所述相应部分。
32.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1至28所述的方法中的任一种方法的指令。
33.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求1至28所述的方法中的任一种方法。
34.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求1至28所述的方法中的任一种方法的装置。
35.一种方法,包括:
在与一个或多个输入设备和显示生成部件通信的计算机系统处:
经由所述显示生成部件在三维环境中显示第一虚拟对象和第二虚拟对象,其中所述三维环境从所述计算机系统的用户的当前视点可见,所述第二虚拟对象具有相对于所述三维环境的第一视觉突出性,并且所述第二虚拟对象在空间上不与所述第一虚拟对象冲突;
在所述三维环境中显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测与将所述第一虚拟对象在所述三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入;以及
响应于接收到所述第一输入,将所述第一虚拟对象从所述三维环境中的所述第一位置移动到所述第二位置,其中将所述第一虚拟对象从所述第一位置移动到所述第二位置包括:
当所述第二虚拟对象相对于所述用户的所述当前视点在空间上与所述第一虚拟对象的至少一部分冲突时:
将所述第二虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减少到小于所述第一视觉突出性的第二视觉突出性;以及
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的空间位置的改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性。
36.根据权利要求35所述的方法,其中基于所述第一虚拟对象相对于所述第二虚拟对象的所述空间位置来改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括基于所述第一虚拟对象相对于所述用户的所述当前视点的深度的改变来改变所述第二虚拟对象的所述至少一部分的所述视觉突出性。
37.根据权利要求35至36中任一项所述的方法,其中改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的所述空间位置的所述改变来改变所述第二虚拟对象的所述至少一部分的所述第二视觉突出性的量值。
38.根据权利要求35至37中任一项所述的方法,其中改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括改变以相对于所述三维环境减少的视觉突出性显示的所述第二虚拟对象的所述至少一部分的尺寸。
39.根据权利要求35至38中任一项所述的方法,所述方法还包括:
在接收所述第一输入的同时以相对于所述三维环境小于所述第一视觉突出性的第三视觉突出性显示所述第二虚拟对象的所述至少一部分时,检测所述第一输入的终止;以及
响应于检测到所述第一输入的所述终止,将所述第二虚拟对象的所述至少一部分的所述视觉突出性相对于所述三维环境减小到小于所述第三视觉突出性的视觉突出性。
40.根据权利要求35至39中任一项所述的方法,其中改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括在所述第一虚拟对象的所述移动期间随着所述三维环境中所述第一虚拟对象与所述用户的所述当前视点之间的距离增加而减小所述第二虚拟对象的所述至少一部分的视觉突出性。
41.根据权利要求35至40中任一项所述的方法,其中改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括在所述第一虚拟对象的所述移动期间随着所述三维环境中所述第一虚拟对象与所述用户的所述当前视点之间的距离增加而增加所述第二虚拟对象的所述至少一部分的视觉突出性。
42.根据权利要求35至41中任一项所述的方法,其中改变所述第二虚拟对象的所述至少一部分的所述视觉突出性包括:
在所述第一虚拟对象的所述移动的第一部分期间随着所述三维环境中所述第一虚拟对象与所述用户的所述当前视点之间的距离增加而减小所述第二虚拟对象的所述至少一部分的视觉突出性;以及
在所述第一虚拟对象的所述移动的所述第一部分之后并且在减小所述第二虚拟对象的所述至少一部分的所述视觉突出性之后,在所述第一虚拟对象的所述移动的第二部分期间随着所述三维环境中所述第一虚拟对象与所述用户的所述当前视点之间的所述距离增加而增加所述第二虚拟对象的所述至少一部分的视觉突出性。
43.根据权利要求35至42中任一项所述的方法,还包括:
在所述三维环境中显示所述第一虚拟对象和所述第二虚拟对象的同时,在所述三维环境中显示第三虚拟对象,其中所述第三虚拟对象在空间上不与所述第一虚拟对象和所述第二虚拟对象冲突;
在所述三维环境中显示所述第一虚拟对象、所述第二虚拟对象和所述第三虚拟对象的同时,检测与将所述第一虚拟对象在所述三维环境中的位置从所述第二位置改变到第三位置的请求相对应的第二输入;以及
响应于接收到所述第二输入,并且在所述第二虚拟对象相对于所述用户的所述当前视点在空间上与所述第一虚拟对象的至少第一部分冲突并且所述第三虚拟对象在空间上与所述第一虚拟对象的至少第二部分冲突时:
将所述第二虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减小到低于所述第一视觉突出性的第三视觉突出性;
将所述第三虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减小到低于所述第一视觉突出性的第四视觉突出性;
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的所述空间位置的改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性;以及
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第三虚拟对象的所述空间位置的改变来改变所述第三虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性。
44.根据权利要求35至43中任一项所述的方法,其中将所述第二虚拟对象的所述至少一部分的所述视觉突出性相对于所述三维环境减小到所述第二视觉突出性包括:
停止在所述三维环境中显示所述第二虚拟对象的所述至少一部分的第一部分,其中所述第二虚拟对象的所述至少一部分的所述第一部分具有与所述第一虚拟对象的所述至少一部分的相对尺寸相对应的第一尺寸;以及
与以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述至少一部分的第二部分相比,以更大量的透明度显示所述第二虚拟对象的所述至少一部分的所述第二部分,其中所述第二虚拟对象的所述至少一部分的所述第二部分至少部分地围绕所述第二虚拟对象的所述至少一部分的所述第一部分的周边。
45.根据权利要求44所述的方法,其中基于所述第一虚拟对象相对于所述第二虚拟对象的所述空间位置的所述改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性包括:
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第二虚拟对象与所述第一虚拟对象的空间冲突的改变来在所述三维环境中重新显示所述第二虚拟对象的所述至少一部分的所述第一部分,并且停止在所述三维环境中显示所述第二虚拟对象的所述至少一部分的不同于所述第一部分的第三部分;以及
与以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述至少一部分的不同于所述第三部分的第四部分相比,以更大量的透明度显示所述第二虚拟对象的所述至少一部分的所述第四部分,其中所述第二虚拟对象的所述至少一部分的所述第四部分至少部分地围绕所述第二虚拟对象的所述至少一部分的所述第三部分的周边。
46.根据权利要求35至45中任一项所述的方法,其中所述第二虚拟对象的所述至少一部分相对于所述用户的所述当前视点至少部分地围绕所述第一虚拟对象的所述至少一部分的周边。
47.根据权利要求35至46中任一项所述的方法,还包括:
在减小所述第二虚拟对象的所述至少一部分的所述视觉突出性的同时,在所述三维环境中距所述用户的所述当前视点的第一距离处显示所述第一虚拟对象,并且在所述三维环境中距所述用户的所述当前视点的大于所述第一距离的第二距离处显示所述第二虚拟对象。
48.根据权利要求35至47中任一项所述的方法,还包括:
在接收到所述第一输入之后,检测指向所述第二虚拟对象的第二输入;以及
响应于检测到所述第二输入:
以相对于所述三维环境的所述第一视觉突出性显示所述第二虚拟对象的所述至少一部分;以及
以相对于三维环境小于所述第一视觉突出性的第三视觉突出性显示所述第一虚拟对象的至少一部分。
49.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件在三维环境中显示第一虚拟对象和第二虚拟对象,其中所述三维环境从所述计算机系统的用户的当前视点可见,所述第二虚拟对象具有相对于所述三维环境的第一视觉突出性,并且所述第二虚拟对象在空间上不与所述第一虚拟对象冲突;
在所述三维环境中显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测与将所述第一虚拟对象在所述三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入;以及
响应于接收到所述第一输入,将所述第一虚拟对象从所述三维环境中的所述第一位置移动到所述第二位置,其中将所述第一虚拟对象从所述第一位置移动到所述第二位置包括:
当所述第二虚拟对象相对于所述用户的所述当前视点在空间上与所述第一虚拟对象的至少一部分冲突时:
将所述第二虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减少到小于所述第一视觉突出性的第二视觉突出性;以及
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的空间位置的改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性。
50.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
经由所述显示生成部件在三维环境中显示第一虚拟对象和第二虚拟对象,其中所述三维环境从所述计算机系统的用户的当前视点可见,所述第二虚拟对象具有相对于所述三维环境的第一视觉突出性,并且所述第二虚拟对象在空间上不与所述第一虚拟对象冲突;
在所述三维环境中显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测与将所述第一虚拟对象在所述三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入;以及
响应于接收到所述第一输入,将所述第一虚拟对象从所述三维环境中的所述第一位置移动到所述第二位置,其中将所述第一虚拟对象从所述第一位置移动到所述第二位置包括:
当所述第二虚拟对象相对于所述用户的所述当前视点在空间上与所述第一虚拟对象的至少一部分冲突时:
将所述第二虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减少到小于所述第一视觉突出性的第二视觉突出性;以及
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的空间位置的改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性。
51.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:经由所述显示生成部件在三维环境中显示第一虚拟对象和第二虚拟对象,其中所述三维环境从所述计算机系统的用户的当前视点可见,所述第二虚拟对象具有相对于所述三维环境的第一视觉突出性,并且所述第二虚拟对象在空间上不与所述第一虚拟对象冲突;
用于以下操作的装置:在所述三维环境中显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测与将所述第一虚拟对象在所述三维环境中的位置从第一位置改变到第二位置的请求相对应的第一输入;以及
用于以下操作的装置:响应于接收到所述第一输入,将所述第一虚拟对象从所述三维环境中的所述第一位置移动到所述第二位置,其中将所述第一虚拟对象从所述第一位置移动到所述第二位置包括:
当所述第二虚拟对象相对于所述用户的所述当前视点在空间上与所述第一虚拟对象的至少一部分冲突时:
将所述第二虚拟对象的至少一部分的视觉突出性相对于所述三维环境从所述第一视觉突出性减少到小于所述第一视觉突出性的第二视觉突出性;以及
基于在所述第一虚拟对象在所述三维环境中的所述移动期间所述第一虚拟对象相对于所述第二虚拟对象的空间位置的改变来改变所述第二虚拟对象的所述至少一部分相对于所述三维环境的所述视觉突出性。
52.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求35至48所述的方法中的任一种方法的指令。
53.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求35至48所述的方法中的任一种方法。
54.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求35至48所述的方法中的任一种方法的装置。
55.一种方法,包括:
在与一个或多个输入设备和显示生成部件通信的计算机系统处:
在经由所述显示生成部件显示虚拟内容的同时,其中所述虚拟内容的至少一部分遮挡所述计算机系统的用户的物理环境的至少一部分的可见性,经由所述一个或多个输入设备检测透传可见性事件;以及
响应于检测到所述透传可见性事件,经由所述显示生成部件用呈现所述用户的所述物理环境中的现实世界对象的表示来替换所述虚拟内容的所述至少一部分的显示,其中呈现所述现实世界对象的所述表示包括:
根据确定所述虚拟内容的状态是第一状态,以应用于所述现实世界对象的所述表示的第一视觉效果呈现所述现实世界对象的所述表示;以及
根据确定所述虚拟内容的所述状态不是所述第一状态,不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
56.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测所述用户的一部分已经移动到所述物理环境的所述至少一部分中,并且呈现所述现实世界对象的所述表示包括呈现所述用户的所述一部分的表示。
57.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测所述虚拟内容的所述至少一部分与所述现实世界对象的至少一部分具有空间冲突,并且呈现所述现实世界对象的所述表示包括呈现所述现实世界对象的所述至少一部分。
58.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测所述现实世界对象已经移动到所述物理环境中的所述用户的位置的阈值距离内。
59.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测所述用户的视点指向所述虚拟内容的边界,其中所述现实世界对象被所述虚拟内容的所述至少一部分覆盖,并且其中所述虚拟内容的所述至少一部分与所述虚拟内容的所述边界相邻。
60.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测所述用户的视点已经从首次显示所述虚拟内容时所述用户的所述视点的位置移动超过阈值距离。
61.根据权利要求55所述的方法,其中检测所述透传可见性事件包括经由所述一个或多个输入设备检测与停止显示与所述虚拟内容相关联的应用程序的请求相对应的用户输入。
62.根据权利要求55至61中任一项所述的方法,其中响应于检测到所述透传可见性事件并且根据确定所述虚拟内容的所述状态是第二状态,其中在所述第二状态中所述虚拟内容包括应用程序窗口,基于所述虚拟内容的所述状态是所述第二状态,不以应用于所述现实世界对象的所述表示的视觉效果呈现所述现实世界对象的所述表示。
63.根据权利要求55至61中任一项所述的方法,其中当所述虚拟内容包括用于输入与应用程序相关联的信息的用户界面时,所述虚拟内容处于第二状态,所述用户界面与和所述应用程序相关联的应用程序窗口同时显示,并且响应于检测到所述透传可见性事件并且根据确定所述虚拟内容处于所述第二状态,以不同于所述第一视觉效果的第二视觉效果呈现所述物理对象的所述表示。
64.根据权利要求55至61中任一项所述的方法,其中至少部分地基于确定所述用户的注意力指向所述虚拟内容,所述虚拟内容处于所述第一状态。
65.根据权利要求55至61和64中任一项所述的方法,其中应用所述第一视觉效果包括减小所述现实世界对象的所述表示的视觉突出性。
66.根据权利要求55至61中任一项所述的方法,其中所述第一视觉效果包括应用于所述现实世界对象的所述表示的着色效果。
67.根据权利要求66所述的方法,其中所述虚拟内容包括虚拟媒体内容,并且所述着色效果与所述虚拟媒体内容中包括的一种或多种颜色相关联。
68.根据权利要求66至67中任一项所述的方法,其中所述虚拟内容与应用程序相关联,并且所述着色效果是基于与所述虚拟内容相关联的所述应用程序选择的。
69.根据权利要求55至68中任一项所述的方法,其中所述第一视觉效果包括所述现实世界对象的所述表示的饱和度的变化。
70.根据权利要求55至69中任一项所述的方法,其中所述虚拟内容包括应用程序窗口和虚拟环境,并且所述第一视觉效果至少部分地基于所述应用程序窗口和所述虚拟环境。
71.根据权利要求55至70中任一项所述的方法,其中所述虚拟内容包括虚拟环境,并且以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示包括:
根据确定所述虚拟环境是第一虚拟环境,以包括与所述第一虚拟环境相关联的第一着色效果的所述第一视觉效果呈现所述现实世界对象的所述表示,以及
根据确定所述虚拟环境是不同于所述第一虚拟环境的第二虚拟环境,以包括与所述第二虚拟环境相关联的第二着色效果的所述第一视觉效果呈现所述现实世界对象的所述表示,所述第二着色效果不同于所述第一着色效果。
72.根据权利要求71所述的方法,还包括:
在以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示之前,不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示;
在不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示时,检测显示所述虚拟环境的请求;以及
响应于检测到显示所述虚拟环境的所述请求,显示所述虚拟环境,其中基于显示所述虚拟环境以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
73.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
在经由所述显示生成部件显示虚拟内容的同时,其中所述虚拟内容的至少一部分遮挡所述计算机系统的用户的物理环境的至少一部分的可见性,经由所述一个或多个输入设备检测透传可见性事件;以及
响应于检测到所述透传可见性事件,经由所述显示生成部件用呈现所述用户的所述物理环境中的现实世界对象的表示来替换所述虚拟内容的所述至少一部分的显示,其中呈现所述现实世界对象的所述表示包括:
根据确定所述虚拟内容的状态是第一状态,以应用于所述现实世界对象的所述表示的第一视觉效果呈现所述现实世界对象的所述表示;以及
根据确定所述虚拟内容的所述状态不是所述第一状态,不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
74.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
在经由所述显示生成部件显示虚拟内容的同时,其中所述虚拟内容的至少一部分遮挡所述计算机系统的用户的物理环境的至少一部分的可见性,经由所述一个或多个输入设备检测透传可见性事件;以及
响应于检测到所述透传可见性事件,经由所述显示生成部件用呈现所述用户的所述物理环境中的现实世界对象的表示来替换所述虚拟内容的所述至少一部分的显示,其中呈现所述现实世界对象的所述表示包括:
根据确定所述虚拟内容的状态是第一状态,以应用于所述现实世界对象的所述表示的第一视觉效果呈现所述现实世界对象的所述表示;以及
根据确定所述虚拟内容的所述状态不是所述第一状态,不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
75.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:在经由所述显示生成部件显示虚拟内容的同时,其中所述虚拟内容的至少一部分遮挡所述计算机系统的用户的物理环境的至少一部分的可见性,经由所述一个或多个输入设备检测透传可见性事件;以及
用于以下操作的装置:响应于检测到所述透传可见性事件,经由所述显示生成部件用呈现所述用户的所述物理环境中的现实世界对象的表示来替换所述虚拟内容的所述至少一部分的显示,其中呈现所述现实世界对象的所述表示包括:
根据确定所述虚拟内容的状态是第一状态,以应用于所述现实世界对象的所述表示的第一视觉效果呈现所述现实世界对象的所述表示;以及
根据确定所述虚拟内容的所述状态不是所述第一状态,不以应用于所述现实世界对象的所述表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
76.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求55至72所述的方法中的任一种方法的指令。
77.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求55至72所述的方法中的任一种方法。
78.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求55至72所述的方法中的任一种方法的装置。
79.一种方法,包括:
在与显示生成部件通信的计算机系统处:
在背景在虚拟内容后面的三维环境的第二部分中可见的同时经由所述显示生成部件在所述三维环境的第一部分中显示所述虚拟内容时:
检测与所述虚拟内容相对应的事件;以及
响应于检测到与所述虚拟内容相对应的所述事件:
根据确定所述背景的状态是第一状态,以应用于所述背景的第一视觉效果呈现所述背景;以及
根据确定所述背景的所述状态不是所述第一状态,不以所述第一视觉效果呈现所述背景。
80.根据权利要求79所述的方法,其中所述背景包括所述计算机系统的用户的物理环境的表示,所述背景包括虚拟环境的表示。
81.根据权利要求79至80中任一项所述的方法,其中所述背景包括虚拟环境。
82.根据权利要求79至81中任一项所述的方法,其中所述虚拟内容包括视觉媒体内容,并且其中检测所述事件包括检测所述视觉媒体内容的所述状态是第一状态。
83.根据权利要求79至81中任一项所述的方法,其中检测所述事件包括检测用户注意力指向所述虚拟内容。
84.根据权利要求79至83中任一项所述的方法,其中所述背景包括虚拟环境,并且所述背景的所述第一状态与所述虚拟环境的第一当日时间设置相对应,并且所述虚拟环境的第二状态与不同于所述第一当日时间设置的第二当日时间设置相对应。
85.根据权利要求79至84中任一项所述的方法,其中所述第一状态与当日日间时间设置相对应,所述第二状态与当日夜间时间设置相对应并且所述背景处于所述第二状态,并且其中根据确定所述状态不是所述第一状态而不以所述第一视觉效果呈现所述背景包括不以基于所述背景处于所述第二状态的任何视觉效果呈现所述背景。
86.根据权利要求85所述的方法,其中检测所述事件包括在显示所述虚拟内容的同时检测所述背景的所述状态已经改变到所述第一状态。
87.根据权利要求84至85中任一项所述的方法,其中检测所述事件包括在显示所述虚拟内容的同时检测所述背景的所述状态已经改变到所述第二状态,并且其中不以所述第一视觉效果呈现所述背景包括不以与所述第二状态相对应的视觉效果呈现所述背景,而与所述虚拟内容是否与所述第一视觉效果相关联无关。
88.根据权利要求79至87中任一项所述的方法,其中所述虚拟内容包括媒体内容并且所述背景处于所述第一状态,所述方法还包括:
在包括所述背景的所述三维环境中显示所述媒体内容时,并且在所述媒体内容未播放时,经由一个或多个输入设备检测与播放所述媒体内容的请求相对应的第一输入;
响应于检测到所述第一输入,在包括所述背景的所述三维环境中播放所述媒体内容;
在包括所述背景的所述三维环境中播放所述媒体内容的同时显示所述媒体内容时,经由所述一个或多个输入设备检测与在所述背景中的所述媒体内容的相应位置处显示所述媒体内容的请求相对应的第二输入;以及
响应于检测到所述第二输入,在所述背景中的所述媒体内容的所述相应位置处显示所述媒体内容,并且将所述背景的所述状态改变为所述第二状态。
89.根据权利要求88所述的方法,其中检测所述事件包括检测所述第一输入。
90.根据权利要求79至89中任一项所述的方法,其中以所述第一视觉效果呈现所述背景包括:
根据确定所述背景包括第一虚拟环境,以与所述第一虚拟环境相对应的第一相应视觉效果呈现所述背景;以及
根据确定所述背景包括不同于所述第一虚拟环境的第二虚拟环境,以与所述第二虚拟环境相对应的不同于所述第一相应视觉效果的第二相应视觉效果呈现所述背景。
91.根据权利要求90所述的方法,其中根据确定所述背景不处于所述第一状态而不以所述第一视觉效果呈现所述背景包括以不同于所述第一相应视觉效果和所述第二相应视觉效果的第三相应视觉效果呈现所述背景,所述第三相应视觉效果与所述背景是包括所述第一虚拟环境还是所述第二虚拟环境无关。
92.根据权利要求79至91中任一项所述的方法,其中以所述第一视觉效果呈现所述背景包括调暗所述背景。
93.根据权利要求79至92中任一项所述的方法,其中以所述第一视觉效果呈现所述背景包括向所述背景应用颜色着色。
94.根据权利要求79至93中任一项所述的方法,其中所述背景包括所述计算机系统的用户的物理环境的表示,所述方法还包括:
在所述三维环境中显示第二虚拟内容,并且其中以所述第一视觉效果呈现所述背景包括以所述第一视觉效果和所述第二视觉效果的组合呈现所述物理环境的所述表示。
95.根据权利要求94所述的方法,其中所述背景包括第一虚拟环境,并且其中以所述第一视觉效果呈现所述背景包括以所述第一视觉效果和所述第二视觉效果的所述组合呈现所述第一虚拟环境。
96.根据权利要求94至95中任一项所述的方法,其中以所述第一视觉效果呈现所述背景包括:
根据确定所述虚拟内容的状态是所述虚拟内容的第一状态,以第一相应视觉效果呈现所述背景;以及
根据确定所述虚拟内容的所述状态是所述虚拟内容的第二状态,放弃以所述第一相应视觉效果呈现所述背景。
97.根据权利要求79至96中任一项所述的方法,其中所述背景包括第一虚拟环境,并且以所述第一视觉效果呈现所述背景包括以应用于所述背景的第一量的所述第一视觉效果呈现所述背景,而与所述第一虚拟环境的沉浸水平无关。
98.根据权利要求79至97中任一项所述的方法,其中所述背景包括虚拟环境,所述方法还包括:
在显示所述虚拟内容的同时并且在以所述第一视觉效果呈现所述背景的同时,检测所述计算机系统的用户的视点已经将取向从相对于所述虚拟环境的第一取向改变到相对于所述虚拟环境的第二取向;以及
响应于检测到所述用户的所述视点已经相对于所述虚拟环境改变取向并且根据确定所述第二取向大于远离所述虚拟环境的阈值取向,减少应用于所述背景的所述第一视觉效果。
99.根据权利要求98所述的方法,其中:
根据确定所述虚拟环境的沉浸水平是第一沉浸水平,所述阈值取向是第一阈值取向;以及
根据确定所述虚拟环境的所述沉浸水平是大于所述第一沉浸水平的第二沉浸水平,所述阈值取向是大于所述第一阈值取向的第二阈值取向。
100.根据权利要求79至99中任一项所述的方法,其中所述背景包括虚拟环境和所述计算机系统的用户的物理环境的表示,并且其中以所述第一视觉效果呈现所述背景包括以所述第一视觉效果呈现所述三维环境的一部分,所述三维环境的所述一部分包括所述虚拟环境与所述物理环境的所述表示之间的过渡区域。
101.根据权利要求79至100中任一项所述的方法,所述方法还包括:
在根据确定所述背景处于所述第一状态而以所述第一虚拟效果呈现所述背景的同时,检测与所述计算机系统的物理环境中的现实世界对象相关联的透传可见性事件;以及
响应于检测到所述透传可见性事件,以应用于所述现实世界对象的表示的所述第一视觉效果呈现所述现实世界对象的所述表示。
102.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
在背景在虚拟内容后面的三维环境的第二部分中可见的同时经由所述显示生成部件在所述三维环境的第一部分中显示所述虚拟内容时:
检测与所述虚拟内容相对应的事件;以及
响应于检测到与所述虚拟内容相对应的所述事件:
根据确定所述背景的状态是第一状态,以应用于所述背景的第一视觉效果呈现所述背景;以及
根据确定所述背景的所述状态不是所述第一状态,不以所述第一视觉效果呈现所述背景。
103.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
在背景在虚拟内容后面的三维环境的第二部分中可见的同时经由所述显示生成部件在所述三维环境的第一部分中显示所述虚拟内容时:
检测与所述虚拟内容相对应的事件;以及
响应于检测到与所述虚拟内容相对应的所述事件:
根据确定所述背景的状态是第一状态,以应用于所述背景的第一视觉效果呈现所述背景;以及
根据确定所述背景的所述状态不是所述第一状态,不以所述第一视觉效果呈现所述背景。
104.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:在背景在虚拟内容后面的三维环境的第二部分中可见的同时经由所述显示生成部件在所述三维环境的第一部分中显示所述虚拟内容时:
用于以下操作的装置:检测与所述虚拟内容相对应的事件;以及
用于以下操作的装置:响应于检测到与所述虚拟内容相对应的所述事件:
根据确定所述背景的状态是第一状态,以应用于所述背景的第一视觉效果呈现所述背景;以及
根据确定所述背景的所述状态不是所述第一状态,不以所述第一视觉效果呈现所述背景。
105.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求79至101所述的方法中的任一种方法的指令。
106.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求79至101所述的方法中的任一种方法。
107.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求79至101所述的方法中的任一种方法的装置。
108.一种方法,包括:
在与一个或多个输入设备和显示生成部件通信的计算机系统处,所述计算机系统与用户相关联:
在经由所述显示生成部件在三维环境中显示多个虚拟对象的同时,经由所述一个或多个输入设备检测所述用户的注意力向所述多个虚拟对象中的第一虚拟对象的转移,其中所述第一虚拟对象与第一视觉效果相关联;以及
响应于检测到所述用户的注意力向所述第一虚拟对象的所述转移:
根据确定所述第一虚拟对象处于活动状态并且满足一个或多个第一标准,显示应用于所述三维环境的所述第一视觉效果;以及
根据确定所述第一虚拟对象不处于所述活动状态,放弃显示应用于所述三维环境的所述第一视觉效果。
109.根据权利要求108所述的方法,还包括:
在检测到所述用户的注意力向所述第一虚拟对象的所述转移之前,不以应用于所述三维环境的任何视觉效果呈现所述三维环境。
110.根据权利要求108至109中任一项所述的方法,还包括:
在经由所述一个或多个输入设备检测到所述用户的注意力向所述第一虚拟对象的所述转移之前,根据确定满足第二标准,显示应用于所述三维环境的第二视觉效果,所述第二视觉效果不同于所述第一视觉效果。
111.根据权利要求110所述的方法,其中所述第二视觉效果是基于在检测到所述用户的注意力向所述第一虚拟对象的所述转移之前活动的应用程序而选择的视觉效果。
112.根据权利要求110所述的方法,其中所述第二视觉效果是基于系统视觉效果而选择的视觉效果,所述系统视觉效果是其中显示所述第一虚拟对象的增强三维环境的一部分。
113.根据权利要求108至112中任一项所述的方法,其中所述第一虚拟对象在检测到所述用户的所述注意力向所述第一虚拟对象的转移之前不处于所述活动状态,所述方法还包括:
在检测到所述用户的所述注意力向所述第一虚拟对象的所述转移之后并且在所述用户的所述注意力指向所述第一虚拟对象的同时,经由所述一个或多个输入设备检测用户输入;以及
响应于在所述用户的所述注意力指向所述第一虚拟对象的同时检测到所述用户输入,将所述第一虚拟对象的所述状态改变为所述活动状态,
其中应用于所述三维环境的所述第一视觉效果的显示基于所述第一虚拟对象处于所述活动状态的所述状态。
114.根据权利要求113所述的方法,其中在检测所述用户输入之前,所述第一虚拟对象相对于所述用户的当前视点至少部分地显示在第二虚拟对象后面并且被所述第二虚拟对象遮挡。
115.根据权利要求113所述的方法,其中在检测到所述用户的所述注意力向所述第一虚拟对象的所述转移之后并且在检测到所述用户输入之前,所述第一虚拟对象不处于所述活动状态。
116.根据权利要求115所述的方法,其中显示所述第一虚拟对象包括:
根据确定所述第一虚拟对象处于所述活动状态,以第一视觉外观显示所述第一虚拟对象;以及
根据确定所述第一虚拟对象不处于所述活动状态,以不同于所述第一视觉外观的第二视觉外观显示所述第一虚拟对象。
117.根据权利要求113所述的方法,还包括:
在显示所述第一虚拟对象的同时并且在所述第一虚拟对象处于所述活动状态的同时,显示所述多个虚拟对象中的第二虚拟对象,其中所述第二虚拟对象处于所述活动状态。
118.根据权利要求108至117中任一项所述的方法,还包括:
在根据确定所述第一虚拟对象处于所述活动状态而显示应用于所述三维环境的所述第一视觉效果的同时,经由所述一个或多个输入设备检测与停止显示所述第一虚拟对象相对应的事件;以及
响应于检测到所述事件,停止显示所述第一虚拟对象并且停止显示应用于所述三维环境的所述第一视觉效果。
119.根据权利要求108至118中任一项所述的方法,其中显示应用于所述三维环境的所述第一视觉效果包括在一段时间内通过多个中间状态将所述第一视觉效果的视觉突出性逐渐改变为最终视觉突出性。
120.根据权利要求119所述的方法,其中所述第一视觉效果的所述视觉突出性在所述一段时间内以模拟临界阻尼弹簧的方式改变。
121.根据权利要求119至120中任一项所述的方法,其中所述第一视觉效果的所述视觉突出性改变的持续时间发生在检测到所述用户注意力向所述第一虚拟对象的所述转移并且确定所述第一虚拟对象处于所述活动状态之后的时间延迟之后。
122.根据权利要求119至121中任一项所述的方法,其中在所述持续时间内将所述第一视觉效果的所述视觉突出性改变为所述最终视觉突出性包括:
根据确定所述用户的注意力的所述转移来自所述三维环境的与不同于所述第一视觉效果的第二视觉效果相关联的部分,在第一持续时间内将所述第一视觉效果的所述视觉突出性改变为所述最终视觉突出性;以及
根据确定所述用户注意力的所述转移来自所述三维环境的不与视觉效果相关联的部分,在不同于所述第一持续时间的第二持续时间内将所述第一视觉效果的所述视觉突出性改变为所述最终视觉突出性。
123.根据权利要求108至122中任一项所述的方法,还包括:
在检测到所述用户的注意力向所述第一虚拟对象的所述转移之后,检测所述用户的注意力向所述多个虚拟对象中的第二虚拟对象的转移;以及
响应于检测到所述用户的注意力向所述第二虚拟对象的所述转移:
根据确定所述第二虚拟对象与第二视觉效果相关联,显示应用于所述三维环境的所述第二视觉效果,以及
根据确定所述第二虚拟对象不与所述第二视觉效果相关联,放弃显示应用于所述三维环境的所述第二视觉效果。
124.根据权利要求108至123中任一项所述的方法,其中根据确定所述第一虚拟对象处于所述活动状态来显示所述第一视觉效果,而与所述三维环境是否与不同于所述第一视觉效果的第二视觉效果相关联无关。
125.根据权利要求124所述的方法,还包括:
在显示应用于所述三维环境的所述第一视觉效果的同时,检测所述用户的注意力远离所述第一虚拟对象的转移;以及
响应于检测到所述用户的注意力远离所述第一虚拟对象的所述转移,显示应用于所述三维环境的所述第二视觉效果。
126.根据权利要求108至125中任一项所述的方法,其中所述第一标准包括当所述三维环境不包括与不同于所述第一视觉效果的第二视觉效果相关联的虚拟环境时满足的标准,所述方法还包括:
响应于检测到所述用户的注意力向所述第一虚拟对象的所述转移并且根据确定由于所述三维环境包括与所述第二视觉效果相关联的所述虚拟环境而不满足所述第一标准,显示应用于所述三维环境的所述第二视觉效果,而与所述第一虚拟对象的所述状态是否活动无关。
127.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
在经由所述显示生成部件在三维环境中显示多个虚拟对象的同时,经由所述一个或多个输入设备检测所述计算机系统的用户的注意力向所述多个虚拟对象中的第一虚拟对象的转移,其中所述第一虚拟对象与第一视觉效果相关联;以及
响应于检测到所述用户的注意力向所述第一虚拟对象的所述转移:
根据确定所述第一虚拟对象处于活动状态并且满足一个或多个第一标准,显示应用于所述三维环境的所述第一视觉效果;以及
根据确定所述第一虚拟对象不处于所述活动状态,放弃显示应用于所述三维环境的所述第一视觉效果。
128.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
在经由所述显示生成部件在三维环境中显示多个虚拟对象的同时,经由所述一个或多个输入设备检测所述用户的注意力向所述多个虚拟对象中的第一虚拟对象的转移,其中所述第一虚拟对象与第一视觉效果相关联;以及
响应于检测到所述用户的注意力向所述第一虚拟对象的所述转移:
根据确定所述第一虚拟对象处于活动状态并且满足一个或多个第一标准,显示应用于所述三维环境的所述第一视觉效果;以及
根据确定所述第一虚拟对象不处于所述活动状态,放弃显示应用于所述三维环境的所述第一视觉效果。
129.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:在经由所述显示生成部件在三维环境中显示多个虚拟对象的同时,经由所述一个或多个输入设备检测所述用户的注意力向所述多个虚拟对象中的第一虚拟对象的转移,其中所述第一虚拟对象与第一视觉效果相关联;以及
用于以下操作的装置:响应于检测到所述用户的注意力向所述第一虚拟对象的所述转移:
根据确定所述第一虚拟对象处于活动状态并且满足一个或多个第一标准,显示应用于所述三维环境的所述第一视觉效果;以及
根据确定所述第一虚拟对象不处于所述活动状态,放弃显示应用于所述三维环境的所述第一视觉效果。
130.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求108至126所述的方法中的任一种方法的指令。
131.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求108至126所述的方法中的任一种方法。
132.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求108至126所述的方法中的任一种方法的装置。
133.一种方法,包括:
在与显示生成部件和一个或多个输入设备通信的计算机系统处:
在经由所述显示生成部件从所述计算机系统的用户的当前视点在环境中显示第一用户界面元素的同时,经由所述一个或多个输入设备检测第一事件已经发生;以及
响应于检测到所述第一事件已经发生,在所述环境中显示不同于所述第一用户界面元素的第二用户界面元素,其中:
从所述计算机系统的所述用户的所述当前视点来看,
所述第二用户界面元素至少部分地与所述第一用户界面元素重叠;
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的第一类型的用户界面元素,所述第一用户界面元素以第一方式相对于所述环境在视觉上被削弱;以及
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素的第二类型的用户界面元素,所述第一用户界面元素不以所述第一方式相对于所述环境在视觉上被削弱。
134.根据权利要求133所述的方法,其中:
所述第一用户界面元素包括第一内容;以及
以所述第一方式相对于所述环境在视觉上削弱所述第一用户界面元素包括相对于所述环境在视觉上调暗所述第一用户界面元素的所述第一内容。
135.根据权利要求133至134中任一项所述的方法,其中以所述第一方式相对于所述环境在视觉上削弱所述第一用户界面元素包括增加所述第一用户界面元素相对于所述环境的半透明度,使得所述环境的被所述第一用户界面遮挡的第一部分相对于所述用户的所述视点是可见的。
136.根据权利要求133至135中任一项所述的方法,其中根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的所述第二类型的用户界面元素,所述第一用户界面元素以不同于所述第一方式的第二方式相对于所述环境在视觉上被削弱。
137.根据权利要求133至136中任一项所述的方法,其中以所述第一方式相对于所述环境在视觉上削弱所述第一用户界面元素包括相对于经由所述显示生成部件在其中显示所述第一用户界面元素的三维环境在视觉上削弱所述第一用户界面元素。
138.根据权利要求133至137中任一项所述的方法,其中:
响应于检测到所述第一事件已经发生,根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素和所述第二类型的用户界面元素的第三类型的用户界面元素,所述第一用户界面元素以不同于所述第一方式的第三方式相对于所述环境在视觉上被削弱。
139.根据权利要求133至138中任一项所述的方法,还包括:
在所述环境中显示所述第一用户界面元素的同时,经由所述一个或多个输入设备检测第二事件已经发生;以及
响应于检测到所述第二事件已经发生,在所述环境中显示不同于所述第一用户界面元素和所述第二用户界面元素的第三用户界面元素,其中:
根据确定所述第三用户界面元素是不同于所述第一类型的用户界面元素和所述第二类型的用户界面元素的第三类型的用户界面元素,所述第一用户界面元素以第三方式相对于所述环境在视觉上被削弱,而不管所述第三用户界面元素是否与所述第一用户界面元素重叠。
140.根据权利要求139所述的方法,其中:
响应于检测到所述第二事件已经发生,所述第二用户界面元素以所述第三方式相对于所述环境在视觉上被削弱。
141.根据权利要求139至140中任一项所述的方法,其中:
响应于检测到所述第二事件已经发生,根据确定所述第三用户界面元素是不同于所述第一类型的用户界面元素、所述第二类型的用户界面元素和所述第三类型的用户界面元素的第四类型的用户界面元素,所述第一用户界面元素以不同于所述第三方式的第四方式相对于所述环境在视觉上被削弱,而不管所述第三用户界面元素是否与所述第一用户界面元素重叠。
142.根据权利要求133至141中任一项所述的方法,其中:
响应于检测到所述第一事件已经发生,根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素和所述第二类型的用户界面元素的第四类型的用户界面元素,所述第一用户界面元素不相对于所述环境在视觉上被削弱。
143.根据权利要求142所述的方法,其中所述第四类型的用户界面包括虚拟键盘。
144.根据权利要求143所述的方法,还包括:
在根据确定所述第二用户界面元素是所述第四类型的用户界面元素来显示所述第二用户界面元素而不相对于所述环境在视觉上削弱所述第一用户界面元素的同时,经由所述一个或多个输入设备检测第二事件已经发生;以及
响应于检测到所述第二事件已经发生,在所述环境中显示不同于所述第一用户界面元素和所述第二用户界面元素的第三用户界面元素,其中:
从所述计算机系统的所述用户的所述当前视点来看,所述第三用户界面元素至少部分地与所述第一用户界面元素重叠;
根据确定所述第三用户界面元素是与所述第一用户界面元素重叠的所述第一类型的用户界面元素,所述第一用户界面元素和所述第二用户界面元素以所述第一方式相对于所述环境在视觉上被削弱;以及
根据确定所述第三用户界面元素是与所述第一用户界面元素重叠的所述第二类型的用户界面元素,所述第一用户界面元素和所述第二用户界面元素不以所述第一方式相对于所述环境在视觉上被削弱。
145.根据权利要求133至144中任一项所述的方法,包括:
响应于检测到所述第一事件已经发生,根据确定当显示所述第二用户界面元素时从所述用户的所述当前视点来看所述第二用户界面元素不至少部分地与所述第一用户界面元素重叠,所述第一用户界面元素不相对于所述环境在视觉上被削弱。
146.根据权利要求133至145中任一项所述的方法,其中以所述第一方式相对于所述环境在视觉上削弱所述第一用户界面元素包括:
根据确定所述第二用户界面元素与所述第一用户界面元素的第一部分重叠,相对于所述环境在视觉上削弱所述第一用户界面元素的所述第一部分,而不相对于所述环境在视觉上削弱所述第一用户界面元素的未被所述第二用户界面元素重叠的不同于所述第一部分的第二部分。
147.根据权利要求133至146中任一项所述的方法,其中以所述第一方式相对于所述环境在视觉上削弱所述第一用户界面元素包括:
根据确定所述第二用户界面元素与所述第一用户界面元素的第一部分重叠,相对于所述环境在视觉上削弱所述第一用户界面元素的所述第一部分,并且相对于所述环境在视觉上削弱所述第一用户界面元素的未被所述第二用户界面元素重叠的不同于所述第一部分的第二部分。
148.根据权利要求133至147中任一项所述的方法,其中检测所述第一事件已经发生包括在所述计算机系统处检测第一警告事件。
149.根据权利要求133至148中任一项所述的方法,其中检测所述第一事件已经发生包括经由所述一个或多个输入设备检测与在所述环境中显示所述第二用户界面元素的请求相对应的第一输入。
150.根据权利要求149所述的方法,其中检测所述第一输入包括检测指向所述显示生成部件的预定部分的所述用户的注视。
151.根据权利要求150所述的方法,还包括:
在响应于检测到所述第一输入而在所述环境中显示所述第二用户界面元素的同时,经由所述一个或多个输入设备检测指向所述第二用户界面元素的第二输入;以及
响应于检测到所述第二输入:
停止经由所述显示生成部件显示所述第二用户界面元素;以及
经由所述显示生成部件在所述环境中显示不同于所述第一用户界面元素和所述第二用户界面元素的第三用户界面元素,其中所述第三用户界面元素与所述第二用户界面元素相关联。
152.根据权利要求149至151中任一项所述的方法,其中检测所述第一输入包括经由所述一个或多个输入设备检测对所述计算机系统的硬件按钮的选择。
153.根据权利要求133至152中任一项所述的方法,其中所述第一用户界面元素对应于与在所述计算机系统上运行的相应应用程序相关联的虚拟应用程序窗口。
154.根据权利要求133至153中任一项所述的方法,其中所述第一用户界面元素对应于沉浸式虚拟对象。
155.根据权利要求154所述的方法,还包括:
在响应于检测到所述第一事件已经发生而在所述环境中显示所述第二用户界面元素的同时,经由所述一个或多个输入设备检测指向所述环境中的所述第一用户界面元素的相应输入;以及
响应于检测到所述相应输入:
放弃执行与指向所述第一用户界面元素的所述相应输入相关联的操作。
156.根据权利要求154至155中任一项所述的方法,其中在所述环境中显示所述第一用户界面元素包括根据确定所述用户的第一部分相对于所述用户的所述视点被定位在所述环境内,将视觉效果应用于所述用户的所述第一部分,所述视觉效果使得所述用户的所述第一部分相对于所述用户的所述视点被显示为所述环境中的相应虚拟表示,所述方法还包括:
响应于检测到所述第一事件已经发生:
根据确定当检测到所述第一事件已经发生时所述用户的所述第一部分相对于所述用户的所述视点被定位在所述环境内,停止将所述视觉效果应用于所述用户的所述第一部分,使得所述相应虚拟表示不再相对于所述用户的所述视点被显示在所述环境中。
157.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
在经由所述显示生成部件从所述计算机系统的用户的当前视点在环境中显示第一用户界面元素的同时,经由所述一个或多个输入设备检测第一事件已经发生;以及
响应于检测到所述第一事件已经发生,在所述环境中显示不同于所述第一用户界面元素的第二用户界面元素,其中:
从所述计算机系统的所述用户的所述当前视点来看,所述第二用户界面元素至少部分地与所述第一用户界面元素重叠;
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的第一类型的用户界面元素,所述第一用户界面元素以第一方式相对于所述环境在视觉上被削弱;以及
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素的第二类型的用户界面元素,所述第一用户界面元素不以所述第一方式相对于所述环境在视觉上被削弱。
158.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
在经由所述显示生成部件从所述计算机系统的用户的当前视点在环境中显示第一用户界面元素的同时,经由所述一个或多个输入设备检测第一事件已经发生;以及
响应于检测到所述第一事件已经发生,在所述环境中显示不同于所述第一用户界面元素的第二用户界面元素,其中:
从所述计算机系统的所述用户的所述当前视点来看,所述第二用户界面元素至少部分地与所述第一用户界面元素重叠;
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的第一类型的用户界面元素,所述第一用户界面元素以第一方式相对于所述环境在视觉上被削弱;以及
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素的第二类型的用户界面元素,所述第一用户界面元素不以所述第一方式相对于所述环境在视觉上被削弱。
159.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:在经由所述显示生成部件从所述计算机系统的用户的当前视点在环境中显示第一用户界面元素的同时,经由所述一个或多个输入设备检测第一事件已经发生;以及
用于以下操作的装置:响应于检测到所述第一事件已经发生,在所述环境中显示不同于所述第一用户界面元素的第二用户界面元素,其中:
从所述计算机系统的所述用户的所述当前视点来看,所述第二用户界面元素至少部分地与所述第一用户界面元素重叠;
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的第一类型的用户界面元素,所述第一用户界面元素以第一方式相对于所述环境在视觉上被削弱;以及
根据确定所述第二用户界面元素是与所述第一用户界面元素重叠的不同于所述第一类型的用户界面元素的第二类型的用户界面元素,所述第一用户界面元素不以所述第一方式相对于所述环境在视觉上被削弱。
160.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求133至156所述的方法中的任一种方法的指令。
161.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求133至156所述的方法中的任一种方法。
162.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求133至156所述的方法中的任一种方法的装置。
163.一种方法,包括:
在与一个或多个输入设备和显示生成部件通信的计算机系统处:
经由所述显示生成部件在经由所述显示生成部件可见的三维环境中同时显示第一虚拟对象和第二虚拟对象;
在经由所述显示生成部件同时显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测包括相对于所述第二虚拟对象移动所述第一虚拟对象的请求的第一输入;以及
响应于检测到所述第一输入:
根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象;
根据确定移动所述第一虚拟对象导致所述第一虚拟对象的当前位置相对于所述计算机系统的用户的视点与所述第二虚拟对象的当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点,减小所述第二虚拟对象的相应部分的不透明度。
164.根据权利要求163所述的方法,还包括:
响应于检测到所述第一输入:
根据确定移动所述第一虚拟对象不会导致所述第一虚拟对象的所述当前位置相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,放弃减小所述第二虚拟对象的所述相应部分的所述不透明度。
165.根据权利要求163所述的方法,还包括:
响应于检测到所述第一输入:
根据确定移动所述第一虚拟对象导致所述第一虚拟对象的所述当前位置相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更靠近所述用户的所述视点,放弃减小所述第二虚拟对象的所述相应部分的所述不透明度。
166.根据权利要求163至165中任一项所述的方法,其中在所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点时所述第一虚拟对象与所述第二虚拟对象之间的重叠包括相对于所述用户的所述视点的第一重叠程度,所述方法还包括:
在所述第一虚拟对象的所述当前位置相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点并且所述第二虚拟对象的所述相应部分的所述不透明度被减小时:
经由所述一个或多个输入设备检测相对于所述第二虚拟对象移动所述第一虚拟对象的第二输入;
响应于检测到所述第二输入:
根据所述第二输入来移动所述第一虚拟对象;以及
根据确定所述第一虚拟对象的所述移动导致所述第一虚拟对象的所述当前位置相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,包括相对于所述用户的所述视点的第二重叠程度,并且同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点,减小所述第二虚拟对象的不同于所述第二虚拟对象的所述相应部分的附加部分的不透明度。
167.根据权利要求163至166中任一项所述的方法,其中:
响应于检测到所述第一输入,并且根据确定移动所述第一虚拟对象导致所述第一虚拟对象的所述当前位置相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点:
根据确定所述第一虚拟对象与所述第二虚拟对象之间相对于所述用户的所述视点的距离是第一距离,所述第二虚拟对象的所述相应部分相对于所述三维环境具有第一尺寸;以及
根据确定所述第一虚拟对象与所述第二虚拟对象之间相对于所述用户的所述视点的所述距离是不同于所述第一距离的第二距离,所述第二虚拟对象的所述相应部分相对于所述三维环境具有不同于所述第一尺寸的第二尺寸。
168.根据权利要求163所述的方法,其中:
所述第二虚拟对象的所述相应部分包括第一部分和不同于所述第一部分的第二部分,
所述第一部分对应于所述第一虚拟对象与所述第二虚拟对象之间相对于所述用户的所述视点的视觉重叠区域,以及
所述第二部分对应于相对于所述用户的所述视点围绕所述第二虚拟对象的所述第一部分的区域。
169.根据权利要求168所述的方法,其中:
根据确定当所述第一虚拟对象相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠时所述第一虚拟对象距所述第二虚拟对象第一距离,所述第二虚拟对象的所述第二部分延伸超出所述第一虚拟对象的边界第一量,以及
根据确定当所述第一虚拟对象相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠时所述第一虚拟对象距所述第二虚拟对象不同于所述第一距离的第二距离,所述第二虚拟对象的所述第二部分延伸超出所述第一虚拟对象的所述边界不同于所述第一量的第二量。
170.根据权利要求163至169中任一项所述的方法,还包括:
在所述第一输入正在进行时,检测所述第一输入的终止;以及
响应于检测到所述第一输入的所述终止:
根据确定当所述第一输入终止时所述第一虚拟对象的所述当前位置在所述第二虚拟对象的所述当前位置的阈值距离内,将所述第一虚拟对象添加到所述第二虚拟对象。
171.根据权利要求170所述的方法,还包括:
响应于检测到所述第一输入的所述终止,根据确定当所述第一输入终止时所述第一虚拟对象的所述当前位置不在所述第二虚拟对象的所述当前位置的所述阈值距离内并且所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更靠近所述用户的所述视点,放弃将所述第一虚拟对象添加到所述第二虚拟对象。
172.根据权利要求170至171中任一项所述的方法,还包括:
响应于检测到所述第一输入的所述终止,根据确定所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更远离所述用户的所述视点,放弃将所述第一虚拟对象添加到所述第二虚拟对象。
173.根据权利要求163至172中任一项所述的方法,其中在同时显示所述第一虚拟对象和所述第二虚拟对象时,所述第一虚拟对象的第一部分以相对于所述三维环境的第一视觉突出性水平显示,并且所述第二虚拟对象的不同于所述第二虚拟对象的所述相应部分的第二部分以相对于所述三维环境的第二视觉突出性水平显示,所述方法还包括:
在以所述第二视觉突出性水平同时显示所述第一虚拟对象的所述第一部分和所述第二虚拟对象的所述第二部分时,并且在检测所述第一输入时并且在所述第一虚拟对象的移动满足一个或多个标准时:
根据确定所述第一虚拟对象的所述当前位置在所述第二虚拟对象的阈值距离内并且所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更靠近所述用户的所述视点,以大于所述第二视觉突出性水平的第三视觉突出性水平显示所述第二虚拟对象的所述第二部分;以及
根据确定所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更远离所述用户的所述视点,放弃以所述第三视觉突出性水平显示所述第二虚拟对象的所述第二部分。
174.根据权利要求163至173中任一项所述的方法,还包括:
在响应于检测到所述第一输入而根据确定所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更远离所述用户的所述视点来减小所述第二虚拟对象的所述相应部分的所述不透明度时,检测所述第一输入的终止;以及
响应于检测到所述第一输入的所述终止,根据确定所述第一虚拟对象的所述当前位置比所述第二虚拟对象的所述当前位置更远离所述用户的所述视点并且所述第一虚拟对象的所述当前位置导致所述第一虚拟对象相对于所述用户的所述视点与所述第二虚拟对象的所述当前位置重叠,增加所述第二虚拟对象的所述相应部分的所述不透明度。
175.根据权利要求163至174中任一项所述的方法,还包括:
响应于检测到所述第一输入,并且在根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象时:
根据确定请求的所述第一虚拟对象的移动包括将所述第一虚拟对象的所述当前位置从从所述用户的视点来看在所述第二虚拟对象前方的位置移动第一量值穿过所述第二虚拟对象到从所述用户的视点来看在所述第二虚拟对象后方的位置的请求,将所述第一虚拟对象移动第二量值;以及
根据确定所请求的所述第一虚拟对象的移动包括将所述第一虚拟对象的所述当前位置从从所述用户的视点来看在所述第二虚拟对象后方的位置移动所述第一量值穿过所述第二虚拟对象到从所述用户的视点来看在所述第二虚拟对象前方的位置的请求,将所述第一虚拟对象移动小于所述第二量值的第三量值。
176.根据权利要求175所述的方法,其中从所述用户的视点来看,防止所述第一虚拟对象在从所述第二虚拟对象的前方到所述第二虚拟对象的后方的方向上移动穿过所述第二虚拟对象。
177.根据权利要求175至176中任一项所述的方法,其中相对于所述用户的所述视点将所述第一虚拟对象从所述第二虚拟对象前方的所述位置移动到所述第二虚拟对象后方的所述位置包括:
根据确定所请求的所述第一虚拟对象的移动对应于大于阈值速度的第一虚拟对象的移动的速度,当所述第一虚拟对象在所述第二虚拟对象的阈值距离内时,将所述第一虚拟对象移动穿过所述第二虚拟对象而不将所述第一虚拟对象捕捉到所述第二虚拟对象,以及根据确定所请求的所述第一虚拟对象的移动对应于小于所述阈值速度的所述第一虚拟对象的移动的速度,当所述第一虚拟对象在所述第二虚拟对象的所述阈值距离内时将所述第一虚拟对象捕捉到所述第二虚拟对象,同时将所述第一虚拟对象移动穿过所述第二虚拟对象。
178.根据权利要求177所述的方法,其中将所述第一虚拟对象从所述第二虚拟对象后方的所述位置移动到所述第二虚拟对象前方的所述位置包括当所述第一虚拟对象在所述第二虚拟对象的所述阈值距离内时将所述第一虚拟对象捕捉到所述第二虚拟对象。
179.根据权利要求177至178中任一项所述的方法,其中所述第一虚拟对象的所述移动的所述速度是所述第一虚拟对象的所述移动的平均速度。
180.根据权利要求163至179中任一项所述的方法,还包括:
在根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象的同时:
根据确定所述第一虚拟对象的所述当前位置在以相对于所述三维环境大于阈值视觉突出性水平的视觉突出性水平显示的所述第二虚拟对象的第二部分的阈值距离内,在所述三维环境中将所述第一虚拟对象捕捉到所述第二虚拟对象的所述第二部分;以及
根据确定所述第一虚拟对象的所述当前位置在与所述第二虚拟对象的所述第二部分相对应的位置的所述阈值距离内,但所述第二虚拟对象的所述第二部分不以相对于所述三维环境大于所述阈值视觉突出性水平的视觉突出性水平显示,放弃将所述第一虚拟对象捕捉到所述第二虚拟对象的所述第二部分。
181.根据权利要求180所述的方法,还包括:
在显示所述第二虚拟对象时:
根据确定相应虚拟对象的第一部分具有与所述三维环境的与所述第二虚拟对象的所述第二部分相同的部分相对应的位置,以小于所述阈值视觉突出性水平的第一视觉突出性水平显示所述第二虚拟对象的所述第二部分;以及
根据确定没有对象具有与所述三维环境的与所述第二虚拟对象的所述第二部分相同的所述部分相对应的所述位置,以大于所述阈值视觉突出性水平的第二视觉突出性水平显示所述第二虚拟对象的所述第二部分。
182.根据权利要求180至181中任一项所述的方法,还包括:
在显示所述第二虚拟对象时:
根据确定所述用户的所述视点与所述第二虚拟对象的相应视角之间的视角大于阈值角度,以相对于所述三维环境小于所述阈值视觉突出性水平的第一视觉突出性水平显示所述第二虚拟对象的所述第二部分;以及
根据确定所述用户的所述视点与所述第二虚拟对象的所述相应视角之间的所述视角小于或等于所述阈值角度,以相对于所述三维环境大于所述阈值视觉突出性水平的第二视觉突出性水平显示所述第二虚拟对象的所述第二部分。
183.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件在经由所述显示生成部件可见的三维环境中同时显示第一虚拟对象和第二虚拟对象;
在经由所述显示生成部件同时显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测包括相对于所述第二虚拟对象移动所述第一虚拟对象的请求的第一输入;以及
响应于检测到所述第一输入:
根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象;
根据确定移动所述第一虚拟对象导致所述第一虚拟对象的当前位置相对于所述计算机系统的用户的视点与所述第二虚拟对象的当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点,减小所述第二虚拟对象的相应部分的不透明度。
184.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行包括以下操作的方法:
经由所述显示生成部件在经由所述显示生成部件可见的三维环境中同时显示第一虚拟对象和第二虚拟对象;
在经由所述显示生成部件同时显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测包括相对于所述第二虚拟对象移动所述第一虚拟对象的请求的第一输入;以及
响应于检测到所述第一输入:
根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象;
根据确定移动所述第一虚拟对象导致所述第一虚拟对象的当前位置相对于所述计算机系统的用户的视点与所述第二虚拟对象的当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点,减小所述第二虚拟对象的相应部分的不透明度。
185.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;
用于以下操作的装置:经由所述显示生成部件在经由所述显示生成部件可见的三维环境中同时显示第一虚拟对象和第二虚拟对象;
用于以下操作的装置:在经由所述显示生成部件同时显示所述第一虚拟对象和所述第二虚拟对象的同时,经由所述一个或多个输入设备检测包括相对于所述第二虚拟对象移动所述第一虚拟对象的请求的第一输入;以及
用于以下操作的装置:响应于检测到所述第一输入:
根据所述第一输入相对于所述第二虚拟对象移动所述第一虚拟对象;
根据确定移动所述第一虚拟对象导致所述第一虚拟对象的当前位置相对于所述计算机系统的用户的视点与所述第二虚拟对象的当前位置重叠,同时所述第一虚拟对象比所述第二虚拟对象更远离所述用户的所述视点,减小所述第二虚拟对象的相应部分的不透明度。
186.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求163至182所述的方法中的任一种方法的指令。
187.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由与显示生成部件和一个或多个输入设备通信的计算机系统的一个或多个处理器执行时,使得所述计算机系统执行根据权利要求163至182所述的方法中的任一种方法。
188.一种与显示生成部件和一个或多个输入设备通信的计算机系统,所述计算机系统包括:
一个或多个处理器;
存储器;以及
用于执行根据权利要求163至182所述的方法中的任一种方法的装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202511327302.4A CN121187445A (zh) | 2023-06-04 | 2024-06-04 | 用于管理重叠窗口和应用视觉效果的方法 |
Applications Claiming Priority (9)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202363506128P | 2023-06-04 | 2023-06-04 | |
| US202363506109P | 2023-06-04 | 2023-06-04 | |
| US63/506,128 | 2023-06-04 | ||
| US63/506,109 | 2023-06-04 | ||
| US202363515119P | 2023-07-23 | 2023-07-23 | |
| US63/515,119 | 2023-07-23 | ||
| US202363587442P | 2023-10-02 | 2023-10-02 | |
| US63/587,442 | 2023-10-02 | ||
| PCT/US2024/032456 WO2024254096A1 (en) | 2023-06-04 | 2024-06-04 | Methods for managing overlapping windows and applying visual effects |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202511327302.4A Division CN121187445A (zh) | 2023-06-04 | 2024-06-04 | 用于管理重叠窗口和应用视觉效果的方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN120303636A true CN120303636A (zh) | 2025-07-11 |
Family
ID=91829439
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202511327302.4A Pending CN121187445A (zh) | 2023-06-04 | 2024-06-04 | 用于管理重叠窗口和应用视觉效果的方法 |
| CN202480005202.7A Pending CN120303636A (zh) | 2023-06-04 | 2024-06-04 | 用于管理重叠窗口和应用视觉效果的方法 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202511327302.4A Pending CN121187445A (zh) | 2023-06-04 | 2024-06-04 | 用于管理重叠窗口和应用视觉效果的方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (2) | US20250078420A1 (zh) |
| CN (2) | CN121187445A (zh) |
| WO (1) | WO2024254096A1 (zh) |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111052045B (zh) * | 2017-09-29 | 2022-07-15 | 苹果公司 | 计算机生成的现实平台 |
| CN116670627A (zh) | 2020-12-31 | 2023-08-29 | 苹果公司 | 对环境中的用户界面进行分组的方法 |
| US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| WO2023137402A1 (en) | 2022-01-12 | 2023-07-20 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| WO2023141535A1 (en) | 2022-01-19 | 2023-07-27 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| JP2023111647A (ja) * | 2022-01-31 | 2023-08-10 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
| US12541280B2 (en) | 2022-02-28 | 2026-02-03 | Apple Inc. | System and method of three-dimensional placement and refinement in multi-user communication sessions |
| US20240087256A1 (en) * | 2022-09-14 | 2024-03-14 | Apple Inc. | Methods for depth conflict mitigation in a three-dimensional environment |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| CN120266077A (zh) | 2022-09-24 | 2025-07-04 | 苹果公司 | 用于控制三维环境并与之交互的方法 |
| US12524956B2 (en) | 2022-09-24 | 2026-01-13 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| CN120813918A (zh) | 2023-01-30 | 2025-10-17 | 苹果公司 | 用于响应于注视和/或手势输入来显示多组控件的设备、方法和图形用户界面 |
| CN121187445A (zh) | 2023-06-04 | 2025-12-23 | 苹果公司 | 用于管理重叠窗口和应用视觉效果的方法 |
| WO2025144633A1 (en) * | 2023-12-27 | 2025-07-03 | Meta Platforms Technologies, Llc | Systems and methods for optimizing for virtual content occlusion in mixed reality |
Family Cites Families (981)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US1173824A (en) | 1914-09-15 | 1916-02-29 | Frank A Mckee | Drag-saw machine. |
| US5422812A (en) | 1985-05-30 | 1995-06-06 | Robert Bosch Gmbh | Enroute vehicle guidance system with heads up display |
| US5610828A (en) | 1986-04-14 | 1997-03-11 | National Instruments Corporation | Graphical system for modelling a process and associated method |
| US5015188A (en) | 1988-05-03 | 1991-05-14 | The United States Of America As Represented By The Secretary Of The Air Force | Three dimensional tactical element situation (3DTES) display |
| CA2092632C (en) | 1992-05-26 | 2001-10-16 | Richard E. Berry | Display system with imbedded icons in a menu bar |
| US5524195A (en) | 1993-05-24 | 1996-06-04 | Sun Microsystems, Inc. | Graphical user interface for interactive television with an animated agent |
| US5619709A (en) | 1993-09-20 | 1997-04-08 | Hnc, Inc. | System and method of context vector generation and retrieval |
| EP0661620B1 (en) | 1993-12-30 | 2001-03-21 | Xerox Corporation | Apparatus and method for executing multiple concatenated command gestures in a gesture based input system |
| US5515488A (en) | 1994-08-30 | 1996-05-07 | Xerox Corporation | Method and apparatus for concurrent graphical visualization of a database search and its search history |
| US5740440A (en) | 1995-01-06 | 1998-04-14 | Objective Software Technology | Dynamic object visualization and browsing system |
| US5758122A (en) | 1995-03-16 | 1998-05-26 | The United States Of America As Represented By The Secretary Of The Navy | Immersive visual programming system |
| GB2301216A (en) | 1995-05-25 | 1996-11-27 | Philips Electronics Uk Ltd | Display headset |
| US5737553A (en) | 1995-07-14 | 1998-04-07 | Novell, Inc. | Colormap system for mapping pixel position and color index to executable functions |
| JP3400193B2 (ja) | 1995-07-31 | 2003-04-28 | 富士通株式会社 | ウィンドウ関係の識別アイコン付木構造一覧表示方法及び装置 |
| US5751287A (en) | 1995-11-06 | 1998-05-12 | Documagix, Inc. | System for organizing document icons with suggestions, folders, drawers, and cabinets |
| US5731805A (en) | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
| JP3558104B2 (ja) | 1996-08-05 | 2004-08-25 | ソニー株式会社 | 3次元仮想物体表示装置および方法 |
| US6112015A (en) | 1996-12-06 | 2000-08-29 | Northern Telecom Limited | Network management graphical user interface |
| US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
| US6426745B1 (en) | 1997-04-28 | 2002-07-30 | Computer Associates Think, Inc. | Manipulating graphic objects in 3D scenes |
| US5995102A (en) | 1997-06-25 | 1999-11-30 | Comet Systems, Inc. | Server system and method for modifying a cursor image |
| CA2297971A1 (en) | 1997-08-01 | 1999-02-11 | Muse Technologies, Inc. | Shared multi-user interface for multi-dimensional synthetic environments |
| US5877766A (en) | 1997-08-15 | 1999-03-02 | International Business Machines Corporation | Multi-node user interface component and method thereof for use in accessing a plurality of linked records |
| US6108004A (en) | 1997-10-21 | 2000-08-22 | International Business Machines Corporation | GUI guide for data mining |
| US5990886A (en) | 1997-12-01 | 1999-11-23 | Microsoft Corporation | Graphically creating e-mail distribution lists with geographic area selector on map |
| US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
| US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
| US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
| KR100595924B1 (ko) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
| US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
| JPH11289555A (ja) | 1998-04-02 | 1999-10-19 | Toshiba Corp | 立体映像表示装置 |
| US6421048B1 (en) | 1998-07-17 | 2002-07-16 | Sensable Technologies, Inc. | Systems and methods for interacting with virtual objects in a haptic virtual reality environment |
| US6295069B1 (en) | 1998-08-18 | 2001-09-25 | Alventive, Inc. | Three dimensional computer graphics tool facilitating movement of displayed object |
| US6154559A (en) | 1998-10-01 | 2000-11-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for classifying an individual's gaze direction |
| US6714201B1 (en) | 1999-04-14 | 2004-03-30 | 3D Open Motion, Llc | Apparatuses, methods, computer programming, and propagated signals for modeling motion in computer applications |
| US6456296B1 (en) | 1999-05-28 | 2002-09-24 | Sony Corporation | Color scheme for zooming graphical user interface |
| WO2001056007A1 (en) | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
| US20010047250A1 (en) | 2000-02-10 | 2001-11-29 | Schuller Joan A. | Interactive decorating system |
| US7445550B2 (en) | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
| US6584465B1 (en) | 2000-02-25 | 2003-06-24 | Eastman Kodak Company | Method and system for search and retrieval of similar patterns |
| US6750873B1 (en) | 2000-06-27 | 2004-06-15 | International Business Machines Corporation | High quality texture reconstruction from multiple scans |
| EP1189171A2 (de) | 2000-09-08 | 2002-03-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum Erzeugen eines Bildes in einem virtuellen Studio |
| US6795806B1 (en) | 2000-09-20 | 2004-09-21 | International Business Machines Corporation | Method for enhancing dictation and command discrimination |
| US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
| US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
| US20020044152A1 (en) | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
| US7035903B1 (en) | 2000-11-22 | 2006-04-25 | Xerox Corporation | Systems and methods for the discovery and presentation of electronic messages that are related to an electronic message |
| US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
| US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
| US20030151611A1 (en) | 2002-02-12 | 2003-08-14 | Turpin Kenneth A. | Color selection and visualization system and methods of making and using same |
| US7137074B1 (en) | 2002-05-31 | 2006-11-14 | Unisys Corporation | System and method for displaying alarm status |
| US20030222924A1 (en) | 2002-06-04 | 2003-12-04 | Baron John M. | Method and system for browsing a virtual environment |
| US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
| KR100707568B1 (ko) | 2002-07-17 | 2007-04-13 | 가부시키가이샤 자나비 인포메틱스 | 네비게이션 방법, 네비게이션 시스템을 위한 처리 방법,지도 데이터 관리 장치, 지도 데이터 관리 프로그램, 및컴퓨터 프로그램 |
| GB2392285B (en) | 2002-08-06 | 2006-04-12 | Hewlett Packard Development Co | Method and arrangement for guiding a user along a target path |
| US7334020B2 (en) | 2002-09-20 | 2008-02-19 | Goodcontacts Research Ltd. | Automatic highlighting of new electronic message address |
| US8416217B1 (en) | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
| US8479112B2 (en) | 2003-05-13 | 2013-07-02 | Microsoft Corporation | Multiple input language selection |
| US7373602B2 (en) | 2003-05-28 | 2008-05-13 | Microsoft Corporation | Method for reading electronic mail in plain text |
| US7330585B2 (en) | 2003-11-06 | 2008-02-12 | Behr Process Corporation | Color selection and coordination kiosk and system |
| US7230629B2 (en) | 2003-11-06 | 2007-06-12 | Behr Process Corporation | Data-driven color coordinator |
| ES2343964T3 (es) | 2003-11-20 | 2010-08-13 | Philips Solid-State Lighting Solutions, Inc. | Gestor de sistema de luces. |
| US20050138572A1 (en) | 2003-12-19 | 2005-06-23 | Palo Alto Research Center, Incorported | Methods and systems for enhancing recognizability of objects in a workspace |
| US8151214B2 (en) | 2003-12-29 | 2012-04-03 | International Business Machines Corporation | System and method for color coding list items |
| US8171426B2 (en) | 2003-12-29 | 2012-05-01 | International Business Machines Corporation | Method for secondary selection highlighting |
| US7409641B2 (en) | 2003-12-29 | 2008-08-05 | International Business Machines Corporation | Method for replying to related messages |
| JP2005215144A (ja) | 2004-01-28 | 2005-08-11 | Seiko Epson Corp | プロジェクタ |
| US7721226B2 (en) | 2004-02-18 | 2010-05-18 | Microsoft Corporation | Glom widget |
| JP4522129B2 (ja) | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
| US20060080702A1 (en) | 2004-05-20 | 2006-04-13 | Turner Broadcasting System, Inc. | Systems and methods for delivering content over a network |
| JP4495518B2 (ja) | 2004-05-21 | 2010-07-07 | 日本放送協会 | 番組選択支援装置及び番組選択支援プログラム |
| JP2006004093A (ja) | 2004-06-16 | 2006-01-05 | Funai Electric Co Ltd | 切替装置 |
| DE602005014239D1 (de) | 2004-07-23 | 2009-06-10 | 3Shape As | Adaptives 3d-scannen |
| US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
| US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
| JP3832666B2 (ja) | 2004-08-16 | 2006-10-11 | 船井電機株式会社 | ディスク再生装置 |
| JP2006146803A (ja) | 2004-11-24 | 2006-06-08 | Olympus Corp | 操作装置及び遠隔操作システム |
| JP4297442B2 (ja) | 2004-11-30 | 2009-07-15 | 富士通株式会社 | 手書き情報入力装置 |
| US7298370B1 (en) | 2005-04-16 | 2007-11-20 | Apple Inc. | Depth ordering of planes and displaying interconnects having an appearance indicating data characteristics |
| US7580576B2 (en) | 2005-06-02 | 2009-08-25 | Microsoft Corporation | Stroke localization and binding to electronic document |
| DE602005004901T2 (de) | 2005-06-16 | 2009-02-26 | Electrolux Home Products Corporation N.V. | Wasserumwälzende Haushaltwaschmaschine mit automatischer Wäscharterfassung und dazugehörigem Verfahren |
| US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
| US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
| US7813591B2 (en) | 2006-01-20 | 2010-10-12 | 3M Innovative Properties Company | Visual feedback of 3D scan parameters |
| US8793620B2 (en) | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
| US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
| US8279180B2 (en) | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
| EP2100273A2 (en) | 2006-11-13 | 2009-09-16 | Everyscape, Inc | Method for scripting inter-scene transitions |
| US20080132249A1 (en) | 2006-12-05 | 2008-06-05 | Palm, Inc. | Local caching of map data based on carrier coverage data |
| EP2089876A1 (en) | 2006-12-07 | 2009-08-19 | Adapx, Inc. | Systems and methods for data annotation, recordation, and communication |
| US8006002B2 (en) | 2006-12-12 | 2011-08-23 | Apple Inc. | Methods and systems for automatic configuration of peripherals |
| US7957762B2 (en) | 2007-01-07 | 2011-06-07 | Apple Inc. | Using ambient light sensor to augment proximity sensor output |
| US20080211771A1 (en) | 2007-03-02 | 2008-09-04 | Naturalpoint, Inc. | Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment |
| US8601589B2 (en) | 2007-03-05 | 2013-12-03 | Microsoft Corporation | Simplified electronic messaging system |
| JP4858313B2 (ja) | 2007-06-01 | 2012-01-18 | 富士ゼロックス株式会社 | ワークスペース管理方式 |
| US20080310707A1 (en) | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
| US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
| KR101432812B1 (ko) | 2007-07-31 | 2014-08-26 | 삼성전자주식회사 | 이동통신 단말기의 디스플레이 화면에서 아이콘의 좌표를결정하는 좌표결정장치 및 좌표결정방법 |
| US10318110B2 (en) | 2007-08-13 | 2019-06-11 | Oath Inc. | Location-based visualization of geo-referenced context |
| US20090146961A1 (en) | 2007-12-05 | 2009-06-11 | David Shun-Chi Cheung | Digital image editing interface |
| CA2708958A1 (en) | 2007-12-14 | 2009-07-02 | France Telecom | Method of managing the display or deletion of a user's representation in a virtual environment |
| US20090234716A1 (en) | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Method of monetizing online personal beauty product selections |
| CN103076949B (zh) | 2008-03-19 | 2016-04-20 | 株式会社电装 | 车辆操作输入设备 |
| KR101527993B1 (ko) | 2008-04-05 | 2015-06-10 | 소우셜 커뮤니케이션즈 컴퍼니 | 가상 환경과의 인터페이스 방법 |
| US9870130B2 (en) | 2008-05-13 | 2018-01-16 | Apple Inc. | Pushing a user interface to a remote device |
| US8467991B2 (en) | 2008-06-20 | 2013-06-18 | Microsoft Corporation | Data services based on gesture and location information of device |
| US9164975B2 (en) | 2008-06-24 | 2015-10-20 | Monmouth University | System and method for viewing and marking maps |
| US8103441B2 (en) | 2008-06-26 | 2012-01-24 | Microsoft Corporation | Caching navigation content for intermittently connected devices |
| US8826174B2 (en) | 2008-06-27 | 2014-09-02 | Microsoft Corporation | Using visual landmarks to organize diagrams |
| US8948496B2 (en) | 2008-08-29 | 2015-02-03 | Koninklijke Philips N.V. | Dynamic transfer of three-dimensional image data |
| WO2010026519A1 (en) | 2008-09-03 | 2010-03-11 | Koninklijke Philips Electronics N.V. | Method of presenting head-pose feedback to a user of an interactive display system |
| US8941642B2 (en) | 2008-10-17 | 2015-01-27 | Kabushiki Kaisha Square Enix | System for the creation and editing of three dimensional models |
| US20100115459A1 (en) | 2008-10-31 | 2010-05-06 | Nokia Corporation | Method, apparatus and computer program product for providing expedited navigation |
| US20100185949A1 (en) | 2008-12-09 | 2010-07-22 | Denny Jaeger | Method for using gesture objects for computer control |
| US8269821B2 (en) | 2009-01-27 | 2012-09-18 | EchoStar Technologies, L.L.C. | Systems and methods for providing closed captioning in three-dimensional imagery |
| US8294766B2 (en) | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
| US9071834B2 (en) | 2009-04-25 | 2015-06-30 | James Yett | Array of individually angled mirrors reflecting disparate color sources toward one or more viewing positions to construct images and visual effects |
| JP4676011B2 (ja) | 2009-05-15 | 2011-04-27 | 株式会社東芝 | 情報処理装置、表示制御方法およびプログラム |
| US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
| US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
| US9070206B2 (en) | 2009-05-30 | 2015-06-30 | Apple Inc. | Providing a visible light source in an interactive three-dimensional compositing application |
| JP5620651B2 (ja) | 2009-06-26 | 2014-11-05 | キヤノン株式会社 | 再生装置、撮像装置、及びその制御方法 |
| JP5263049B2 (ja) | 2009-07-21 | 2013-08-14 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
| US8319788B2 (en) | 2009-07-22 | 2012-11-27 | Behr Process Corporation | Automated color selection method and apparatus |
| US9639983B2 (en) | 2009-07-22 | 2017-05-02 | Behr Process Corporation | Color selection, coordination and purchase system |
| US9563342B2 (en) | 2009-07-22 | 2017-02-07 | Behr Process Corporation | Automated color selection method and apparatus with compact functionality |
| KR101351487B1 (ko) | 2009-08-13 | 2014-01-14 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
| US8578295B2 (en) | 2009-09-16 | 2013-11-05 | International Business Machines Corporation | Placement of items in cascading radial menus |
| WO2011044936A1 (en) | 2009-10-14 | 2011-04-21 | Nokia Corporation | Autostereoscopic rendering and display apparatus |
| US9681112B2 (en) | 2009-11-05 | 2017-06-13 | Lg Electronics Inc. | Image display apparatus and method for controlling the image display apparatus |
| KR101627214B1 (ko) | 2009-11-12 | 2016-06-03 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
| US8397326B2 (en) | 2010-02-05 | 2013-03-19 | Stryker Corporation | Patient/invalid handling support |
| US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
| US20110169927A1 (en) | 2010-01-13 | 2011-07-14 | Coco Studios | Content Presentation in a Three Dimensional Environment |
| US8436872B2 (en) | 2010-02-03 | 2013-05-07 | Oculus Info Inc. | System and method for creating and displaying map projections related to real-time images |
| US8947355B1 (en) | 2010-03-25 | 2015-02-03 | Amazon Technologies, Inc. | Motion-based character selection |
| KR101834263B1 (ko) | 2010-04-01 | 2018-03-06 | 톰슨 라이센싱 | 3차원(3d) 프리젠테이션에서의 서브타이틀들 |
| JP2011221604A (ja) | 2010-04-05 | 2011-11-04 | Konica Minolta Business Technologies Inc | 手書きデータ管理システム及び手書きデータ管理プログラム並びに手書きデータ管理方法 |
| US8982160B2 (en) | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
| JP2011239169A (ja) | 2010-05-10 | 2011-11-24 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
| JP5055402B2 (ja) | 2010-05-17 | 2012-10-24 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
| KR20110128487A (ko) | 2010-05-24 | 2011-11-30 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 컨텐츠 공유 방법 |
| EP2393056A1 (en) | 2010-06-02 | 2011-12-07 | Layar B.V. | Acquiring, ranking and displaying points of interest for use in an augmented reality service provisioning system and graphical user interface for displaying such ranked points of interests |
| US11068149B2 (en) | 2010-06-09 | 2021-07-20 | Microsoft Technology Licensing, Llc | Indirect user interaction with desktop using touch-sensitive control surface |
| US20110310001A1 (en) | 2010-06-16 | 2011-12-22 | Visteon Global Technologies, Inc | Display reconfiguration based on face/eye tracking |
| KR20120000663A (ko) | 2010-06-28 | 2012-01-04 | 주식회사 팬택 | 3d 객체 처리 장치 |
| US8547421B2 (en) | 2010-08-13 | 2013-10-01 | Sharp Laboratories Of America, Inc. | System for adaptive displays |
| US9619104B2 (en) | 2010-10-01 | 2017-04-11 | Smart Technologies Ulc | Interactive input system having a 3D input space |
| US10036891B2 (en) | 2010-10-12 | 2018-07-31 | DISH Technologies L.L.C. | Variable transparency heads up displays |
| US9851866B2 (en) | 2010-11-23 | 2017-12-26 | Apple Inc. | Presenting and browsing items in a tilted 3D space |
| US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
| KR101758163B1 (ko) | 2010-12-31 | 2017-07-14 | 엘지전자 주식회사 | 이동 단말기 및 그의 홀로그램 제어방법 |
| US8849027B2 (en) | 2011-01-04 | 2014-09-30 | Ppg Industries Ohio, Inc. | Web-based color selection system |
| US20120194547A1 (en) | 2011-01-31 | 2012-08-02 | Nokia Corporation | Method and apparatus for generating a perspective display |
| EP3527121B1 (en) | 2011-02-09 | 2023-08-23 | Apple Inc. | Gesture detection in a 3d mapping environment |
| US9298334B1 (en) | 2011-02-18 | 2016-03-29 | Marvell International Ltd. | Method and apparatus for providing a user interface having a guided task flow among a plurality of devices |
| US20120223885A1 (en) | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Immersive display experience |
| KR101852428B1 (ko) | 2011-03-09 | 2018-04-26 | 엘지전자 주식회사 | 이동 단말기 및 그의 3d객체 제어방법 |
| WO2012135546A1 (en) | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
| JP5741160B2 (ja) | 2011-04-08 | 2015-07-01 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
| US8643680B2 (en) | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
| US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
| US9779097B2 (en) | 2011-04-28 | 2017-10-03 | Sony Corporation | Platform agnostic UI/UX and human interaction paradigm |
| US8930837B2 (en) | 2011-05-23 | 2015-01-06 | Facebook, Inc. | Graphical user interface for map search |
| US9396580B1 (en) | 2011-06-10 | 2016-07-19 | Disney Enterprises, Inc. | Programmable system for artistic volumetric lighting |
| US20140132633A1 (en) | 2011-07-20 | 2014-05-15 | Victoria Fekete | Room design system with social media interaction |
| US20130232430A1 (en) | 2011-08-26 | 2013-09-05 | Reincloud Corporation | Interactive user interface |
| KR101851630B1 (ko) | 2011-08-29 | 2018-06-11 | 엘지전자 주식회사 | 이동 단말기 및 그의 영상 변환 방법 |
| GB201115369D0 (en) | 2011-09-06 | 2011-10-19 | Gooisoft Ltd | Graphical user interface, computing device, and method for operating the same |
| EP2748795A1 (en) | 2011-09-30 | 2014-07-02 | Layar B.V. | Feedback to user for indicating augmentability of an image |
| JP2013089198A (ja) | 2011-10-21 | 2013-05-13 | Fujifilm Corp | 電子コミック編集装置、方法及びプログラム |
| US20150199081A1 (en) | 2011-11-08 | 2015-07-16 | Google Inc. | Re-centering a user interface |
| US9183672B1 (en) | 2011-11-11 | 2015-11-10 | Google Inc. | Embeddable three-dimensional (3D) image viewer |
| US9526127B1 (en) | 2011-11-18 | 2016-12-20 | Google Inc. | Affecting the behavior of a user device based on a user's gaze |
| US20150312561A1 (en) | 2011-12-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Virtual 3d monitor |
| US9389088B2 (en) | 2011-12-12 | 2016-07-12 | Google Inc. | Method of pre-fetching map data for rendering and offline routing |
| US9910490B2 (en) | 2011-12-29 | 2018-03-06 | Eyeguide, Inc. | System and method of cursor position control based on the vestibulo-ocular reflex |
| US10394320B2 (en) | 2012-01-04 | 2019-08-27 | Tobii Ab | System for gaze interaction |
| US20130191160A1 (en) | 2012-01-23 | 2013-07-25 | Orb Health, Inc. | Dynamic Presentation of Individualized and Populational Health Information and Treatment Solutions |
| JP5807686B2 (ja) | 2012-02-10 | 2015-11-10 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
| US20130211843A1 (en) | 2012-02-13 | 2013-08-15 | Qualcomm Incorporated | Engagement-dependent gesture recognition |
| US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
| KR101180119B1 (ko) | 2012-02-23 | 2012-09-05 | (주)올라웍스 | 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체 |
| US9513793B2 (en) | 2012-02-24 | 2016-12-06 | Blackberry Limited | Method and apparatus for interconnected devices |
| JP2013178639A (ja) | 2012-02-28 | 2013-09-09 | Seiko Epson Corp | 頭部装着型表示装置および画像表示システム |
| US20130229345A1 (en) | 2012-03-01 | 2013-09-05 | Laura E. Day | Manual Manipulation of Onscreen Objects |
| US10503373B2 (en) | 2012-03-14 | 2019-12-10 | Sony Interactive Entertainment LLC | Visual feedback for highlight-driven gesture user interfaces |
| JP2013196158A (ja) | 2012-03-16 | 2013-09-30 | Sony Corp | 制御装置、電子機器、制御方法、及びプログラム |
| US8947323B1 (en) | 2012-03-20 | 2015-02-03 | Hayes Solos Raffle | Content display methods |
| US20130263016A1 (en) | 2012-03-27 | 2013-10-03 | Nokia Corporation | Method and apparatus for location tagged user interface for media sharing |
| WO2013147804A1 (en) | 2012-03-29 | 2013-10-03 | Intel Corporation | Creation of three-dimensional graphics using gestures |
| US9293118B2 (en) | 2012-03-30 | 2016-03-22 | Sony Corporation | Client device |
| US8937591B2 (en) | 2012-04-06 | 2015-01-20 | Apple Inc. | Systems and methods for counteracting a perceptual fading of a movable indicator |
| US9448635B2 (en) | 2012-04-16 | 2016-09-20 | Qualcomm Incorporated | Rapid gesture re-engagement |
| US9448636B2 (en) | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
| GB2501471A (en) | 2012-04-18 | 2013-10-30 | Barco Nv | Electronic conference arrangement |
| US9183676B2 (en) | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
| WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
| TWI555400B (zh) | 2012-05-17 | 2016-10-21 | 晨星半導體股份有限公司 | 應用於顯示裝置的字幕控制方法與元件 |
| BR112014028774B1 (pt) | 2012-05-18 | 2022-05-10 | Apple Inc | Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações |
| US9229621B2 (en) | 2012-05-22 | 2016-01-05 | Paletteapp, Inc. | Electronic palette system |
| US20130326364A1 (en) * | 2012-05-31 | 2013-12-05 | Stephen G. Latta | Position relative hologram interactions |
| US9934614B2 (en) | 2012-05-31 | 2018-04-03 | Microsoft Technology Licensing, Llc | Fixed size augmented reality objects |
| US9116666B2 (en) | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
| US9222787B2 (en) | 2012-06-05 | 2015-12-29 | Apple Inc. | System and method for acquiring map portions based on expected signal strength of route segments |
| US9135751B2 (en) | 2012-06-05 | 2015-09-15 | Apple Inc. | Displaying location preview |
| US9146125B2 (en) | 2012-06-05 | 2015-09-29 | Apple Inc. | Navigation application with adaptive display of graphical directional indicators |
| US20130332890A1 (en) | 2012-06-06 | 2013-12-12 | Google Inc. | System and method for providing content for a point of interest |
| JP6007600B2 (ja) | 2012-06-07 | 2016-10-12 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
| US20130328925A1 (en) * | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
| JP5580855B2 (ja) | 2012-06-12 | 2014-08-27 | 株式会社ソニー・コンピュータエンタテインメント | 障害物回避装置および障害物回避方法 |
| US9214137B2 (en) | 2012-06-18 | 2015-12-15 | Xerox Corporation | Methods and systems for realistic rendering of digital objects in augmented reality |
| US9645394B2 (en) | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
| US9767720B2 (en) | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
| US10129524B2 (en) | 2012-06-26 | 2018-11-13 | Google Llc | Depth-assigned content for depth-enhanced virtual reality images |
| US9256961B2 (en) | 2012-06-28 | 2016-02-09 | Here Global B.V. | Alternate viewpoint image enhancement |
| US20140002338A1 (en) | 2012-06-28 | 2014-01-02 | Intel Corporation | Techniques for pose estimation and false positive filtering for gesture recognition |
| US11266919B2 (en) | 2012-06-29 | 2022-03-08 | Monkeymedia, Inc. | Head-mounted display for navigating virtual and augmented reality |
| US9292085B2 (en) | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
| JP6271858B2 (ja) | 2012-07-04 | 2018-01-31 | キヤノン株式会社 | 表示装置及びその制御方法 |
| CN105378593B (zh) | 2012-07-13 | 2019-03-01 | 索尼深度传感解决方案股份有限公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
| US20140040832A1 (en) | 2012-08-02 | 2014-02-06 | Stephen Regelous | Systems and methods for a modeless 3-d graphics manipulator |
| US9886795B2 (en) | 2012-09-05 | 2018-02-06 | Here Global B.V. | Method and apparatus for transitioning from a partial map view to an augmented reality view |
| US9466121B2 (en) | 2012-09-11 | 2016-10-11 | Qualcomm Incorporated | Devices and methods for augmented reality applications |
| US9378592B2 (en) | 2012-09-14 | 2016-06-28 | Lg Electronics Inc. | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
| US8866880B2 (en) | 2012-09-26 | 2014-10-21 | Hewlett-Packard Development Company, L.P. | Display-camera system with selective crosstalk reduction |
| US9201500B2 (en) | 2012-09-28 | 2015-12-01 | Intel Corporation | Multi-modal touch screen emulator |
| JP6007712B2 (ja) | 2012-09-28 | 2016-10-12 | ブラザー工業株式会社 | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム |
| US20140092018A1 (en) | 2012-09-28 | 2014-04-03 | Ralf Wolfgang Geithner | Non-mouse cursor control including modified keyboard input |
| US9007301B1 (en) | 2012-10-11 | 2015-04-14 | Google Inc. | User interface |
| US10970934B2 (en) | 2012-10-23 | 2021-04-06 | Roam Holdings, LLC | Integrated operating environment |
| CA2927447C (en) | 2012-10-23 | 2021-11-30 | Roam Holdings, LLC | Three-dimensional virtual environment |
| US9684372B2 (en) | 2012-11-07 | 2017-06-20 | Samsung Electronics Co., Ltd. | System and method for human computer interaction |
| KR20140073730A (ko) | 2012-12-06 | 2014-06-17 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기 제어방법 |
| US9274608B2 (en) | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
| US11137832B2 (en) | 2012-12-13 | 2021-10-05 | Eyesight Mobile Technologies, LTD. | Systems and methods to predict a user action within a vehicle |
| US9746926B2 (en) | 2012-12-26 | 2017-08-29 | Intel Corporation | Techniques for gesture-based initiation of inter-device wireless connections |
| EP3435220B1 (en) | 2012-12-29 | 2020-09-16 | Apple Inc. | Device, method and graphical user interface for transitioning between touch input to display output relationships |
| US9395543B2 (en) | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
| KR101494805B1 (ko) | 2013-01-28 | 2015-02-24 | 주식회사 위피엔피 | 3차원 컨텐츠 제작 시스템 및 그 방법 |
| JP2014157466A (ja) | 2013-02-15 | 2014-08-28 | Sony Corp | 情報処理装置及び記憶媒体 |
| US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
| US20140247208A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Invoking and waking a computing device from stand-by mode based on gaze detection |
| US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
| US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
| US20140258942A1 (en) | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
| US9436357B2 (en) | 2013-03-08 | 2016-09-06 | Nook Digital, Llc | System and method for creating and viewing comic book electronic publications |
| US9041741B2 (en) | 2013-03-14 | 2015-05-26 | Qualcomm Incorporated | User interface for a head mounted display |
| US10599328B2 (en) | 2013-03-14 | 2020-03-24 | Valve Corporation | Variable user tactile input device with display feedback system |
| US9294757B1 (en) | 2013-03-15 | 2016-03-22 | Google Inc. | 3-dimensional videos of objects |
| US20140282272A1 (en) | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Interactive Inputs for a Background Task |
| US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
| US9234742B2 (en) | 2013-05-01 | 2016-01-12 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
| US20140331187A1 (en) | 2013-05-03 | 2014-11-06 | Barnesandnoble.Com Llc | Grouping objects on a computing device |
| US9245388B2 (en) | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
| US9489774B2 (en) | 2013-05-16 | 2016-11-08 | Empire Technology Development Llc | Three dimensional user interface in augmented reality |
| US9230368B2 (en) | 2013-05-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Hologram anchoring and dynamic positioning |
| KR20140138424A (ko) | 2013-05-23 | 2014-12-04 | 삼성전자주식회사 | 제스쳐를 이용한 사용자 인터페이스 방법 및 장치 |
| KR102098058B1 (ko) | 2013-06-07 | 2020-04-07 | 삼성전자 주식회사 | 뷰 모드에서 정보 제공 방법 및 장치 |
| US9495620B2 (en) | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
| US9338440B2 (en) | 2013-06-17 | 2016-05-10 | Microsoft Technology Licensing, Llc | User interface for three-dimensional modeling |
| US20140368537A1 (en) | 2013-06-18 | 2014-12-18 | Tom G. Salter | Shared and private holographic objects |
| US10175483B2 (en) | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
| US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
| US9129430B2 (en) | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
| US9563331B2 (en) | 2013-06-28 | 2017-02-07 | Microsoft Technology Licensing, Llc | Web-like hierarchical menu display configuration for a near-eye display |
| US9146618B2 (en) | 2013-06-28 | 2015-09-29 | Google Inc. | Unlocking a head mounted device |
| WO2015002442A1 (ko) | 2013-07-02 | 2015-01-08 | 엘지전자 주식회사 | 다시점 영상이 제공되는 시스템에서 부가 오브젝트를 포함하는 3차원 영상 처리 방법 및 장치 |
| US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
| US10380799B2 (en) | 2013-07-31 | 2019-08-13 | Splunk Inc. | Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment |
| EP4411586A3 (en) | 2013-08-26 | 2024-11-20 | Samsung Electronics Co., Ltd. | User device and method for creating handwriting content |
| KR20150026336A (ko) | 2013-09-02 | 2015-03-11 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 컨텐트 출력 방법 |
| US10229523B2 (en) | 2013-09-09 | 2019-03-12 | Empire Technology Development Llc | Augmented reality alteration detector |
| US9158115B1 (en) | 2013-09-16 | 2015-10-13 | Amazon Technologies, Inc. | Touch control for immersion in a tablet goggles accessory |
| EP3063602B1 (en) | 2013-11-01 | 2019-10-23 | Intel Corporation | Gaze-assisted touchscreen inputs |
| US20150123890A1 (en) | 2013-11-04 | 2015-05-07 | Microsoft Corporation | Two hand natural user input |
| US20150123901A1 (en) | 2013-11-04 | 2015-05-07 | Microsoft Corporation | Gesture disambiguation using orientation information |
| US9256785B2 (en) | 2013-11-12 | 2016-02-09 | Fuji Xerox Co., Ltd. | Identifying user activities using eye tracking data, mouse events, and keystrokes |
| US9398059B2 (en) | 2013-11-22 | 2016-07-19 | Dell Products, L.P. | Managing information and content sharing in a virtual collaboration session |
| US20150145887A1 (en) * | 2013-11-25 | 2015-05-28 | Qualcomm Incorporated | Persistent head-mounted content display |
| US20170132822A1 (en) | 2013-11-27 | 2017-05-11 | Larson-Juhl, Inc. | Artificial intelligence in virtualized framing using image metadata |
| US9886087B1 (en) | 2013-11-30 | 2018-02-06 | Allscripts Software, Llc | Dynamically optimizing user interfaces |
| US9519999B1 (en) | 2013-12-10 | 2016-12-13 | Google Inc. | Methods and systems for providing a preloader animation for image viewers |
| KR20150069355A (ko) | 2013-12-13 | 2015-06-23 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
| JP6079614B2 (ja) | 2013-12-19 | 2017-02-15 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
| US9811245B2 (en) | 2013-12-24 | 2017-11-07 | Dropbox, Inc. | Systems and methods for displaying an image capturing mode and a content viewing mode |
| US20150193982A1 (en) | 2014-01-03 | 2015-07-09 | Google Inc. | Augmented reality overlays using position and orientation to facilitate interactions between electronic devices |
| US9437047B2 (en) | 2014-01-15 | 2016-09-06 | Htc Corporation | Method, electronic apparatus, and computer-readable medium for retrieving map |
| US10001645B2 (en) | 2014-01-17 | 2018-06-19 | Sony Interactive Entertainment America Llc | Using a second screen as a private tracking heads-up display |
| US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
| US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
| US9448687B1 (en) | 2014-02-05 | 2016-09-20 | Google Inc. | Zoomable/translatable browser interface for a head mounted device |
| CA2940819C (en) | 2014-02-27 | 2023-03-28 | Hunter Douglas Inc. | Apparatus and method for providing a virtual decorating interface |
| US9563340B2 (en) | 2014-03-08 | 2017-02-07 | IntegrityWare, Inc. | Object manipulator and method of object manipulation |
| US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
| US20150262428A1 (en) | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Hierarchical clustering for view management augmented reality |
| WO2015152487A1 (ko) | 2014-04-03 | 2015-10-08 | 주식회사 퓨처플레이 | 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
| US9544257B2 (en) | 2014-04-04 | 2017-01-10 | Blackberry Limited | System and method for conducting private messaging |
| JP2015222565A (ja) | 2014-04-30 | 2015-12-10 | Necパーソナルコンピュータ株式会社 | 情報処理装置およびプログラム |
| US9430038B2 (en) | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
| US9361732B2 (en) | 2014-05-01 | 2016-06-07 | Microsoft Technology Licensing, Llc | Transitions between body-locked and world-locked augmented reality |
| US10564714B2 (en) | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
| KR102209511B1 (ko) | 2014-05-12 | 2021-01-29 | 엘지전자 주식회사 | 안경형 단말기와 그 안경형 단말기의 제어 방법 |
| KR102004990B1 (ko) | 2014-05-13 | 2019-07-29 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
| US10579207B2 (en) | 2014-05-14 | 2020-03-03 | Purdue Research Foundation | Manipulating virtual environment using non-instrumented physical object |
| EP2947545A1 (en) | 2014-05-20 | 2015-11-25 | Alcatel Lucent | System for implementing gaze translucency in a virtual scene |
| US20150350141A1 (en) | 2014-05-31 | 2015-12-03 | Apple Inc. | Message user interfaces for capture and transmittal of media and location content |
| US9583105B2 (en) | 2014-06-06 | 2017-02-28 | Microsoft Technology Licensing, Llc | Modification of visual content to facilitate improved speech recognition |
| US9766702B2 (en) | 2014-06-19 | 2017-09-19 | Apple Inc. | User detection by a computing device |
| WO2015195529A1 (en) | 2014-06-20 | 2015-12-23 | Google Inc. | Integrating online navigation data with cached navigation data during active navigation |
| CN105302292A (zh) | 2014-06-23 | 2016-02-03 | 新益先创科技股份有限公司 | 便携式电子装置 |
| US9473764B2 (en) | 2014-06-27 | 2016-10-18 | Microsoft Technology Licensing, Llc | Stereoscopic image display |
| WO2016003018A1 (ko) | 2014-07-02 | 2016-01-07 | 엘지전자(주) | 이동단말기 및 그 제어방법 |
| WO2016001909A1 (en) | 2014-07-03 | 2016-01-07 | Imagine Mobile Augmented Reality Ltd | Audiovisual surround augmented reality (asar) |
| US20160018899A1 (en) | 2014-07-18 | 2016-01-21 | Apple Inc. | Detecting loss of user focus in a device |
| US20160028961A1 (en) | 2014-07-23 | 2016-01-28 | Indran Rehan Thurairatnam | Visual Media Capture Device For Visual Thinking |
| US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
| US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
| US20160025971A1 (en) | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
| US9990774B2 (en) | 2014-08-08 | 2018-06-05 | Sony Interactive Entertainment Inc. | Sensory stimulus management in head mounted display |
| US9838999B2 (en) | 2014-08-14 | 2017-12-05 | Blackberry Limited | Portable electronic device and method of controlling notifications |
| US20160062636A1 (en) | 2014-09-02 | 2016-03-03 | Lg Electronics Inc. | Mobile terminal and control method thereof |
| US10067561B2 (en) | 2014-09-22 | 2018-09-04 | Facebook, Inc. | Display visibility based on eye convergence |
| US9588651B1 (en) | 2014-09-24 | 2017-03-07 | Amazon Technologies, Inc. | Multiple virtual environments |
| US9818225B2 (en) | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
| US9466259B2 (en) | 2014-10-01 | 2016-10-11 | Honda Motor Co., Ltd. | Color management |
| KR102337682B1 (ko) | 2014-10-01 | 2021-12-09 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
| US20160098094A1 (en) | 2014-10-02 | 2016-04-07 | Geegui Corporation | User interface enabled by 3d reversals |
| US9426193B2 (en) | 2014-10-14 | 2016-08-23 | GravityNav, Inc. | Multi-dimensional data visualization, navigation, and menu systems |
| US10048835B2 (en) | 2014-10-31 | 2018-08-14 | Microsoft Technology Licensing, Llc | User interface functionality for facilitating interaction between users and their environments |
| US10061486B2 (en) | 2014-11-05 | 2018-08-28 | Northrop Grumman Systems Corporation | Area monitoring system implementing a virtual environment |
| KR102265086B1 (ko) | 2014-11-07 | 2021-06-15 | 삼성전자 주식회사 | 정보를 공유하기 위한 가상 환경 |
| US9798743B2 (en) | 2014-12-11 | 2017-10-24 | Art.Com | Mapping décor accessories to a color palette |
| US10353532B1 (en) | 2014-12-18 | 2019-07-16 | Leap Motion, Inc. | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
| US9778814B2 (en) | 2014-12-19 | 2017-10-03 | Microsoft Technology Licensing, Llc | Assisted object placement in a three-dimensional visualization system |
| EP3240296B1 (en) | 2014-12-26 | 2023-04-05 | Sony Group Corporation | Information processing device, information processing method, and program |
| US9728010B2 (en) | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
| US9685005B2 (en) | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
| US10284794B1 (en) | 2015-01-07 | 2019-05-07 | Car360 Inc. | Three-dimensional stabilized 360-degree composite image capture |
| US9898078B2 (en) | 2015-01-12 | 2018-02-20 | Dell Products, L.P. | Immersive environment correction display and method |
| US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
| CN107209565B (zh) | 2015-01-20 | 2020-05-05 | 微软技术许可有限责任公司 | 用于显示固定大小的增强现实对象的方法和系统 |
| US11347316B2 (en) | 2015-01-28 | 2022-05-31 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
| US10955924B2 (en) | 2015-01-29 | 2021-03-23 | Misapplied Sciences, Inc. | Individually interactive multi-view display system and methods therefor |
| US9779512B2 (en) | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
| US10242379B2 (en) | 2015-01-30 | 2019-03-26 | Adobe Inc. | Tracking visual gaze information for controlling content display |
| US20160227267A1 (en) | 2015-01-30 | 2016-08-04 | The Directv Group, Inc. | Method and system for viewing set top box content in a virtual reality device |
| US9999835B2 (en) | 2015-02-05 | 2018-06-19 | Sony Interactive Entertainment Inc. | Motion sickness monitoring and application of supplemental sound to counteract sickness |
| EP3123288A4 (en) | 2015-02-25 | 2017-11-22 | Facebook, Inc. | Identifying an object in a volume based on characteristics of light reflected by the object |
| WO2016137139A1 (en) | 2015-02-26 | 2016-09-01 | Samsung Electronics Co., Ltd. | Method and device for managing item |
| US9911232B2 (en) | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
| US10732721B1 (en) | 2015-02-28 | 2020-08-04 | sigmund lindsay clements | Mixed reality glasses used to operate a device touch freely |
| US10207185B2 (en) | 2015-03-07 | 2019-02-19 | Sony Interactive Entertainment America Llc | Using connection quality history to optimize user experience |
| US9857888B2 (en) | 2015-03-17 | 2018-01-02 | Behr Process Corporation | Paint your place application for optimizing digital painting of an image |
| US9852543B2 (en) | 2015-03-27 | 2017-12-26 | Snap Inc. | Automated three dimensional model generation |
| JP6596883B2 (ja) | 2015-03-31 | 2019-10-30 | ソニー株式会社 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
| US10136101B2 (en) | 2015-03-31 | 2018-11-20 | Sony Corporation | Information processing apparatus, communication system, and information processing method |
| WO2016164342A1 (en) | 2015-04-06 | 2016-10-13 | Scope Technologies Us Inc. | Methods and apparatus for augmented reality applications |
| US20160306434A1 (en) | 2015-04-20 | 2016-10-20 | 16Lab Inc | Method for interacting with mobile or wearable device |
| US9804733B2 (en) | 2015-04-21 | 2017-10-31 | Dell Products L.P. | Dynamic cursor focus in a multi-display information handling system environment |
| US9442575B1 (en) | 2015-05-15 | 2016-09-13 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
| EP4067824B1 (en) | 2015-05-28 | 2025-04-09 | Google LLC | Notification of upcoming loss of offline data coverage in a navigation application |
| US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
| JP6277329B2 (ja) | 2015-06-02 | 2018-02-07 | 株式会社電通 | 立体広告枠決定システム、ユーザ端末および立体広告枠決定コンピュータ |
| CN107787497B (zh) | 2015-06-10 | 2021-06-22 | 维塔驰有限公司 | 用于在基于用户的空间坐标系中检测手势的方法和装置 |
| WO2016203282A1 (en) | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
| EP3109733B1 (en) | 2015-06-22 | 2020-07-22 | Nokia Technologies Oy | Content delivery |
| US9520002B1 (en) | 2015-06-24 | 2016-12-13 | Microsoft Technology Licensing, Llc | Virtual place-located anchor |
| JP2017021461A (ja) | 2015-07-08 | 2017-01-26 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
| EP3118722B1 (en) | 2015-07-14 | 2020-07-01 | Nokia Technologies Oy | Mediated reality |
| US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
| JP6611501B2 (ja) | 2015-07-17 | 2019-11-27 | キヤノン株式会社 | 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 |
| GB2540791A (en) | 2015-07-28 | 2017-02-01 | Dexter Consulting Uk Ltd | Apparatus, methods, computer programs and non-transitory computer-readable storage media for generating a three-dimensional model of an object |
| WO2017024142A1 (en) | 2015-08-04 | 2017-02-09 | Google Inc. | Input via context sensitive collisions of hands with objects in virtual reality |
| WO2017024118A1 (en) | 2015-08-04 | 2017-02-09 | Google Inc. | Hover behavior for gaze interactions in virtual reality |
| WO2017021753A1 (en) | 2015-08-06 | 2017-02-09 | Accenture Global Services Limited | Condition detection using image processing |
| US9818228B2 (en) | 2015-08-07 | 2017-11-14 | Microsoft Technology Licensing, Llc | Mixed reality social interaction |
| US20170038829A1 (en) | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Social interaction for remote communication |
| US20170053383A1 (en) | 2015-08-17 | 2017-02-23 | Dae Hoon Heo | Apparatus and method for providing 3d content and recording medium |
| KR101808852B1 (ko) | 2015-08-18 | 2017-12-13 | 권혁제 | 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법 |
| US10007352B2 (en) | 2015-08-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Holographic display system with undo functionality |
| US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
| US10318225B2 (en) | 2015-09-01 | 2019-06-11 | Microsoft Technology Licensing, Llc | Holographic augmented authoring |
| US10186086B2 (en) | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
| US9298283B1 (en) | 2015-09-10 | 2016-03-29 | Connectivity Labs Inc. | Sedentary virtual reality method and systems |
| JP6489984B2 (ja) | 2015-09-16 | 2019-03-27 | 株式会社エクシング | カラオケ装置及びカラオケ用プログラム |
| US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
| US10152825B2 (en) | 2015-10-16 | 2018-12-11 | Fyusion, Inc. | Augmenting multi-view image data with synthetic objects using IMU and image data |
| KR102400900B1 (ko) | 2015-10-26 | 2022-05-23 | 엘지전자 주식회사 | 시스템 |
| US11432095B1 (en) | 2019-05-29 | 2022-08-30 | Apple Inc. | Placement of virtual speakers based on room layout |
| US11106273B2 (en) | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
| US20180300023A1 (en) | 2015-10-30 | 2018-10-18 | Christine Hein | Methods, apparatuses, and systems for material coating selection operations |
| KR102471977B1 (ko) | 2015-11-06 | 2022-11-30 | 삼성전자 주식회사 | 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치 |
| US10706457B2 (en) | 2015-11-06 | 2020-07-07 | Fujifilm North America Corporation | Method, system, and medium for virtual wall art |
| KR20170059760A (ko) | 2015-11-23 | 2017-05-31 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
| CN105487782B (zh) | 2015-11-27 | 2019-07-09 | 惠州Tcl移动通信有限公司 | 一种基于眼部识别的自动调整滚屏速度的方法及系统 |
| US11217009B2 (en) | 2015-11-30 | 2022-01-04 | Photopotech LLC | Methods for collecting and processing image information to produce digital assets |
| US10140464B2 (en) | 2015-12-08 | 2018-11-27 | University Of Washington | Methods and systems for providing presentation security for augmented reality applications |
| US11010972B2 (en) | 2015-12-11 | 2021-05-18 | Google Llc | Context sensitive user interface activation in an augmented and/or virtual reality environment |
| US10008028B2 (en) | 2015-12-16 | 2018-06-26 | Aquifi, Inc. | 3D scanning apparatus including scanning sensor detachable from screen |
| IL243422B (en) | 2015-12-30 | 2018-04-30 | Elbit Systems Ltd | Information management is displayed according to the directions of the user's gaze |
| JP2017126009A (ja) | 2016-01-15 | 2017-07-20 | キヤノン株式会社 | 表示制御装置、表示制御方法、およびプログラム |
| CN106993227B (zh) | 2016-01-20 | 2020-01-21 | 腾讯科技(北京)有限公司 | 一种进行信息展示的方法和装置 |
| US10775882B2 (en) | 2016-01-21 | 2020-09-15 | Microsoft Technology Licensing, Llc | Implicitly adaptive eye-tracking user interface |
| CN106997241B (zh) | 2016-01-22 | 2020-04-21 | 宏达国际电子股份有限公司 | 虚拟现实环境中与真实世界互动的方法与虚拟现实系统 |
| US9978180B2 (en) | 2016-01-25 | 2018-05-22 | Microsoft Technology Licensing, Llc | Frame projection for augmented reality environments |
| US10229541B2 (en) | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
| US10067636B2 (en) | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
| US11221750B2 (en) | 2016-02-12 | 2022-01-11 | Purdue Research Foundation | Manipulating 3D virtual objects using hand-held controllers |
| US10373380B2 (en) | 2016-02-18 | 2019-08-06 | Intel Corporation | 3-dimensional scene analysis for augmented reality operations |
| JP6836042B2 (ja) | 2016-02-29 | 2021-02-24 | パックサイズ,リミティド ライアビリティ カンパニー | 三次元走査支援システム及び方法 |
| US20170256096A1 (en) | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
| US10176641B2 (en) | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
| US20170287215A1 (en) | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
| US10373381B2 (en) | 2016-03-30 | 2019-08-06 | Microsoft Technology Licensing, Llc | Virtual object manipulation within physical environment |
| US10048751B2 (en) | 2016-03-31 | 2018-08-14 | Verizon Patent And Licensing Inc. | Methods and systems for gaze-based control of virtual reality media content |
| US10372205B2 (en) | 2016-03-31 | 2019-08-06 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
| US10754434B2 (en) | 2016-04-01 | 2020-08-25 | Intel Corporation | Motion gesture capture by selecting classifier model from pose |
| US10372306B2 (en) | 2016-04-16 | 2019-08-06 | Apple Inc. | Organized timeline |
| KR101904889B1 (ko) | 2016-04-21 | 2018-10-05 | 주식회사 비주얼캠프 | 표시 장치와 이를 이용한 입력 처리 방법 및 시스템 |
| US11017257B2 (en) | 2016-04-26 | 2021-05-25 | Sony Corporation | Information processing device, information processing method, and program |
| CA2999057C (en) | 2016-04-27 | 2023-12-05 | Rovi Guides, Inc. | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
| US10019131B2 (en) | 2016-05-10 | 2018-07-10 | Google Llc | Two-handed object manipulations in virtual reality |
| US10722800B2 (en) | 2016-05-16 | 2020-07-28 | Google Llc | Co-presence handling in virtual reality |
| US11003345B2 (en) | 2016-05-16 | 2021-05-11 | Google Llc | Control-article-based control of a user interface |
| WO2017201162A1 (en) | 2016-05-17 | 2017-11-23 | Google Llc | Virtual/augmented reality input device |
| EP3458938B1 (en) | 2016-05-17 | 2025-07-30 | Google LLC | Methods and apparatus to project contact with real objects in virtual reality environments |
| US10192347B2 (en) | 2016-05-17 | 2019-01-29 | Vangogh Imaging, Inc. | 3D photogrammetry |
| US10254546B2 (en) | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
| US10467814B2 (en) | 2016-06-10 | 2019-11-05 | Dirtt Environmental Solutions, Ltd. | Mixed-reality architectural design environment |
| US10353550B2 (en) | 2016-06-11 | 2019-07-16 | Apple Inc. | Device, method, and graphical user interface for media playback in an accessibility mode |
| US10395428B2 (en) | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
| US10852913B2 (en) | 2016-06-21 | 2020-12-01 | Samsung Electronics Co., Ltd. | Remote hover touch system and method |
| US11146661B2 (en) | 2016-06-28 | 2021-10-12 | Rec Room Inc. | Systems and methods for detecting collaborative virtual gestures |
| US10630803B2 (en) | 2016-06-30 | 2020-04-21 | International Business Machines Corporation | Predictive data prefetching for connected vehicles |
| JP6238381B1 (ja) | 2016-06-30 | 2017-11-29 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
| US10019839B2 (en) | 2016-06-30 | 2018-07-10 | Microsoft Technology Licensing, Llc | Three-dimensional object scanning feedback |
| CN109313291A (zh) | 2016-06-30 | 2019-02-05 | 惠普发展公司,有限责任合伙企业 | 智能镜件 |
| JP6236691B1 (ja) | 2016-06-30 | 2017-11-29 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
| US10191541B2 (en) | 2016-06-30 | 2019-01-29 | Sony Interactive Entertainment Inc. | Augmenting virtual reality content with real world content |
| WO2018012206A1 (ja) | 2016-07-12 | 2018-01-18 | 富士フイルム株式会社 | 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム |
| US10768421B1 (en) | 2016-07-18 | 2020-09-08 | Knowledge Initiatives LLC | Virtual monocle interface for information visualization |
| US20180046363A1 (en) | 2016-08-10 | 2018-02-15 | Adobe Systems Incorporated | Digital Content View Control |
| US10627625B2 (en) | 2016-08-11 | 2020-04-21 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
| US10448189B2 (en) | 2016-09-14 | 2019-10-15 | Magic Leap, Inc. | Virtual reality, augmented reality, and mixed reality systems with spatialized audio |
| US10325407B2 (en) | 2016-09-15 | 2019-06-18 | Microsoft Technology Licensing, Llc | Attribute detection tools for mixed reality |
| US10817126B2 (en) | 2016-09-20 | 2020-10-27 | Apple Inc. | 3D document editing system |
| US10318034B1 (en) | 2016-09-23 | 2019-06-11 | Apple Inc. | Devices, methods, and user interfaces for interacting with user interface objects via proximity-based and contact-based inputs |
| DK179471B1 (en) | 2016-09-23 | 2018-11-26 | Apple Inc. | IMAGE DATA FOR ENHANCED USER INTERACTIONS |
| US10503349B2 (en) | 2016-10-04 | 2019-12-10 | Facebook, Inc. | Shared three-dimensional user interface with personal space |
| US20180095636A1 (en) | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
| US20180095635A1 (en) | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
| US10341568B2 (en) | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
| US10809808B2 (en) | 2016-10-14 | 2020-10-20 | Intel Corporation | Gesture-controlled virtual reality systems and methods of controlling the same |
| KR102491191B1 (ko) | 2016-10-24 | 2023-01-20 | 스냅 인코포레이티드 | 중복 추적 시스템 |
| EP3316075B1 (en) | 2016-10-26 | 2021-04-07 | Harman Becker Automotive Systems GmbH | Combined eye and gesture tracking |
| US10311543B2 (en) | 2016-10-27 | 2019-06-04 | Microsoft Technology Licensing, Llc | Virtual object movement |
| US10515479B2 (en) | 2016-11-01 | 2019-12-24 | Purdue Research Foundation | Collaborative 3D modeling system |
| US9983684B2 (en) | 2016-11-02 | 2018-05-29 | Microsoft Technology Licensing, Llc | Virtual affordance display at virtual target |
| US10204448B2 (en) | 2016-11-04 | 2019-02-12 | Aquifi, Inc. | System and method for portable active 3D scanning |
| EP3539087B1 (en) | 2016-11-14 | 2022-11-02 | Logitech Europe S.A. | A system for importing user interface devices into virtual/augmented reality |
| US10754417B2 (en) | 2016-11-14 | 2020-08-25 | Logitech Europe S.A. | Systems and methods for operating an input device in an augmented/virtual reality environment |
| US11487353B2 (en) | 2016-11-14 | 2022-11-01 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
| US10572101B2 (en) | 2016-11-14 | 2020-02-25 | Taqtile, Inc. | Cross-platform multi-modal virtual collaboration and holographic maps |
| EP3324204B1 (en) | 2016-11-21 | 2020-12-23 | HTC Corporation | Body posture detection system, suit and method |
| US20180143693A1 (en) | 2016-11-21 | 2018-05-24 | David J. Calabrese | Virtual object manipulation |
| JP2018088118A (ja) | 2016-11-29 | 2018-06-07 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
| US20180150204A1 (en) | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
| US20180150997A1 (en) | 2016-11-30 | 2018-05-31 | Microsoft Technology Licensing, Llc | Interaction between a touch-sensitive device and a mixed-reality device |
| JP2018092313A (ja) | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US20210248674A1 (en) | 2016-12-05 | 2021-08-12 | Wells Fargo Bank, N.A. | Lead generation using virtual tours |
| US10055028B2 (en) | 2016-12-05 | 2018-08-21 | Google Llc | End of session detection in an augmented and/or virtual reality environment |
| US10147243B2 (en) | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
| JP2018097141A (ja) | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | 頭部装着型表示装置、仮想物体表示システム |
| EP3336805A1 (en) | 2016-12-15 | 2018-06-20 | Thomson Licensing | Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment |
| JP2018101019A (ja) | 2016-12-19 | 2018-06-28 | セイコーエプソン株式会社 | 表示装置及び表示装置の制御方法 |
| US10474336B2 (en) | 2016-12-20 | 2019-11-12 | Adobe Inc. | Providing a user experience with virtual reality content and user-selected, real world objects |
| CN108885533B (zh) | 2016-12-21 | 2021-05-07 | 杰创科科技有限公司 | 组合虚拟现实和增强现实 |
| US11183189B2 (en) | 2016-12-22 | 2021-11-23 | Sony Corporation | Information processing apparatus and information processing method for controlling display of a user interface to indicate a state of recognition |
| KR20240056796A (ko) | 2016-12-23 | 2024-04-30 | 매직 립, 인코포레이티드 | 콘텐츠 캡처 디바이스에 대한 세팅들을 결정하기 위한 기술들 |
| JP6382928B2 (ja) | 2016-12-27 | 2018-08-29 | 株式会社コロプラ | 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置 |
| WO2018125428A1 (en) | 2016-12-29 | 2018-07-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
| US10621773B2 (en) | 2016-12-30 | 2020-04-14 | Google Llc | Rendering content in a 3D environment |
| US10410422B2 (en) | 2017-01-09 | 2019-09-10 | Samsung Electronics Co., Ltd. | System and method for augmented reality control |
| US20180210628A1 (en) | 2017-01-23 | 2018-07-26 | Snap Inc. | Three-dimensional interaction system |
| US9854324B1 (en) | 2017-01-30 | 2017-12-26 | Rovi Guides, Inc. | Systems and methods for automatically enabling subtitles based on detecting an accent |
| CN110603539B (zh) | 2017-02-07 | 2023-09-15 | 交互数字Vc控股公司 | 在虚拟现实中防止监视和保护隐私的系统和方法 |
| US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
| EP3582707B1 (en) | 2017-02-17 | 2025-08-06 | NZ Technologies Inc. | Methods and systems for touchless control of surgical environment |
| KR102391965B1 (ko) | 2017-02-23 | 2022-04-28 | 삼성전자주식회사 | 가상현실 서비스를 위한 화면 제어 방법 및 장치 |
| KR101891704B1 (ko) | 2017-02-28 | 2018-08-24 | 메디컬아이피 주식회사 | 3차원 의료영상 제어 방법 및 그 장치 |
| CN106990838B (zh) | 2017-03-16 | 2020-11-13 | 惠州Tcl移动通信有限公司 | 一种虚拟现实模式下锁定显示内容的方法及系统 |
| US10627900B2 (en) | 2017-03-23 | 2020-04-21 | Google Llc | Eye-signal augmented control |
| US10290152B2 (en) | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
| US20180302686A1 (en) | 2017-04-14 | 2018-10-18 | International Business Machines Corporation | Personalizing closed captions for video content |
| US10692287B2 (en) | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
| IL270002B2 (en) | 2017-04-19 | 2023-11-01 | Magic Leap Inc | Multimodal task execution and text editing for a wearable system |
| WO2018198910A1 (ja) | 2017-04-28 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
| JP7141410B2 (ja) | 2017-05-01 | 2022-09-22 | マジック リープ, インコーポレイテッド | 空間的3d環境に対するコンテンツのマッチング |
| US10210664B1 (en) | 2017-05-03 | 2019-02-19 | A9.Com, Inc. | Capture and apply light information for augmented reality |
| US10417827B2 (en) | 2017-05-04 | 2019-09-17 | Microsoft Technology Licensing, Llc | Syndication of direct and indirect interactions in a computer-mediated reality environment |
| US10339714B2 (en) | 2017-05-09 | 2019-07-02 | A9.Com, Inc. | Markerless image analysis for augmented reality |
| JP6969149B2 (ja) | 2017-05-10 | 2021-11-24 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、及び三次元形状データの編集プログラム |
| JP6888411B2 (ja) | 2017-05-15 | 2021-06-16 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、及び三次元形状データの編集プログラム |
| EP3625658B1 (en) | 2017-05-19 | 2024-10-09 | Magic Leap, Inc. | Keyboards for virtual, augmented, and mixed reality display systems |
| US10228760B1 (en) | 2017-05-23 | 2019-03-12 | Visionary Vr, Inc. | System and method for generating a virtual reality scene based on individual asynchronous motion capture recordings |
| JP6342038B1 (ja) | 2017-05-26 | 2018-06-13 | 株式会社コロプラ | 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法 |
| KR102799682B1 (ko) | 2017-05-31 | 2025-04-23 | 매직 립, 인코포레이티드 | 눈 추적 교정 기술들 |
| JP6257826B1 (ja) | 2017-05-31 | 2018-01-10 | 株式会社コロプラ | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 |
| US10747386B2 (en) * | 2017-06-01 | 2020-08-18 | Samsung Electronics Co., Ltd. | Systems and methods for window control in virtual reality environment |
| CN116465428A (zh) | 2017-06-02 | 2023-07-21 | 苹果公司 | 提供轻度导航引导 |
| US10433108B2 (en) | 2017-06-02 | 2019-10-01 | Apple Inc. | Proactive downloading of maps |
| WO2018222248A1 (en) | 2017-06-02 | 2018-12-06 | Apple Inc. | Method and device for detecting planes and/or quadtrees for use as a virtual substrate |
| JP6845322B2 (ja) | 2017-06-06 | 2021-03-17 | マクセル株式会社 | 複合現実表示システム |
| US10304251B2 (en) | 2017-06-15 | 2019-05-28 | Microsoft Technology Licensing, Llc | Virtually representing spaces and objects while maintaining physical properties |
| US11262885B1 (en) | 2017-06-27 | 2022-03-01 | William Martin Burckel | Multi-gesture context chaining |
| US20190005055A1 (en) | 2017-06-30 | 2019-01-03 | Microsoft Technology Licensing, Llc | Offline geographic searches |
| CN110998566B (zh) | 2017-06-30 | 2024-04-12 | 交互数字Vc控股公司 | 基于眼睛跟踪和生理测量而生成和显示360度视频的方法和装置 |
| US10303427B2 (en) | 2017-07-11 | 2019-05-28 | Sony Corporation | Moving audio from center speaker to peripheral speaker of display device for macular degeneration accessibility |
| US10803663B2 (en) | 2017-08-02 | 2020-10-13 | Google Llc | Depth sensor aided estimation of virtual reality environment boundaries |
| WO2019031005A1 (ja) | 2017-08-08 | 2019-02-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US10782793B2 (en) | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
| DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
| US10409444B2 (en) | 2017-09-01 | 2019-09-10 | Microsoft Technology Licensing, Llc | Head-mounted display input translation |
| US10803716B2 (en) | 2017-09-08 | 2020-10-13 | Hellofactory Co., Ltd. | System and method of communicating devices using virtual buttons |
| US20190088149A1 (en) | 2017-09-19 | 2019-03-21 | Money Media Inc. | Verifying viewing of content by user |
| US11989835B2 (en) | 2017-09-26 | 2024-05-21 | Toyota Research Institute, Inc. | Augmented reality overlay |
| US10698497B2 (en) | 2017-09-29 | 2020-06-30 | Apple Inc. | Vein scanning device for automatic gesture and finger recognition |
| KR102340665B1 (ko) | 2017-09-29 | 2021-12-16 | 애플 인크. | 프라이버시 스크린 |
| CN111448542B (zh) | 2017-09-29 | 2023-07-11 | 苹果公司 | 显示应用程序 |
| US10777007B2 (en) | 2017-09-29 | 2020-09-15 | Apple Inc. | Cooperative augmented reality map interface |
| KR20220100102A (ko) | 2017-09-29 | 2022-07-14 | 애플 인크. | 시선-기반 사용자 상호작용 |
| US11861136B1 (en) | 2017-09-29 | 2024-01-02 | Apple Inc. | Systems, methods, and graphical user interfaces for interacting with virtual reality environments |
| US11079995B1 (en) | 2017-09-30 | 2021-08-03 | Apple Inc. | User interfaces for devices with multiple displays |
| US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
| US10559126B2 (en) | 2017-10-13 | 2020-02-11 | Samsung Electronics Co., Ltd. | 6DoF media consumption architecture using 2D video decoder |
| KR102138412B1 (ko) * | 2017-10-20 | 2020-07-28 | 한국과학기술원 | 증강현실 및 가상현실 내 투영기하를 사용한 3d 윈도우 관리 기법 |
| KR102668725B1 (ko) | 2017-10-27 | 2024-05-29 | 매직 립, 인코포레이티드 | 증강 현실 시스템들에 대한 가상 레티클 |
| US20190130633A1 (en) | 2017-11-01 | 2019-05-02 | Tsunami VR, Inc. | Systems and methods for using a cutting volume to determine how to display portions of a virtual object to a user |
| US10430019B2 (en) * | 2017-11-08 | 2019-10-01 | Disney Enterprises, Inc. | Cylindrical interface for augmented reality / virtual reality devices |
| US10732826B2 (en) | 2017-11-22 | 2020-08-04 | Microsoft Technology Licensing, Llc | Dynamic device interaction adaptation based on user engagement |
| US10580207B2 (en) | 2017-11-24 | 2020-03-03 | Frederic Bavastro | Augmented reality method and system for design |
| US11164380B2 (en) | 2017-12-05 | 2021-11-02 | Samsung Electronics Co., Ltd. | System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality |
| US10553031B2 (en) | 2017-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Digital project file presentation |
| GB2569139B (en) | 2017-12-06 | 2023-02-01 | Goggle Collective Ltd | Three-dimensional drawing tool and method |
| US10885701B1 (en) | 2017-12-08 | 2021-01-05 | Amazon Technologies, Inc. | Light simulation for augmented reality applications |
| DE102018130770A1 (de) | 2017-12-13 | 2019-06-13 | Apple Inc. | Stereoskopische Wiedergabe von virtuellen 3D-Objekten |
| US20190188918A1 (en) | 2017-12-14 | 2019-06-20 | Tsunami VR, Inc. | Systems and methods for user selection of virtual content for presentation to another user |
| EP3724855B1 (en) | 2017-12-14 | 2025-09-24 | Magic Leap, Inc. | Contextual-based rendering of virtual avatars |
| EP3503101A1 (en) | 2017-12-20 | 2019-06-26 | Nokia Technologies Oy | Object based user interface |
| US10026209B1 (en) | 2017-12-21 | 2018-07-17 | Capital One Services, Llc | Ground plane detection for placement of augmented reality objects |
| US11082463B2 (en) | 2017-12-22 | 2021-08-03 | Hillel Felman | Systems and methods for sharing personal information |
| US10685225B2 (en) | 2017-12-29 | 2020-06-16 | Wipro Limited | Method and system for detecting text in digital engineering drawings |
| WO2019135634A1 (en) | 2018-01-05 | 2019-07-11 | Samsung Electronics Co., Ltd. | Method and apparatus to navigate a virtual content displayed by a virtual reality (vr) device |
| CA3125730C (en) | 2018-01-05 | 2023-10-24 | Aquifi, Inc. | Systems and methods for volumetric sizing |
| US10739861B2 (en) | 2018-01-10 | 2020-08-11 | Facebook Technologies, Llc | Long distance interaction with artificial reality objects using a near eye display interface |
| JP2019125215A (ja) | 2018-01-18 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
| JP7040041B2 (ja) | 2018-01-23 | 2022-03-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
| DK201870349A1 (en) | 2018-01-24 | 2019-10-23 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
| WO2019147699A2 (en) | 2018-01-24 | 2019-08-01 | Apple, Inc. | Devices, methods, and graphical user interfaces for system-wide behavior for 3d models |
| US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
| US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
| US10523912B2 (en) | 2018-02-01 | 2019-12-31 | Microsoft Technology Licensing, Llc | Displaying modified stereo visual content |
| WO2019152619A1 (en) | 2018-02-03 | 2019-08-08 | The Johns Hopkins University | Blink-based calibration of an optical see-through head-mounted display |
| US20190251884A1 (en) | 2018-02-14 | 2019-08-15 | Microsoft Technology Licensing, Llc | Shared content display with concurrent views |
| WO2019165055A1 (en) | 2018-02-22 | 2019-08-29 | Magic Leap, Inc. | Browser for mixed reality systems |
| US20210102820A1 (en) | 2018-02-23 | 2021-04-08 | Google Llc | Transitioning between map view and augmented reality view |
| US11017575B2 (en) | 2018-02-26 | 2021-05-25 | Reald Spark, Llc | Method and system for generating data to provide an animated visual representation |
| WO2019172678A1 (en) | 2018-03-07 | 2019-09-12 | Samsung Electronics Co., Ltd. | System and method for augmented reality interaction |
| US11145096B2 (en) * | 2018-03-07 | 2021-10-12 | Samsung Electronics Co., Ltd. | System and method for augmented reality interaction |
| US20190277651A1 (en) | 2018-03-08 | 2019-09-12 | Salesforce.Com, Inc. | Techniques and architectures for proactively providing offline maps |
| US11093100B2 (en) | 2018-03-08 | 2021-08-17 | Microsoft Technology Licensing, Llc | Virtual reality device with varying interactive modes for document viewing and editing |
| US10922744B1 (en) | 2018-03-20 | 2021-02-16 | A9.Com, Inc. | Object identification in social media post |
| CN108519818A (zh) | 2018-03-29 | 2018-09-11 | 北京小米移动软件有限公司 | 信息提示方法及装置 |
| CN114935974B (zh) | 2018-03-30 | 2025-04-25 | 托比股份公司 | 用于确定注视关注目标的对物体映射的多线迹注视 |
| JP7040236B2 (ja) | 2018-04-05 | 2022-03-23 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、三次元造形装置、三次元造形システム、及び三次元形状データの編集プログラム |
| US10523921B2 (en) | 2018-04-06 | 2019-12-31 | Zspace, Inc. | Replacing 2D images with 3D images |
| US10908769B2 (en) | 2018-04-09 | 2021-02-02 | Spatial Systems Inc. | Augmented reality computing environments—immersive media browser |
| US10831265B2 (en) | 2018-04-20 | 2020-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for gaze-informed target manipulation |
| KR20200135496A (ko) | 2018-04-24 | 2020-12-02 | 애플 인크. | 3d 모델들의 다중-디바이스 편집 |
| US20190325654A1 (en) | 2018-04-24 | 2019-10-24 | Bae Systems Information And Electronic Systems Integration Inc. | Augmented reality common operating picture |
| CN108563335B (zh) | 2018-04-24 | 2021-03-23 | 网易(杭州)网络有限公司 | 虚拟现实交互方法、装置、存储介质及电子设备 |
| US11182964B2 (en) | 2018-04-30 | 2021-11-23 | Apple Inc. | Tangibility visualization of virtual objects within a computer-generated reality environment |
| US11380067B2 (en) | 2018-04-30 | 2022-07-05 | Campfire 3D, Inc. | System and method for presenting virtual content in an interactive space |
| US10504290B2 (en) * | 2018-05-04 | 2019-12-10 | Facebook Technologies, Llc | User interface security in a virtual reality environment |
| US10650610B2 (en) | 2018-05-04 | 2020-05-12 | Microsoft Technology Licensing, Llc | Seamless switching between an authoring view and a consumption view of a three-dimensional scene |
| US10890968B2 (en) | 2018-05-07 | 2021-01-12 | Apple Inc. | Electronic device with foveated display and gaze prediction |
| WO2019217163A1 (en) | 2018-05-08 | 2019-11-14 | Zermatt Technologies Llc | Techniques for switching between immersion levels |
| US11595637B2 (en) | 2018-05-14 | 2023-02-28 | Dell Products, L.P. | Systems and methods for using peripheral vision in virtual, augmented, and mixed reality (xR) applications |
| KR102707428B1 (ko) | 2018-05-15 | 2024-09-20 | 삼성전자주식회사 | Vr/ar 콘텐트를 제공하는 전자 장치 |
| EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM |
| US20190361521A1 (en) | 2018-05-22 | 2019-11-28 | Microsoft Technology Licensing, Llc | Accelerated gaze-supported manual cursor control |
| US11169613B2 (en) | 2018-05-30 | 2021-11-09 | Atheer, Inc. | Augmented reality task flow optimization systems |
| US11748953B2 (en) | 2018-06-01 | 2023-09-05 | Apple Inc. | Method and devices for switching between viewing vectors in a synthesized reality setting |
| CN110554770A (zh) | 2018-06-01 | 2019-12-10 | 苹果公司 | 静态遮挡物 |
| US10782651B2 (en) | 2018-06-03 | 2020-09-22 | Apple Inc. | Image capture to provide advanced features for configuration of a wearable device |
| CN112219205B (zh) | 2018-06-05 | 2022-10-25 | 奇跃公司 | 内容到空间3d环境的匹配 |
| US10712900B2 (en) | 2018-06-06 | 2020-07-14 | Sony Interactive Entertainment Inc. | VR comfort zones used to inform an In-VR GUI editor |
| US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
| US11406896B1 (en) | 2018-06-08 | 2022-08-09 | Meta Platforms, Inc. | Augmented reality storytelling: audience-side |
| US10579153B2 (en) | 2018-06-14 | 2020-03-03 | Dell Products, L.P. | One-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications |
| CN110620946B (zh) | 2018-06-20 | 2022-03-18 | 阿里巴巴(中国)有限公司 | 字幕显示方法及装置 |
| US11733824B2 (en) | 2018-06-22 | 2023-08-22 | Apple Inc. | User interaction interpreter |
| CN110634189B (zh) | 2018-06-25 | 2023-11-07 | 苹果公司 | 用于在沉浸式混合现实体验期间用户警报的系统和方法 |
| WO2020003361A1 (ja) | 2018-06-25 | 2020-01-02 | マクセル株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ連携システム及びその方法 |
| JP7213899B2 (ja) | 2018-06-27 | 2023-01-27 | センティエーアール インコーポレイテッド | 視線に基づく拡張現実環境のためのインターフェース |
| US10712901B2 (en) | 2018-06-27 | 2020-07-14 | Facebook Technologies, Llc | Gesture-based content sharing in artificial reality environments |
| US10783712B2 (en) | 2018-06-27 | 2020-09-22 | Facebook Technologies, Llc | Visual flairs for emphasizing gestures in artificial-reality environments |
| CN110673718B (zh) | 2018-07-02 | 2021-10-29 | 苹果公司 | 用于显示系统的基于聚焦的调试和检查 |
| US10890967B2 (en) | 2018-07-09 | 2021-01-12 | Microsoft Technology Licensing, Llc | Systems and methods for using eye gaze to bend and snap targeting rays for remote interaction |
| US10970929B2 (en) | 2018-07-16 | 2021-04-06 | Occipital, Inc. | Boundary detection using vision-based feature mapping |
| US10607083B2 (en) | 2018-07-19 | 2020-03-31 | Microsoft Technology Licensing, Llc | Selectively alerting users of real objects in a virtual environment |
| US10692299B2 (en) | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
| US10841174B1 (en) | 2018-08-06 | 2020-11-17 | Apple Inc. | Electronic device with intuitive control interface |
| US10916220B2 (en) | 2018-08-07 | 2021-02-09 | Apple Inc. | Detection and display of mixed 2D/3D content |
| WO2020033606A1 (en) | 2018-08-07 | 2020-02-13 | Levi Strauss & Co. | Laser finishing design tool |
| US10573067B1 (en) | 2018-08-22 | 2020-02-25 | Sony Corporation | Digital 3D model rendering based on actual lighting conditions in a real environment |
| WO2020039933A1 (ja) | 2018-08-24 | 2020-02-27 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| US11803293B2 (en) | 2018-08-30 | 2023-10-31 | Apple Inc. | Merging virtual object kits |
| GB2576905B (en) | 2018-09-06 | 2021-10-27 | Sony Interactive Entertainment Inc | Gaze input System and method |
| US10902678B2 (en) | 2018-09-06 | 2021-01-26 | Curious Company, LLC | Display of hidden information |
| KR102582863B1 (ko) | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
| US10699488B1 (en) | 2018-09-07 | 2020-06-30 | Facebook Technologies, Llc | System and method for generating realistic augmented reality content |
| US10855978B2 (en) | 2018-09-14 | 2020-12-01 | The Toronto-Dominion Bank | System and method for receiving user input in virtual/augmented reality |
| CN116105695A (zh) | 2018-09-19 | 2023-05-12 | 阿泰克欧洲公司 | 具有数据收集反馈的三维扫描器 |
| US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
| US11416069B2 (en) | 2018-09-21 | 2022-08-16 | Immersivetouch, Inc. | Device and system for volume visualization and interaction in a virtual reality or augmented reality environment |
| CN113168737B (zh) | 2018-09-24 | 2024-11-22 | 奇跃公司 | 用于三维模型共享的方法和系统 |
| US10638201B2 (en) | 2018-09-26 | 2020-04-28 | Rovi Guides, Inc. | Systems and methods for automatically determining language settings for a media asset |
| EP3655928B1 (en) | 2018-09-26 | 2021-02-24 | Google LLC | Soft-occlusion for computer graphics rendering |
| US10942577B2 (en) | 2018-09-26 | 2021-03-09 | Rockwell Automation Technologies, Inc. | Augmented reality interaction techniques |
| EP3859687A4 (en) | 2018-09-28 | 2021-11-24 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
| US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
| ES2985209T3 (es) | 2018-09-30 | 2024-11-04 | Huawei Tech Co Ltd | Método de transmisión de datos y dispositivo electrónico |
| US10816994B2 (en) | 2018-10-10 | 2020-10-27 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
| US10786033B2 (en) | 2018-10-29 | 2020-09-29 | Robotarmy Corp. | Racing helmet with visual and audible information exchange |
| US11181862B2 (en) | 2018-10-31 | 2021-11-23 | Doubleme, Inc. | Real-world object holographic transport and communication room system |
| US10929099B2 (en) | 2018-11-02 | 2021-02-23 | Bose Corporation | Spatialized virtual personal assistant |
| US11900931B2 (en) | 2018-11-20 | 2024-02-13 | Sony Group Corporation | Information processing apparatus and information processing method |
| JP7293620B2 (ja) | 2018-11-26 | 2023-06-20 | 株式会社デンソー | ジェスチャ検出装置、およびジェスチャ検出方法 |
| JP2020086939A (ja) | 2018-11-26 | 2020-06-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| CN109491508B (zh) | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
| US10776933B2 (en) | 2018-12-06 | 2020-09-15 | Microsoft Technology Licensing, Llc | Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects |
| JP7194752B2 (ja) | 2018-12-13 | 2022-12-22 | マクセル株式会社 | 表示端末、表示制御システムおよび表示制御方法 |
| US11604080B2 (en) | 2019-01-05 | 2023-03-14 | Telenav, Inc. | Navigation system with an adaptive map pre-caching mechanism and method of operation thereof |
| WO2020146249A1 (en) | 2019-01-07 | 2020-07-16 | Butterfly Network, Inc. | Methods and apparatuses for tele-medicine |
| US10901495B2 (en) | 2019-01-10 | 2021-01-26 | Microsofttechnology Licensing, Llc | Techniques for multi-finger typing in mixed-reality |
| US11107265B2 (en) | 2019-01-11 | 2021-08-31 | Microsoft Technology Licensing, Llc | Holographic palm raycasting for targeting virtual objects |
| US11320957B2 (en) | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Near interaction mode for far virtual object |
| US11294472B2 (en) | 2019-01-11 | 2022-04-05 | Microsoft Technology Licensing, Llc | Augmented two-stage hand gesture input |
| US10740960B2 (en) | 2019-01-11 | 2020-08-11 | Microsoft Technology Licensing, Llc | Virtual object placement for augmented reality |
| US11099634B2 (en) | 2019-01-25 | 2021-08-24 | Apple Inc. | Manipulation of virtual objects using a tracked physical object |
| DE102020101675B4 (de) | 2019-01-25 | 2025-08-28 | Apple Inc. | Manipulation von virtuellen objekten mittels eines verfolgten physischen objekts |
| US10708965B1 (en) | 2019-02-02 | 2020-07-07 | Roambee Corporation | Augmented reality based asset pairing and provisioning |
| US10782858B2 (en) | 2019-02-12 | 2020-09-22 | Lenovo (Singapore) Pte. Ltd. | Extended reality information for identified objects |
| US10866563B2 (en) | 2019-02-13 | 2020-12-15 | Microsoft Technology Licensing, Llc | Setting hologram trajectory via user input |
| KR102639725B1 (ko) | 2019-02-18 | 2024-02-23 | 삼성전자주식회사 | 애니메이티드 이미지를 제공하기 위한 전자 장치 및 그에 관한 방법 |
| KR102664705B1 (ko) | 2019-02-19 | 2024-05-09 | 삼성전자주식회사 | 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법 |
| US20220083145A1 (en) | 2019-02-19 | 2022-03-17 | Ntt Docomo, Inc. | Information display apparatus using line of sight and gestures |
| US11137875B2 (en) | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Mixed reality intelligent tether for dynamic attention direction |
| CN109656421B (zh) | 2019-03-05 | 2021-04-06 | 京东方科技集团股份有限公司 | 显示装置 |
| WO2020179027A1 (ja) | 2019-03-06 | 2020-09-10 | マクセル株式会社 | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム |
| US10964122B2 (en) | 2019-03-06 | 2021-03-30 | Microsofttechnology Licensing, Llc | Snapping virtual object to target surface |
| US10890992B2 (en) | 2019-03-14 | 2021-01-12 | Ebay Inc. | Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces |
| CN110193204B (zh) | 2019-03-14 | 2020-12-22 | 网易(杭州)网络有限公司 | 操作单位的编组方法、装置、存储介质及电子装置 |
| US12505609B2 (en) | 2019-03-19 | 2025-12-23 | Obsess, Inc. | Systems and methods to generate an interactive environment using a 3D model and cube maps |
| JP2019169154A (ja) | 2019-04-03 | 2019-10-03 | Kddi株式会社 | 端末装置およびその制御方法、並びにプログラム |
| WO2020210298A1 (en) | 2019-04-10 | 2020-10-15 | Ocelot Laboratories Llc | Techniques for participation in a shared setting |
| US11296906B2 (en) | 2019-04-10 | 2022-04-05 | Connections Design, LLC | Wireless programming device and methods for machine control systems |
| JP7391950B2 (ja) | 2019-04-23 | 2023-12-05 | マクセル株式会社 | ヘッドマウントディスプレイ装置 |
| US10698562B1 (en) | 2019-04-30 | 2020-06-30 | Daqri, Llc | Systems and methods for providing a user interface for an environment that includes virtual objects |
| US11100909B2 (en) | 2019-05-06 | 2021-08-24 | Apple Inc. | Devices, methods, and graphical user interfaces for adaptively providing audio outputs |
| US10852915B1 (en) | 2019-05-06 | 2020-12-01 | Apple Inc. | User interfaces for sharing content with other electronic devices |
| US10762716B1 (en) | 2019-05-06 | 2020-09-01 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying objects in 3D contexts |
| CN111913565B (zh) | 2019-05-07 | 2023-03-07 | 广东虚拟现实科技有限公司 | 虚拟内容控制方法、装置、系统、终端设备及存储介质 |
| US10499044B1 (en) | 2019-05-13 | 2019-12-03 | Athanos, Inc. | Movable display for viewing and interacting with computer generated environments |
| US11146909B1 (en) | 2019-05-20 | 2021-10-12 | Apple Inc. | Audio-based presence detection |
| US11297366B2 (en) | 2019-05-22 | 2022-04-05 | Google Llc | Methods, systems, and media for object grouping and manipulation in immersive environments |
| US11182044B2 (en) | 2019-06-01 | 2021-11-23 | Apple Inc. | Device, method, and graphical user interface for manipulating 3D objects on a 2D screen |
| US20200387214A1 (en) | 2019-06-07 | 2020-12-10 | Facebook Technologies, Llc | Artificial reality system having a self-haptic virtual keyboard |
| US10890983B2 (en) | 2019-06-07 | 2021-01-12 | Facebook Technologies, Llc | Artificial reality system having a sliding menu |
| US11334212B2 (en) | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
| WO2020256973A1 (en) | 2019-06-21 | 2020-12-24 | Magic Leap, Inc. | Secure authorization via modal window |
| US11055920B1 (en) | 2019-06-27 | 2021-07-06 | Facebook Technologies, Llc | Performing operations using a mirror in an artificial reality environment |
| JP6684952B1 (ja) | 2019-06-28 | 2020-04-22 | 株式会社ドワンゴ | コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法 |
| US12293019B2 (en) | 2019-06-28 | 2025-05-06 | Sony Group Corporation | Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device |
| US20210011556A1 (en) | 2019-07-09 | 2021-01-14 | Facebook Technologies, Llc | Virtual user interface using a peripheral device in artificial reality environments |
| US11023035B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual pinboard interaction using a peripheral device in artificial reality environments |
| CN113574849B (zh) | 2019-07-29 | 2025-01-14 | 苹果公司 | 用于后续对象检测的对象扫描 |
| KR20190098110A (ko) | 2019-08-02 | 2019-08-21 | 엘지전자 주식회사 | 지능형 프레젠테이션 방법 |
| CN110413171B (zh) | 2019-08-08 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 控制虚拟对象进行快捷操作的方法、装置、设备及介质 |
| CN112350981B (zh) | 2019-08-09 | 2022-07-29 | 华为技术有限公司 | 一种切换通信协议的方法、装置和系统 |
| US10852814B1 (en) | 2019-08-13 | 2020-12-01 | Microsoft Technology Licensing, Llc | Bounding virtual object |
| JP7459462B2 (ja) | 2019-08-15 | 2024-04-02 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、及び三次元形状データの編集プログラム |
| US11120611B2 (en) | 2019-08-22 | 2021-09-14 | Microsoft Technology Licensing, Llc | Using bounding volume representations for raytracing dynamic units within a virtual space |
| US20210055789A1 (en) | 2019-08-22 | 2021-02-25 | Dell Products, Lp | System to Share Input Devices Across Multiple Information Handling Systems and Method Therefor |
| US10956724B1 (en) | 2019-09-10 | 2021-03-23 | Facebook Technologies, Llc | Utilizing a hybrid model to recognize fast and precise hand inputs in a virtual environment |
| WO2021050317A1 (en) | 2019-09-10 | 2021-03-18 | Qsinx Management Llc | Gesture tracking system |
| AU2020346889B2 (en) | 2019-09-11 | 2025-12-18 | Savant Systems, Inc. | Three dimensional virtual room-based user interface for a home automation system |
| US11087562B2 (en) | 2019-09-19 | 2021-08-10 | Apical Limited | Methods of data processing for an augmented reality system by obtaining augmented reality data and object recognition data |
| US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
| US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
| KR102680342B1 (ko) | 2019-09-23 | 2024-07-03 | 삼성전자주식회사 | 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치 |
| US11842449B2 (en) | 2019-09-26 | 2023-12-12 | Apple Inc. | Presenting an environment based on user movement |
| CN113711175B (zh) | 2019-09-26 | 2024-09-03 | 苹果公司 | 控制显示器 |
| US11379033B2 (en) | 2019-09-26 | 2022-07-05 | Apple Inc. | Augmented devices |
| US11762457B1 (en) | 2019-09-27 | 2023-09-19 | Apple Inc. | User comfort monitoring and notification |
| US11340756B2 (en) | 2019-09-27 | 2022-05-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| CN116360601A (zh) | 2019-09-27 | 2023-06-30 | 苹果公司 | 用于提供扩展现实环境的电子设备、存储介质和方法 |
| CN113785260B (zh) | 2019-09-27 | 2025-02-11 | 苹果公司 | 控制虚拟对象 |
| US11288844B2 (en) | 2019-10-16 | 2022-03-29 | Google Llc | Compute amortization heuristics for lighting estimation for augmented reality |
| EP3967061A1 (en) | 2019-10-22 | 2022-03-16 | Google LLC | Spatial audio for wearable devices |
| US11494995B2 (en) | 2019-10-29 | 2022-11-08 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
| US11127373B2 (en) | 2019-10-30 | 2021-09-21 | Ford Global Technologies, Llc | Augmented reality wearable system for vehicle occupants |
| CN119309587A (zh) | 2019-11-14 | 2025-01-14 | 谷歌有限责任公司 | 离线地图数据的优先提供和检索 |
| KR102258285B1 (ko) | 2019-11-19 | 2021-05-31 | 데이터킹주식회사 | 가상건물 생성과 활용 방법 및 서버 |
| KR102862950B1 (ko) | 2019-11-25 | 2025-09-22 | 삼성전자 주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
| FR3104290B1 (fr) | 2019-12-05 | 2022-01-07 | Airbus Defence & Space Sas | Jumelles de visee de simulation, et systeme et procedes de simulation |
| JP7377088B2 (ja) | 2019-12-10 | 2023-11-09 | キヤノン株式会社 | 電子機器およびその制御方法、プログラム、並びに記憶媒体 |
| US11204678B1 (en) | 2019-12-11 | 2021-12-21 | Amazon Technologies, Inc. | User interfaces for object exploration in virtual reality environments |
| US11875013B2 (en) | 2019-12-23 | 2024-01-16 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments |
| KR20210083016A (ko) | 2019-12-26 | 2021-07-06 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
| US10936148B1 (en) | 2019-12-26 | 2021-03-02 | Sap Se | Touch interaction in augmented and virtual reality applications |
| KR102830396B1 (ko) | 2020-01-16 | 2025-07-07 | 삼성전자주식회사 | 모바일 디바이스 및 그 동작 방법 |
| US11922580B2 (en) | 2020-01-17 | 2024-03-05 | Apple Inc. | Floorplan generation based on room scanning |
| US11017611B1 (en) | 2020-01-27 | 2021-05-25 | Amazon Technologies, Inc. | Generation and modification of rooms in virtual reality environments |
| US11157086B2 (en) | 2020-01-28 | 2021-10-26 | Pison Technology, Inc. | Determining a geographical location based on human gestures |
| US11080879B1 (en) | 2020-02-03 | 2021-08-03 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
| US11983326B2 (en) | 2020-02-26 | 2024-05-14 | Magic Leap, Inc. | Hand gesture input for wearable system |
| US11200742B1 (en) | 2020-02-28 | 2021-12-14 | United Services Automobile Association (Usaa) | Augmented reality-based interactive customer support |
| KR20210110068A (ko) | 2020-02-28 | 2021-09-07 | 삼성전자주식회사 | 제스처 인식 기반의 영상 편집 방법 및 이를 지원하는 전자 장치 |
| CN115244494A (zh) | 2020-03-02 | 2022-10-25 | 苹果公司 | 用于处理扫描对象的系统和方法 |
| KR102346294B1 (ko) | 2020-03-03 | 2022-01-04 | 주식회사 브이터치 | 2차원 이미지로부터 사용자의 제스처를 추정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
| US20210279967A1 (en) | 2020-03-06 | 2021-09-09 | Apple Inc. | Object centric scanning |
| US11217020B2 (en) | 2020-03-16 | 2022-01-04 | Snap Inc. | 3D cutout image modification |
| US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
| US11112875B1 (en) | 2020-03-20 | 2021-09-07 | Huawei Technologies Co., Ltd. | Methods and systems for controlling a device using hand gestures in multi-user environment |
| US11237641B2 (en) | 2020-03-27 | 2022-02-01 | Lenovo (Singapore) Pte. Ltd. | Palm based object position adjustment |
| FR3109041A1 (fr) | 2020-04-01 | 2021-10-08 | Orange | Acquisition de droit temporaire par transmission d'onde radio en champ proche |
| US11348320B2 (en) | 2020-04-02 | 2022-05-31 | Samsung Electronics Company, Ltd. | Object identification utilizing paired electronic devices |
| JP7578711B2 (ja) | 2020-04-03 | 2024-11-06 | マジック リープ, インコーポレイテッド | 最適視線弁別のためのアバタカスタマイズ |
| KR102417257B1 (ko) | 2020-04-03 | 2022-07-06 | 주식회사 포시에스 | 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법 |
| US20220229534A1 (en) | 2020-04-08 | 2022-07-21 | Multinarity Ltd | Coordinating cursor movement between a physical surface and a virtual surface |
| CN111475573B (zh) | 2020-04-08 | 2023-02-28 | 腾讯科技(深圳)有限公司 | 数据同步方法、装置、电子设备及存储介质 |
| US11126850B1 (en) | 2020-04-09 | 2021-09-21 | Facebook Technologies, Llc | Systems and methods for detecting objects within the boundary of a defined space while in artificial reality |
| US12299340B2 (en) | 2020-04-17 | 2025-05-13 | Apple Inc. | Multi-device continuity for use with extended reality systems |
| CN115623257A (zh) | 2020-04-20 | 2023-01-17 | 华为技术有限公司 | 投屏显示方法、系统、终端设备和存储介质 |
| US11641460B1 (en) | 2020-04-27 | 2023-05-02 | Apple Inc. | Generating a volumetric representation of a capture region |
| US12014455B2 (en) | 2020-05-06 | 2024-06-18 | Magic Leap, Inc. | Audiovisual presence transitions in a collaborative reality environment |
| CN111580652B (zh) | 2020-05-06 | 2024-01-16 | Oppo广东移动通信有限公司 | 视频播放的控制方法、装置、增强现实设备及存储介质 |
| US11348325B2 (en) | 2020-05-06 | 2022-05-31 | Cds Visual, Inc. | Generating photorealistic viewable images using augmented reality techniques |
| US11508085B2 (en) | 2020-05-08 | 2022-11-22 | Varjo Technologies Oy | Display systems and methods for aligning different tracking means |
| US20210358294A1 (en) | 2020-05-15 | 2021-11-18 | Microsoft Technology Licensing, Llc | Holographic device control |
| US12072962B2 (en) | 2020-05-26 | 2024-08-27 | Sony Semiconductor Solutions Corporation | Method, computer program and system for authenticating a user and respective methods and systems for setting up an authentication |
| EP4160530B1 (en) | 2020-06-01 | 2025-03-19 | National Institute Of Advanced Industrial Science and Technology | Gesture recognition device, system, and program for same |
| US20210397316A1 (en) | 2020-06-22 | 2021-12-23 | Viktor Kaptelinin | Inertial scrolling method and apparatus |
| US11989965B2 (en) | 2020-06-24 | 2024-05-21 | AR & NS Investment, LLC | Cross-correlation system and method for spatial detection using a network of RF repeaters |
| US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
| US11360310B2 (en) | 2020-07-09 | 2022-06-14 | Trimble Inc. | Augmented reality technology as a controller for a total station |
| US11233973B1 (en) | 2020-07-23 | 2022-01-25 | International Business Machines Corporation | Mixed-reality teleconferencing across multiple locations |
| US11494153B2 (en) | 2020-07-27 | 2022-11-08 | Shopify Inc. | Systems and methods for modifying multi-user augmented reality |
| US11908159B2 (en) | 2020-07-27 | 2024-02-20 | Shopify Inc. | Systems and methods for representing user interactions in multi-user augmented reality |
| CN112068757B (zh) | 2020-08-03 | 2022-04-08 | 北京理工大学 | 一种用于虚拟现实的目标选择方法及系统 |
| US11899845B2 (en) | 2020-08-04 | 2024-02-13 | Samsung Electronics Co., Ltd. | Electronic device for recognizing gesture and method for operating the same |
| US12034785B2 (en) | 2020-08-28 | 2024-07-09 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
| WO2022046340A1 (en) | 2020-08-31 | 2022-03-03 | Sterling Labs Llc | Object engagement based on finger manipulation data and untethered inputs |
| US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
| WO2022055821A1 (en) | 2020-09-11 | 2022-03-17 | Sterling Labs Llc | Method of displaying user interfaces in an environment and corresponding electronic device and computer readable storage medium |
| CN116719413A (zh) | 2020-09-11 | 2023-09-08 | 苹果公司 | 用于操纵环境中的对象的方法 |
| JP2023541275A (ja) | 2020-09-11 | 2023-09-29 | アップル インコーポレイテッド | 環境内のオブジェクトと相互作用する方法 |
| CN116457883A (zh) | 2020-09-14 | 2023-07-18 | 苹果公司 | 3d环境中的内容回放和修改 |
| WO2022056492A2 (en) | 2020-09-14 | 2022-03-17 | NWR Corporation | Systems and methods for teleconferencing virtual environments |
| US11599239B2 (en) | 2020-09-15 | 2023-03-07 | Apple Inc. | Devices, methods, and graphical user interfaces for providing computer-generated experiences |
| US12032803B2 (en) | 2020-09-23 | 2024-07-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| JP6976395B1 (ja) | 2020-09-24 | 2021-12-08 | Kddi株式会社 | 配信装置、配信システム、配信方法及び配信プログラム |
| US11567625B2 (en) | 2020-09-24 | 2023-01-31 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US11615596B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US12236546B1 (en) | 2020-09-24 | 2025-02-25 | Apple Inc. | Object manipulations with a pointing device |
| WO2022066399A1 (en) | 2020-09-24 | 2022-03-31 | Sterling Labs Llc | Diffused light rendering of a virtual light source in a 3d environment |
| EP4218203B1 (en) | 2020-09-24 | 2024-10-16 | Apple Inc. | Recommended avatar placement in an environmental representation of a multi-user communication session |
| JP7624510B2 (ja) | 2020-09-25 | 2025-01-30 | アップル インコーポレイテッド | 環境内のオブジェクトを操作するための方法 |
| AU2021349382B2 (en) | 2020-09-25 | 2023-06-29 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| US11562528B2 (en) | 2020-09-25 | 2023-01-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| JP7784422B2 (ja) | 2020-09-25 | 2025-12-11 | アップル インコーポレイテッド | ユーザインタフェースをナビゲートする方法 |
| CN116719452A (zh) | 2020-09-25 | 2023-09-08 | 苹果公司 | 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法 |
| US11615597B2 (en) | 2020-09-25 | 2023-03-28 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US11175791B1 (en) | 2020-09-29 | 2021-11-16 | International Business Machines Corporation | Augmented reality system for control boundary modification |
| US11538225B2 (en) | 2020-09-30 | 2022-12-27 | Snap Inc. | Augmented reality content generator for suggesting activities at a destination geolocation |
| US12399568B2 (en) | 2020-09-30 | 2025-08-26 | Qualcomm Incorporated | Dynamic configuration of user interface layouts and inputs for extended reality systems |
| US12472032B2 (en) | 2020-10-02 | 2025-11-18 | Cilag Gmbh International | Monitoring of user visual gaze to control which display system displays the primary information |
| US11589008B2 (en) | 2020-10-19 | 2023-02-21 | Sophya Inc. | Systems and methods for triggering livestream communications between users based on motions of avatars within virtual environments that correspond to users |
| US11095857B1 (en) | 2020-10-20 | 2021-08-17 | Katmai Tech Holdings LLC | Presenter mode in a three-dimensional virtual conference space, and applications thereof |
| US11568620B2 (en) | 2020-10-28 | 2023-01-31 | Shopify Inc. | Augmented reality-assisted methods and apparatus for assessing fit of physical objects in three-dimensional bounded spaces |
| WO2022098710A1 (en) | 2020-11-03 | 2022-05-12 | Light Wand LLC | Systems and methods for controlling secondary devices using mixed, virtual or augmented reality |
| US11615586B2 (en) | 2020-11-06 | 2023-03-28 | Adobe Inc. | Modifying light sources within three-dimensional environments by utilizing control models based on three-dimensional interaction primitives |
| JP7257370B2 (ja) | 2020-11-18 | 2023-04-13 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
| US11249556B1 (en) | 2020-11-30 | 2022-02-15 | Microsoft Technology Licensing, Llc | Single-handed microgesture inputs |
| US11928263B2 (en) | 2020-12-07 | 2024-03-12 | Samsung Electronics Co., Ltd. | Electronic device for processing user input and method thereof |
| US11630509B2 (en) | 2020-12-11 | 2023-04-18 | Microsoft Technology Licensing, Llc | Determining user intent based on attention values |
| US11232643B1 (en) | 2020-12-22 | 2022-01-25 | Facebook Technologies, Llc | Collapsing of 3D objects to 2D images in an artificial reality environment |
| US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
| US20220207846A1 (en) | 2020-12-30 | 2022-06-30 | Propsee LLC | System and Method to Process and Display Information Related to Real Estate by Developing and Presenting a Photogrammetric Reality Mesh |
| US11402634B2 (en) | 2020-12-30 | 2022-08-02 | Facebook Technologies, Llc. | Hand-locked rendering of virtual objects in artificial reality |
| KR102728647B1 (ko) | 2020-12-31 | 2024-11-13 | 스냅 인코포레이티드 | 안경류 디바이스 상에서의 증강 현실 콘텐츠의 기록 |
| CN116888571A (zh) | 2020-12-31 | 2023-10-13 | 苹果公司 | 在环境中操纵用户界面的方法 |
| WO2022146889A1 (en) | 2020-12-31 | 2022-07-07 | Sterling Labs Llc | Method of displaying products in a virtual environment |
| CN116670627A (zh) | 2020-12-31 | 2023-08-29 | 苹果公司 | 对环境中的用户界面进行分组的方法 |
| WO2022147146A1 (en) | 2021-01-04 | 2022-07-07 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US11954242B2 (en) | 2021-01-04 | 2024-04-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US20220221976A1 (en) | 2021-01-13 | 2022-07-14 | A9.Com, Inc. | Movement of virtual objects with respect to virtual vertical surfaces |
| US11307653B1 (en) | 2021-03-05 | 2022-04-19 | MediVis, Inc. | User input and interface design in augmented reality for use in surgical settings |
| WO2022153788A1 (ja) | 2021-01-18 | 2022-07-21 | 古野電気株式会社 | Ar操船システム、及びar操船方法 |
| JP7674494B2 (ja) | 2021-01-20 | 2025-05-09 | アップル インコーポレイテッド | 環境内のオブジェクトと相互作用するための方法 |
| WO2022164644A1 (en) | 2021-01-26 | 2022-08-04 | Sterling Labs Llc | Displaying a contextualized widget |
| US12493353B2 (en) | 2021-01-26 | 2025-12-09 | Beijing Boe Technology Development Co., Ltd. | Control method, electronic device, and storage medium |
| WO2022164881A1 (en) | 2021-01-27 | 2022-08-04 | Meta Platforms Technologies, Llc | Systems and methods for predicting an intent to interact |
| CN114911398A (zh) * | 2021-01-29 | 2022-08-16 | 伊姆西Ip控股有限责任公司 | 显示图形界面方法、电子设备和计算机程序产品 |
| EP4295314A4 (en) | 2021-02-08 | 2025-04-16 | Sightful Computers Ltd | EXTENDED REALITY CONTENT SHARING |
| EP4288950A4 (en) | 2021-02-08 | 2024-12-25 | Sightful Computers Ltd | USER INTERACTIONS IN EXTENDED REALITY |
| US11402964B1 (en) | 2021-02-08 | 2022-08-02 | Facebook Technologies, Llc | Integrating artificial reality and other computing devices |
| US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
| US11556169B2 (en) | 2021-02-11 | 2023-01-17 | Meta Platforms Technologies, Llc | Adaptable personal user interfaces in cross-application virtual reality settings |
| US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
| JP7580302B2 (ja) | 2021-03-01 | 2024-11-11 | 本田技研工業株式会社 | 処理システム、および処理方法 |
| WO2022192040A1 (en) | 2021-03-08 | 2022-09-15 | Dathomir Laboratories Llc | Three-dimensional programming environment |
| EP4304490A4 (en) | 2021-03-10 | 2025-04-09 | Onpoint Medical, Inc. | Augmented Reality Guidance for Imaging Systems and Robotic Surgery |
| US12244782B2 (en) | 2021-03-11 | 2025-03-04 | Quintar, Inc. | Augmented reality system for remote presentation for viewing an event |
| US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
| US20230260240A1 (en) | 2021-03-11 | 2023-08-17 | Quintar, Inc. | Alignment of 3d graphics extending beyond frame in augmented reality system with remote presentation |
| US11657578B2 (en) | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
| US12028507B2 (en) | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
| US12003806B2 (en) | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
| US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
| US11729551B2 (en) | 2021-03-19 | 2023-08-15 | Meta Platforms Technologies, Llc | Systems and methods for ultra-wideband applications |
| CN118519521A (zh) | 2021-03-22 | 2024-08-20 | 苹果公司 | 用于地图的设备、方法和图形用户界面 |
| US11523063B2 (en) | 2021-03-25 | 2022-12-06 | Microsoft Technology Licensing, Llc | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface |
| US11343420B1 (en) | 2021-03-30 | 2022-05-24 | Tectus Corporation | Systems and methods for eye-based external camera selection and control |
| JP7575571B2 (ja) | 2021-03-31 | 2024-10-29 | マクセル株式会社 | 情報表示装置および方法 |
| CN112927341B (zh) | 2021-04-02 | 2025-01-10 | 腾讯科技(深圳)有限公司 | 光照渲染方法、装置、计算机设备和存储介质 |
| EP4236351B1 (en) | 2021-04-13 | 2025-12-03 | Samsung Electronics Co., Ltd. | Wearable electronic device for controlling noise cancellation of external wearable electronic device, and method for operating same |
| JP7713533B2 (ja) | 2021-04-13 | 2025-07-25 | アップル インコーポレイテッド | 環境内で没入型体験を提供するための方法 |
| US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
| US12401780B2 (en) | 2021-04-19 | 2025-08-26 | Vuer Llc | System and method for exploring immersive content and immersive advertisements on television |
| CN117242497A (zh) | 2021-05-05 | 2023-12-15 | 苹果公司 | 环境共享 |
| JP2022175629A (ja) | 2021-05-14 | 2022-11-25 | キヤノン株式会社 | 情報端末システム、情報端末システムの制御方法及びプログラム |
| US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
| US12449961B2 (en) | 2021-05-18 | 2025-10-21 | Apple Inc. | Adaptive video conference user interfaces |
| US11676348B2 (en) | 2021-06-02 | 2023-06-13 | Meta Platforms Technologies, Llc | Dynamic mixed reality content in virtual reality |
| US20220197403A1 (en) | 2021-06-10 | 2022-06-23 | Facebook Technologies, Llc | Artificial Reality Spatial Interactions |
| US20220165013A1 (en) | 2021-06-18 | 2022-05-26 | Facebook Technologies, Llc | Artificial Reality Communications |
| US11743215B1 (en) | 2021-06-28 | 2023-08-29 | Meta Platforms Technologies, Llc | Artificial reality messaging with destination selection |
| US12141914B2 (en) | 2021-06-29 | 2024-11-12 | Apple Inc. | Techniques for manipulating computer graphical light sources |
| US12141423B2 (en) | 2021-06-29 | 2024-11-12 | Apple Inc. | Techniques for manipulating computer graphical objects |
| US20230007335A1 (en) | 2021-06-30 | 2023-01-05 | Rovi Guides, Inc. | Systems and methods of presenting video overlays |
| US11868523B2 (en) | 2021-07-01 | 2024-01-09 | Google Llc | Eye gaze classification |
| US12148113B2 (en) | 2021-07-26 | 2024-11-19 | Fujifilm Business Innovation Corp. | Information processing system and non-transitory computer readable medium |
| US12242706B2 (en) | 2021-07-28 | 2025-03-04 | Apple Inc. | Devices, methods and graphical user interfaces for three-dimensional preview of objects |
| US12236515B2 (en) | 2021-07-28 | 2025-02-25 | Apple Inc. | System and method for interactive three- dimensional preview |
| US11902766B2 (en) | 2021-07-30 | 2024-02-13 | Verizon Patent And Licensing Inc. | Independent control of avatar location and voice origination location within a virtual collaboration space |
| KR20230022056A (ko) | 2021-08-06 | 2023-02-14 | 삼성전자주식회사 | 디스플레이 장치 및 그 동작 방법 |
| US20230069764A1 (en) | 2021-08-24 | 2023-03-02 | Meta Platforms Technologies, Llc | Systems and methods for using natural gaze dynamics to detect input recognition errors |
| EP4377772A1 (en) | 2021-08-27 | 2024-06-05 | Apple Inc. | Displaying and manipulating user interface elements |
| EP4392853A1 (en) | 2021-08-27 | 2024-07-03 | Apple Inc. | System and method of augmented representation of an electronic device |
| US11756272B2 (en) | 2021-08-27 | 2023-09-12 | LabLightAR, Inc. | Somatic and somatosensory guidance in virtual and augmented reality environments |
| US11950040B2 (en) | 2021-09-09 | 2024-04-02 | Apple Inc. | Volume control of ear devices |
| CN117918024A (zh) | 2021-09-10 | 2024-04-23 | 苹果公司 | 环境捕捉与渲染 |
| CN117980866A (zh) | 2021-09-20 | 2024-05-03 | 苹果公司 | 基于情境提供方向感知指示器 |
| US12124674B2 (en) | 2021-09-22 | 2024-10-22 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US12124673B2 (en) | 2021-09-23 | 2024-10-22 | Apple Inc. | Devices, methods, and graphical user interfaces for content applications |
| CN118159935A (zh) | 2021-09-23 | 2024-06-07 | 苹果公司 | 用于内容应用程序的设备、方法和图形用户界面 |
| JP7759157B2 (ja) | 2021-09-23 | 2025-10-23 | アップル インコーポレイテッド | 三次元環境内でオブジェクトを移動させるための方法 |
| US11934569B2 (en) | 2021-09-24 | 2024-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
| US12131429B2 (en) | 2021-09-24 | 2024-10-29 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying a representation of a user in an extended reality environment |
| US12541940B2 (en) | 2021-09-24 | 2026-02-03 | The Regents Of The University Of Michigan | Visual attention tracking using gaze and visual content analysis |
| WO2023049670A1 (en) | 2021-09-25 | 2023-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
| KR20240064017A (ko) | 2021-09-25 | 2024-05-10 | 애플 인크. | 전자 디바이스와 상호작용하기 위한 방법들 |
| US11847748B2 (en) | 2021-10-04 | 2023-12-19 | Snap Inc. | Transferring objects from 2D video to 3D AR |
| US11776166B2 (en) | 2021-10-08 | 2023-10-03 | Sony Interactive Entertainment LLC | Discrimination between virtual objects and real objects in a mixed reality scene |
| US20220319134A1 (en) | 2021-10-21 | 2022-10-06 | Meta Platforms Technologies, Llc | Contextual Message Delivery in Artificial Reality |
| US12067159B2 (en) | 2021-11-04 | 2024-08-20 | Microsoft Technology Licensing, Llc. | Multi-factor intention determination for augmented reality (AR) environment control |
| US12254571B2 (en) | 2021-11-23 | 2025-03-18 | Sony Interactive Entertainment Inc. | Personal space bubble in VR environments |
| WO2023096940A2 (en) | 2021-11-29 | 2023-06-01 | Apple Inc. | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user |
| US12307614B2 (en) | 2021-12-23 | 2025-05-20 | Apple Inc. | Methods for sharing content and interacting with physical devices in a three-dimensional environment |
| CN118844058A (zh) | 2022-01-10 | 2024-10-25 | 苹果公司 | 用于显示与媒体内容相关的用户界面元素的方法 |
| WO2023137402A1 (en) | 2022-01-12 | 2023-07-20 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| WO2023141535A1 (en) | 2022-01-19 | 2023-07-27 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| WO2023141340A1 (en) | 2022-01-23 | 2023-07-27 | Malay Kundu | A user controlled three-dimensional scene |
| US12175614B2 (en) | 2022-01-25 | 2024-12-24 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
| US20230244857A1 (en) | 2022-01-31 | 2023-08-03 | Slack Technologies, Llc | Communication platform interactive transcripts |
| US11768544B2 (en) | 2022-02-01 | 2023-09-26 | Microsoft Technology Licensing, Llc | Gesture recognition based on likelihood of interaction |
| US12541280B2 (en) | 2022-02-28 | 2026-02-03 | Apple Inc. | System and method of three-dimensional placement and refinement in multi-user communication sessions |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| US12154236B1 (en) | 2022-03-11 | 2024-11-26 | Apple Inc. | Assisted drawing and writing in extended reality |
| US20230314801A1 (en) | 2022-03-29 | 2023-10-05 | Rovi Guides, Inc. | Interaction methods and systems for a head-up display |
| EP4508509A1 (en) | 2022-04-11 | 2025-02-19 | Apple Inc. | Methods for relative manipulation of a three-dimensional environment |
| US12164741B2 (en) | 2022-04-11 | 2024-12-10 | Meta Platforms Technologies, Llc | Activating a snap point in an artificial reality environment |
| US20230377268A1 (en) | 2022-04-19 | 2023-11-23 | Kilton Patrick Hopkins | Method and apparatus for multiple dimension image creation |
| CN119404170A (zh) | 2022-04-20 | 2025-02-07 | 苹果公司 | 三维环境中的被遮蔽对象 |
| US12277267B2 (en) | 2022-04-22 | 2025-04-15 | SentiAR, Inc. | Two-way communication between head-mounted display and electroanatomic system |
| US11935201B2 (en) | 2022-04-28 | 2024-03-19 | Dell Products Lp | Method and apparatus for using physical devices in extended reality environments |
| US11843469B2 (en) | 2022-04-29 | 2023-12-12 | Microsoft Technology Licensing, Llc | Eye contact assistance in video conference |
| US20230377299A1 (en) | 2022-05-17 | 2023-11-23 | Apple Inc. | Systems, methods, and user interfaces for generating a three-dimensional virtual representation of an object |
| US12283020B2 (en) | 2022-05-17 | 2025-04-22 | Apple Inc. | Systems, methods, and user interfaces for generating a three-dimensional virtual representation of an object |
| US12192257B2 (en) | 2022-05-25 | 2025-01-07 | Microsoft Technology Licensing, Llc | 2D and 3D transitions for renderings of users participating in communication sessions |
| US20230409807A1 (en) | 2022-05-31 | 2023-12-21 | Suvoda LLC | Systems, devices, and methods for composition and presentation of an interactive electronic document |
| US20230394755A1 (en) | 2022-06-02 | 2023-12-07 | Apple Inc. | Displaying a Visual Representation of Audible Data Based on a Region of Interest |
| US20230396854A1 (en) | 2022-06-05 | 2023-12-07 | Apple Inc. | Multilingual captions |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| CN115461707B (zh) | 2022-07-08 | 2023-10-13 | 上海莉莉丝科技股份有限公司 | 视频的获取方法、电子设备、存储介质 |
| US11988832B2 (en) | 2022-08-08 | 2024-05-21 | Lenovo (Singapore) Pte. Ltd. | Concurrent rendering of canvases for different apps as part of 3D simulation |
| US12175580B2 (en) | 2022-08-23 | 2024-12-24 | At&T Intellectual Property I, L.P. | Virtual reality avatar attention-based services |
| US12287913B2 (en) | 2022-09-06 | 2025-04-29 | Apple Inc. | Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments |
| US20240087256A1 (en) | 2022-09-14 | 2024-03-14 | Apple Inc. | Methods for depth conflict mitigation in a three-dimensional environment |
| US12148078B2 (en) | 2022-09-16 | 2024-11-19 | Apple Inc. | System and method of spatial groups in multi-user communication sessions |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US20240094882A1 (en) | 2022-09-21 | 2024-03-21 | Apple Inc. | Gestures for selection refinement in a three-dimensional environment |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US20240103617A1 (en) | 2022-09-22 | 2024-03-28 | Apple Inc. | User interfaces for gaze tracking enrollment |
| CN120803316A (zh) | 2022-09-23 | 2025-10-17 | 苹果公司 | 用于与三维环境中的窗口控件交互的设备、方法和图形用户界面 |
| WO2024064925A1 (en) | 2022-09-23 | 2024-03-28 | Apple Inc. | Methods for displaying objects relative to virtual surfaces |
| US20240103681A1 (en) | 2022-09-23 | 2024-03-28 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments |
| WO2024064935A1 (en) | 2022-09-23 | 2024-03-28 | Apple Inc. | Methods for depth conflict mitigation in a three-dimensional environment |
| US20240152245A1 (en) | 2022-09-23 | 2024-05-09 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments |
| WO2024064941A1 (en) | 2022-09-23 | 2024-03-28 | Apple Inc. | Methods for improving user environmental awareness |
| EP4591144A1 (en) | 2022-09-23 | 2025-07-30 | Apple Inc. | Methods for manipulating a virtual object |
| US12524956B2 (en) | 2022-09-24 | 2026-01-13 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| CN120239806A (zh) | 2022-09-24 | 2025-07-01 | 苹果公司 | 用于补充地图的用户界面 |
| US12536762B2 (en) | 2022-09-24 | 2026-01-27 | Apple Inc. | Systems and methods of creating and editing virtual objects using voxels |
| US20240102821A1 (en) | 2022-09-24 | 2024-03-28 | Apple Inc. | Offline maps |
| US20240103701A1 (en) | 2022-09-24 | 2024-03-28 | Apple Inc. | Methods for interacting with user interfaces based on attention |
| US20240152256A1 (en) | 2022-09-24 | 2024-05-09 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Tabbed Browsing in Three-Dimensional Environments |
| CN120266077A (zh) | 2022-09-24 | 2025-07-04 | 苹果公司 | 用于控制三维环境并与之交互的方法 |
| CN115309271B (zh) | 2022-09-29 | 2023-03-21 | 南方科技大学 | 基于混合现实的信息展示方法、装置、设备及存储介质 |
| US12469194B2 (en) | 2022-10-03 | 2025-11-11 | Adobe Inc. | Generating shadows for placed objects in depth estimated scenes of two-dimensional images |
| CN118102204A (zh) | 2022-11-15 | 2024-05-28 | 华为技术有限公司 | 一种行为指引方法、电子设备及介质 |
| US12437471B2 (en) | 2022-12-02 | 2025-10-07 | Adeia Guides Inc. | Personalized user engagement in a virtual reality environment |
| US20240193892A1 (en) | 2022-12-09 | 2024-06-13 | Apple Inc. | Systems and methods for correlation between rotation of a three-dimensional object and rotation of a viewpoint of a user |
| CN116132905A (zh) | 2022-12-09 | 2023-05-16 | 杭州灵伴科技有限公司 | 音频播放方法和头戴式显示设备 |
| US20240221273A1 (en) | 2022-12-29 | 2024-07-04 | Apple Inc. | Presenting animated spatial effects in computer-generated environments |
| US20240281108A1 (en) | 2023-01-24 | 2024-08-22 | Apple Inc. | Methods for displaying a user interface object in a three-dimensional environment |
| US12277848B2 (en) | 2023-02-03 | 2025-04-15 | Apple Inc. | Devices, methods, and graphical user interfaces for device position adjustment |
| US12400414B2 (en) | 2023-02-08 | 2025-08-26 | Meta Platforms Technologies, Llc | Facilitating system user interface (UI) interactions in an artificial reality (XR) environment |
| US20240281109A1 (en) | 2023-02-17 | 2024-08-22 | Apple Inc. | Systems and methods of displaying user interfaces based on tilt |
| US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
| US20240104870A1 (en) | 2023-03-03 | 2024-03-28 | Meta Platforms Technologies, Llc | AR Interactions and Experiences |
| US20240338921A1 (en) | 2023-04-07 | 2024-10-10 | Apple Inc. | Triggering a Visual Search in an Electronic Device |
| US12321515B2 (en) | 2023-04-25 | 2025-06-03 | Apple Inc. | System and method of representations of user interfaces of an electronic device |
| WO2024226681A1 (en) | 2023-04-25 | 2024-10-31 | Apple Inc. | Methods for displaying and rearranging objects in an environment |
| US12182325B2 (en) | 2023-04-25 | 2024-12-31 | Apple Inc. | System and method of representations of user interfaces of an electronic device |
| KR20260006689A (ko) | 2023-05-18 | 2026-01-13 | 애플 인크. | 3차원 환경에서 객체들을 이동시키기 위한 방법들 |
| US20250005864A1 (en) | 2023-05-23 | 2025-01-02 | Apple Inc. | Methods for optimization of virtual user interfaces in a three-dimensional environment |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US20240402800A1 (en) | 2023-06-02 | 2024-12-05 | Apple Inc. | Input Recognition in 3D Environments |
| CN121241323A (zh) | 2023-06-03 | 2025-12-30 | 苹果公司 | 用于内容应用的设备、方法和图形用户界面 |
| WO2024253976A1 (en) | 2023-06-03 | 2024-12-12 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying views of physical locations |
| CN121187445A (zh) | 2023-06-04 | 2025-12-23 | 苹果公司 | 用于管理重叠窗口和应用视觉效果的方法 |
| US20250008057A1 (en) | 2023-06-04 | 2025-01-02 | Apple Inc. | Systems and methods for managing display of participants in real-time communication sessions |
| CN121285792A (zh) | 2023-06-04 | 2026-01-06 | 苹果公司 | 媒体内容的媒体控件和媒体内容的字幕在三维环境中的位置 |
| CN121263762A (zh) | 2023-06-04 | 2026-01-02 | 苹果公司 | 用于在三维环境中移动对象的方法 |
| US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| CN119094690A (zh) | 2023-06-04 | 2024-12-06 | 苹果公司 | 在多用户通信会话中管理空间组的系统和方法 |
| AU2024203762A1 (en) | 2023-06-04 | 2024-12-19 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying content of physical locations |
| US20250029328A1 (en) | 2023-07-23 | 2025-01-23 | Apple Inc. | Systems and methods for presenting content in a shared computer generated environment of a multi-user communication session |
| WO2025024476A1 (en) | 2023-07-23 | 2025-01-30 | Apple Inc. | Systems, devices, and methods for audio presentation in a three-dimensional environment |
| WO2025024469A1 (en) | 2023-07-23 | 2025-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for sharing content in a communication session |
| WO2025049256A1 (en) | 2023-08-25 | 2025-03-06 | Apple Inc. | Methods for managing spatially conflicting virtual objects and applying visual effects |
| US20250077066A1 (en) | 2023-08-28 | 2025-03-06 | Apple Inc. | Systems and methods for scrolling a user interface element |
| US20250104335A1 (en) | 2023-09-25 | 2025-03-27 | Apple Inc. | Systems and methods of layout and presentation for creative workflows |
| US20250104367A1 (en) | 2023-09-25 | 2025-03-27 | Apple Inc. | Systems and methods of layout and presentation for creative workflows |
| US20250106582A1 (en) | 2023-09-26 | 2025-03-27 | Apple Inc. | Dynamically updating simulated source locations of audio sources |
| US20250111605A1 (en) | 2023-09-29 | 2025-04-03 | Apple Inc. | Systems and methods of annotating in a three-dimensional environment |
| US20250111472A1 (en) | 2023-09-29 | 2025-04-03 | Apple Inc. | Adjusting the zoom level of content |
| US20250110605A1 (en) | 2023-09-29 | 2025-04-03 | Apple Inc. | Systems and methods of boundary transitions for creative workflows |
| US20250111622A1 (en) | 2023-09-29 | 2025-04-03 | Apple Inc. | Displaying extended reality media feed using media links |
| CN117857981A (zh) | 2023-12-11 | 2024-04-09 | 歌尔科技有限公司 | 音频播放方法、车辆、头戴设备和计算机可读存储介质 |
| US20250209744A1 (en) | 2023-12-22 | 2025-06-26 | Apple Inc. | Hybrid spatial groups in multi-user communication sessions |
| US20250209753A1 (en) | 2023-12-22 | 2025-06-26 | Apple Inc. | Interactions within hybrid spatial groups in multi-user communication sessions |
| WO2025151784A1 (en) | 2024-01-12 | 2025-07-17 | Apple Inc. | Methods of updating spatial arrangements of a plurality of virtual objects within a real-time communication session |
-
2024
- 2024-06-04 CN CN202511327302.4A patent/CN121187445A/zh active Pending
- 2024-06-04 CN CN202480005202.7A patent/CN120303636A/zh active Pending
- 2024-06-04 WO PCT/US2024/032456 patent/WO2024254096A1/en active Pending
- 2024-06-04 US US18/733,819 patent/US20250078420A1/en active Pending
- 2024-12-19 US US18/988,115 patent/US12511847B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN121187445A (zh) | 2025-12-23 |
| US12511847B2 (en) | 2025-12-30 |
| US20250078420A1 (en) | 2025-03-06 |
| US20250118038A1 (en) | 2025-04-10 |
| WO2024254096A1 (en) | 2024-12-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN120303636A (zh) | 用于管理重叠窗口和应用视觉效果的方法 | |
| US20240221291A1 (en) | Methods for time of day adjustments for environments and environment presentation during communication sessions | |
| EP4587908A1 (en) | Methods for depth conflict mitigation in a three-dimensional environment | |
| CN119987551A (zh) | 消息在三维环境中的表示 | |
| US20240104819A1 (en) | Representations of participants in real-time communication sessions | |
| WO2024226681A1 (en) | Methods for displaying and rearranging objects in an environment | |
| CN120469584A (zh) | 用于操纵虚拟对象的方法 | |
| US20240103678A1 (en) | Devices, methods, and graphical user interfaces for interacting with extended reality experiences | |
| KR20250075620A (ko) | 3차원 환경을 제어하고 그와 상호작용하기 위한 방법들 | |
| CN119948437A (zh) | 用于改善用户环境感知的方法 | |
| CN121241323A (zh) | 用于内容应用的设备、方法和图形用户界面 | |
| CN121263762A (zh) | 用于在三维环境中移动对象的方法 | |
| CN121285792A (zh) | 媒体内容的媒体控件和媒体内容的字幕在三维环境中的位置 | |
| CN120653120A (zh) | 用于三维环境中的深度冲突减轻的方法 | |
| US12374069B2 (en) | Devices, methods, and graphical user interfaces for real-time communication | |
| WO2025151784A1 (en) | Methods of updating spatial arrangements of a plurality of virtual objects within a real-time communication session | |
| US20240428539A1 (en) | Devices, Methods, and Graphical User Interfaces for Selectively Accessing System Functions and Adjusting Settings of Computer Systems While Interacting with Three-Dimensional Environments | |
| US20240385858A1 (en) | Methods for displaying mixed reality content in a three-dimensional environment | |
| KR20260017447A (ko) | 중첩하는 윈도우들을 관리하고 시각적 효과들을 적용하기 위한 방법들 | |
| WO2025072898A1 (en) | Systems and methods of controlling the output of light | |
| WO2024020061A1 (en) | Devices, methods, and graphical user interfaces for providing inputs in three-dimensional environments | |
| WO2024253867A1 (en) | Devices, methods, and graphical user interfaces for presenting content | |
| CN120166188A (zh) | 实时通信会话中参与者的表示 | |
| CN121241321A (zh) | 用于实时通信的设备、方法和图形用户界面 | |
| CN119948439A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication |