[go: up one dir, main page]

CN106201213A - 一种虚拟现实焦点的控制方法及终端 - Google Patents

一种虚拟现实焦点的控制方法及终端 Download PDF

Info

Publication number
CN106201213A
CN106201213A CN201610571853.XA CN201610571853A CN106201213A CN 106201213 A CN106201213 A CN 106201213A CN 201610571853 A CN201610571853 A CN 201610571853A CN 106201213 A CN106201213 A CN 106201213A
Authority
CN
China
Prior art keywords
focus
information
area
touch
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201610571853.XA
Other languages
English (en)
Inventor
杜国威
苏净
陈小欢
邱涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jinli Communication Equipment Co Ltd
Original Assignee
Shenzhen Jinli Communication Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jinli Communication Equipment Co Ltd filed Critical Shenzhen Jinli Communication Equipment Co Ltd
Priority to CN201610571853.XA priority Critical patent/CN106201213A/zh
Publication of CN106201213A publication Critical patent/CN106201213A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供了一种虚拟现实焦点的控制方法及终端,其中,所述方法包括:获取通过触控面板输入的第一触摸数据;确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令;如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域;获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。本发明实施例终端能够对虚拟现实视景中的焦点进行精确定位。

Description

一种虚拟现实焦点的控制方法及终端
技术领域
本发明涉及电子技术领域,尤其涉及一种虚拟现实焦点的控制方法及终端。
背景技术
虚拟现实(Virtual Reality,VR)是利用计算机生成一种模拟环境,利用多源信息融合的交互式三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。
用户可以将智能手机、平板电脑等带有显示屏的终端放入到虚拟现实眼镜观看3D视频,看虚拟旅游景区等。
目前的VR眼镜主要通过手控触控面板的方式控制VR焦点移动,通过焦点从动态视景的选项中进行选择,从而控制VR动态视景。其中,VR焦点用于在动态视景进行定位。
然而,当通过手控触控面板控制VR动态视景时,通常容易过度划动或者划动不足,无法将VR焦点进行准确定位。
发明内容
本发明实施例提供一种虚拟现实焦点的控制方法及终端,能够对虚拟现实视景中的焦点进行精确定位。
第一方面,本发明实施例提供了一种虚拟现实焦点的控制方法,该方法包括:
获取通过触控面板输入的第一触摸数据;
确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令;
如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域;
获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
另一方面,本发明实施例提供了一种终端,该终端包括:
获取单元,用于获取通过触控面板输入的第一触摸数据;
确定单元,用于确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令;
控制单元,用于如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域;
调整单元,用于获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
本发明实施例通过获取通过触控面板输入的第一触摸数据,并在确定第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域;以及获取焦点对应的微调信息,并根据微调信息调整焦点的位置,能够对虚拟现实焦点进行精确定位。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种虚拟现实焦点的控制方法的示意流程图;
图2是本发明另一实施例提供的一种虚拟现实焦点的控制方法的示意流程图;
图3是本发明实施例触控面板以及虚拟现实视景的示意图;
图4是本发明实施例虚拟现实焦点示意图;
图5是本发明实施例提供的一种终端的示意性框图;
图6是本发明另一实施例提供的一种终端示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本发明实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触控面板显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触控面板显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
请参见图1,图1是本发明实施例提供的一种虚拟现实焦点的控制方法的示意流程图。本实施例中虚拟现实焦点的控制方法的执行主体为终端,终端为虚拟现实显示终端,虚拟现实显示终端可以为虚拟现实眼镜,但并不限于此。虚拟现实显示终端具有触控面板,触控面板表面具有用户可感知的颗粒状物质,但该颗粒状物质不呈现在虚拟现实视景中。如图1所示虚拟现实焦点的控制方法可包括以下步骤:
S101:获取通过触控面板输入的第一触摸数据。
当用户需要对终端的虚拟现实(VR)焦点进行定位时,用户通过终端的触控面板输入第一触摸数据。其中,该VR焦点用于指示用户从虚拟现实视景中的选项卡或菜单中进行选择。
终端获取用户通过触控面板输入的第一触摸数据。
S102:确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
终端确定获取到的第一触摸数据对应的触摸操作,并判断该触摸操作是否为预设的焦点控制指令。其中,触摸操作可以包括点击操作、滑动操作等,但并不限于此。点击操作可以包括单次点击操作,还可以包括多次点击操作。
预设的焦点控制指令可以为预设的点击操作、也可以为预设的滑动操作(比如,滑动轨迹的起点位置与预设的起点位置匹配),但并不限于此,还可以是其他的触摸操作,具体可根据实际情况进行设置,此处不做限制。
终端确认第一触摸数据对应的触摸操作为预设的焦点控制指令时,执行步骤S103;否则不做任何处理,结束本次流程,返回步骤S101。
S103:如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域。
终端在确认第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至第一触摸数据对应的焦点活动区域。其中,焦点活动区域的信息包括焦点活动区域的面积以及位置信息。
终端将焦点移动至第一触摸数据对应的焦点活动区域后,焦点位置短暂改变,由虚拟现实视景的原点位置移动至焦点活动区域,该焦点可以在焦点活动区域移动。虚拟现实视景的原点位置可以是虚拟现实视景的中心位置,也可以是触控面板的中心位置,此处不做限制。
可以理解的是,终端可以将虚拟现实视景中的焦点移动至焦点活动区域的中心位置,也可以是焦点活动区域任意位置。
S104:获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
终端在将虚拟现实视景中的焦点移动至焦点活动区域内后,获取该焦点对应的微调信息,并根据微调信息进一步调整焦点的位置,以实现对虚拟现实视景中的焦点进行精确定位,从而通过该焦点指示用户从虚拟现实视景包含的菜单栏或选项卡进行选择。
其中,虚拟现实视景中的焦点对应的微调信息可以是用户输入的通过接触式或非接触式的方式输入,此处不做限制。非接触式的方式可以包括通过头部或眼部输入焦点对应的微调信息,从而调整焦点的位置。
可以理解的是,如果终端判断在步骤S103中,终端已经将虚拟现实视景的焦点移动至焦点活动区域中的目标位置,那么,微调信息为零,终端不需要进一步调整焦点的位置。
上述方案,终端获取通过触控面板输入的第一触摸数据,并在确定第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域;以及获取焦点对应的微调信息,并根据微调信息调整焦点的位置,能够对虚拟现实焦点进行精确定位,便于用户通过该焦点从虚拟现实视景包含的菜单栏或选项卡进行选择,从而控制虚拟现实视景图像。
请参见图2,图2是本发明另一实施例提供的一种虚拟现实焦点的控制方法的示意流程图。本实施例中虚拟现实焦点的控制方法的执行主体为终端,终端为虚拟现实显示终端,虚拟现实显示终端可以为虚拟现实眼镜,但并不限于此。虚拟现实显示终端具有触控面板,触控面板表面具有用户可感知的颗粒状物质,但该颗粒状物质不呈现在虚拟现实视景中。如图2所示虚拟现实焦点的控制方法可包括以下步骤:
S201:获取通过触控面板输入的第一触摸数据。
当用户需要对终端的虚拟现实(VR)焦点进行定位时,用户通过终端的触控面板输入第一触摸数据。其中,该VR焦点用于指示用户从虚拟现实视景中的选项卡或菜单中进行选择。
终端获取用户通过触控面板输入的第一触摸数据。
S202:确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
终端确定获取到的第一触摸数据对应的触摸操作,并判断该触摸操作是否为预设的焦点控制指令。其中,触摸操作可以包括点击操作、滑动操作等,但并不限于此。点击操作可以包括单次点击操作,还可以包括多次点击操作。
预设的焦点控制指令可以为预设的点击操作、也可以为预设的滑动操作(比如,滑动轨迹的起点位置与预设的起点位置匹配),但并不限于此,还可以是其他的触摸操作,具体可根据实际情况进行设置,此处不做限制。
终端确认第一触摸数据对应的触摸操作为预设的焦点控制指令时,执行步骤S203;否则不做任何处理,结束本次流程,返回步骤S201。
S203:如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,确定所述第一触摸数据对应的第一触摸区域的面积以及第一位置信息。
例如,终端确认第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据的位置信息确定第一触摸数据对应的第一触摸区域的面积以及第一触摸区域的第一位置信息。
S204:根据所述第一触摸区域的面积以及第一位置信息确定所述焦点活动区域对应的面积以及第二位置信息。
终端根据第一触摸区域的面积以及第一触摸区域的第一位置信息计算虚拟现实视景中的焦点活动区域对应的面积以及焦点活动区域的第二位置信息,并根据焦点活动区域对应的面积以及焦点活动区域第二位置信息将焦点移动至焦点活动区域。
其中,第一触摸数据对应的第一触摸区域的面积与焦点活动区域对应的面积一一对应。第一触摸区域的第一位置信息与焦点活动区域对应的第二位置信息一一对应。
本实施例中,终端通过第一触摸数据对应的第一触摸区域的面积以及第一位置信息,计算虚拟现实视景中的焦点活动区域对应的面积大小以及位置信息对虚拟现实视景中的焦点活动区域进行粗略定位,将虚拟现实视景中的焦点移动至该焦点获取区域。
进一步的,步骤S204可以包括:根据所述触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;根据所述面积转换系数、所述第一触摸区域的面积确定所述焦点活动区域对应的面积;根据所述第一触摸区域的第一位置信息确定所述焦点活动区域对应的第二位置信息。
例如,请一并参阅图3,图3是本发明实施例触控面板以及虚拟现实视景的示意图。其中,图3-1是本发明实施例触控面板示意图,图3-2是本发明实施例虚拟现实视景的示意图。
如图3所示,触控面板的面积S1为A、B、C、D四个点围成的区域对应的面积。虚拟现实视景的虚拟面积S2为A'、B'、C'、D'四个点围成的区域对应的面积。触控面板的原点(中心位置)为O,虚拟现实视景的原点(中心位置)为O'
触控面板输入的第一触摸数据对应的第一触摸区域为E,虚拟现实视景的焦点活动区域为E'。
终端确认第一触摸数据对应的触摸操作为预设的焦点控制指令时,且根据第一触摸数据的位置信息确定第一触摸数据对应的第一触摸区域的面积以及第一触摸区域的第一位置信息之后,根据触控面板的面积S1、虚拟现实视景的虚拟面积S2、第一触摸区域的面积SE确定面积转换系数K。其中,K=S2/S1
终端根据面积转换系数K、第一触摸区域的面积SE确定焦点活动区域对应的面积SE',即,SE'=K*SE
终端根据公式LOD/LOE=LO'C'/LO'E'确定焦点活动区域对应的第二位置信息。其中,LOD为触控面板原点O到D点的距离,LOE为触控面板原点O到E点的距离;LO'D'为虚拟现实视景的原O'点到D'点的距离,LO'E'为虚拟现实视景的原点O'到E'点的距离。
S205:根据所述焦点活动区域对应的面积以及第二位置信息将焦点移动至所述焦点活动区域。
终端在确定虚拟现实视景中焦点活动区域对应的面积大小以及第二位置信息时,将虚拟现实视景的焦点移动至该焦点活动区域。
请一并参阅图4,图4是本发明实施例焦点示意图。如图4所示,终端将焦点从虚拟现实视景的原点移动至第一触摸数据对应的焦点活动区域E'。
可以理解的是,终端可以将虚拟现实视景中的焦点移动至焦点活动区域的中心位置,也可以是焦点活动区域任意位置。虚拟现实视景的原点为虚拟现实视景的中心位置O'。
终端将焦点移动至第一触摸数据对应的焦点活动区域后,焦点位置短暂改变,由虚拟现实视景的原点位置(中心位置O')移动至焦点活动区域,该焦点可以在焦点活动区域移动。虚拟现实视景的原点位置可以是虚拟现实视景的中心位置,也可以是触控面板的中心位置,此处不做限制。
终端在确定虚拟现实视景中焦点活动区域对应的面积大小以及第二位置信息时,将虚拟现实视景的焦点移动至该焦点活动区域。
请一并参阅图4,图4是本发明实施例虚拟现实焦点示意图。如图4所示,终端将虚拟现实焦点从虚拟现实视景的原点移动至第一触摸数据对应的焦点活动区域E'。
可以理解的是,终端可以将虚拟现实视景中的焦点移动至焦点活动区域的中心位置,也可以是焦点活动区域任意位置。虚拟现实视景的原点为虚拟现实视景的中心位置O'。
S206:获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
终端在将焦点移动至焦点活动区域内后,获取该焦点对应的微调信息,并根据微调信息进一步调整焦点的位置,以实现对虚拟现实视景中的焦点进行精确定位,从而通过该焦点指示用户从虚拟现实视景包含的菜单栏或选项卡进行选择。
其中,焦点对应的微调信息可以是用户输入的通过接触式或非接触式的方式输入,此处不做限制。非接触式的方式可以包括通过头部或眼部输入焦点对应的微调信息,从而调整焦点的位置。
进一步的,步骤S204可以包括:获取通过所述触控面板输入的第二触摸数据对应的微调信息,根据所述微调信息调整所述焦点的位置。
当用户在第一触摸数据对应的第一触摸区域输入的第二触摸数据,以通过第二触摸数据调整虚拟现实视景中的焦点位置时,终端获取用户输入的第二触摸数据对应的微调信息,根据获取到的微调信息调整该焦点的位置。
例如,终端获取到的第二触摸数据对应的微调信息为将焦点从当前位置调整到目标位置,那么终端获取第二触摸数据对应的目标位置信息,并将焦点移动至该目标位置上。其中,目标位置对应于用户需要选择的选项所在的位置。
终端获取用户在第一触摸数据对应的第一触摸区域输入的第二触摸数据,
进一步的,步骤S206可以包括:获取通过非接触式输入的微调信息,根据所述微调信息调整所述焦点的位置。
当用户通过转动头部,以调整终端的位置从而调整虚拟现实视景中的焦点时,终端获取用户转动头部对应的运动轨迹,根据该运动轨迹确定目标位置信息,从而将虚拟现实视景中的焦点从当前位置调整到该目标位置。
其中,目标位置对应于用户需要选择的选项所在的位置。终端可以获取用户头部转动的角度信息,根据该角度信息确定该角度对应的目标位置信息。
进一步的,当用户头部不动,通过转动任意一个眼睛调整虚拟现实视景的焦点位置时,终端还可以获取用户眼球的转动轨迹,根据眼球的转动轨迹确定该眼球转动轨迹目标位置信息。
可以理解的是,如果终端判断在步骤S205中,终端已经将虚拟现实视景的焦点移动至焦点活动区域中的目标位置,那么,微调信息为零,终端不需要进一步调整焦点的位置。
上述方案,终端获取通过触控面板输入的第一触摸数据,并在确定第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域;以及获取焦点对应的微调信息,并根据微调信息调整焦点的位置,能够对虚拟现实焦点进行精确定位,便于用户通过该焦点从虚拟现实视景包含的菜单栏或选项卡进行选择,从而控制虚拟现实视景图像。
终端通过第一触摸数据对虚拟现实视景的焦点进行初步定位,再通过第二触摸数据或非接触式方式对焦点位置进行微调,将焦点移动至目标位置,能够快速且准确地对虚拟现实视景中的焦点进行定位,提高其定位速度以及准确的。
参见图5,是本发明实施例提供的一种终端的示意性框图。终端可以为手机、平板电脑等移动终端,但并不限于此,还可以为其他终端,此处不作限定。本实施例的终端300包括的各模块用于执行图1对应的实施例中的各步骤,具体请参阅图1以及图1对应的实施例中的相关描述,此处不赘述。本实施例的终端包括:获取单元510、确定单元520、控制单元530以及调整单元540。
获取单元510用于获取通过触控面板输入的第一触摸数据。
比如,获取单元510获取通过触控面板输入的第一触摸数据。获取单元510将第一触摸数据向确定单元520发送。
确定单元520用于接收获取单元510发送的第一触摸数据,确定第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
比如,确定单元520接收获取单元510发送的第一触摸数据,确定第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
确定单元520将确定结果向控制单元530发送。
控制单元530用于接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域。
比如,控制单元530接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域。
控制单元530将虚拟现实视景中的焦点移动至焦点活动区域后,向调整单元540发送通知信息。
调整单元540用于接收控制单元530发送的通知信息,获取焦点对应的微调信息,并根据微调信息调整焦点的位置。
比如,调整单元540接收控制单元530发送的通知信息,获取焦点对应的微调信息,并根据微调信息调整焦点的位置。
上述方案,终端获取通过触控面板输入的第一触摸数据,并在确定第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域;以及获取焦点对应的微调信息,并根据微调信息调整焦点的位置,能够对虚拟现实焦点进行精确定位,便于用户通过该焦点从虚拟现实视景包含的菜单栏或选项卡进行选择,从而控制虚拟现实视景图像。
请继续参见图5,在另一种实施例中,终端300包括的各模块用于执行图2对应的实施例中的各步骤,具体请参阅图2以及图2对应的实施例中的相关描述,此处不赘述。具体地:
获取单元510用于获取通过触控面板输入的第一触摸数据。
比如,获取单元510获取通过触控面板输入的第一触摸数据。获取单元510将第一触摸数据向确定单元520发送。
确定单元520用于接收获取单元510发送的第一触摸数据,确定第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
比如,确定单元520接收获取单元510发送的第一触摸数据,确定第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
确定单元520将确定结果向控制单元530发送。
控制单元530用于接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域。
比如,控制单元530接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域。
进一步地,控制单元530具体用于接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,确定第一触摸数据对应的第一触摸区域的面积以及第一位置信息;以及用于根据第一触摸区域的面积以及第一位置信息确定焦点活动区域对应的面积以及第二位置信息;还用于根据焦点活动区域对应的面积以及第二位置信息将焦点移动至焦点活动区域。
比如,控制单元530具体用于接收确定单元520发送的确定结果,如果确定结果为第一触摸数据对应的触摸操作为预设的焦点控制指令,确定第一触摸数据对应的第一触摸区域的面积以及第一位置信息;以及根据第一触摸区域的面积以及第一位置信息确定焦点活动区域对应的面积以及第二位置信息;根据焦点活动区域对应的面积以及第二位置信息将焦点移动至焦点活动区域。
进一步地,控制单元530具体用于根据触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;根据面积转换系数、第一触摸区域的面积确定焦点活动区域对应的面积;根据第一触摸区域的第一位置信息确定焦点活动区域对应的第二位置信息。
比如,控制单元530根据触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;根据面积转换系数、第一触摸区域的面积确定焦点活动区域对应的面积;根据第一触摸区域的第一位置信息确定焦点活动区域对应的第二位置信息。
控制单元530将虚拟现实视景中的焦点移动至焦点活动区域后,向调整单元540发送通知信息。
调整单元540用于接收控制单元530发送的通知信息,获取焦点对应的微调信息,并根据微调信息调整焦点的位置。
比如,调整单元540接收控制单元530发送的通知信息,获取焦点对应的微调信息,并根据微调信息调整焦点的位置。
进一步地,调整单元540具体用于获取通过触控面板输入的第二触摸数据对应的微调信息,根据微调信息调整焦点的位置。
比如,调整单元540获取通过触控面板输入的第二触摸数据对应的微调信息,根据微调信息调整焦点的位置。
进一步地,调整单元540具体用于获取通过非接触式输入的微调信息,根据微调信息调整焦点的位置。
比如,调整单元540获取通过非接触式输入的微调信息,根据微调信息调整焦点的位置。
上述方案,终端获取通过触控面板输入的第一触摸数据,并在确定第一触摸数据对应的触摸操作为预设的焦点控制指令时,根据第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至焦点活动区域;以及获取焦点对应的微调信息,并根据微调信息调整焦点的位置,能够对虚拟现实焦点进行精确定位,便于用户通过该焦点从虚拟现实视景包含的菜单栏或选项卡进行选择,从而控制虚拟现实视景图像。
终端通过第一触摸数据对虚拟现实视景的焦点进行初步定位,再通过第二触摸数据或非接触式方式对虚拟现实视景中的焦点位置进行微调,将焦点移动至目标位置,能够快速且准确地对虚拟现实视景中的焦点进行定位,提高其定位速度以及准确的。
参见图6,是本发明另一实施例提供的一种终端示意性框图。如图所示的本实施例中的终端400可以包括:一个或多个处理器610;一个或多个输入设备620,一个或多个输出设备630和存储器640。上述处理器610、输入设备620、输出设备630和存储器640通过总线650连接。
存储器640用于存储程序指令。
处理器610用于根据存储器640存储的程序指令执行以下操作:
处理器610用于获取通过触控面板输入的第一触摸数据。
处理器610还用于确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令。
处理器610还用于如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将虚拟现实视景中的焦点移动至所述焦点活动区域。
处理器610还用于获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
进一步地,处理器610具体用于确定所述第一触摸数据对应的第一触摸区域的面积以及第一位置信息;以及用于根据所述第一触摸区域的面积以及第一位置信息确定所述焦点活动区域对应的面积以及第二位置信息;还用于根据所述焦点活动区域对应的面积以及第二位置信息将焦点移动至所述焦点活动区域。
进一步地,处理器610具体用于根据所述触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;根据所述面积转换系数、所述第一触摸区域的面积确定所述焦点活动区域对应的面积;根据所述第一触摸区域的第一位置信息确定所述焦点活动区域对应的第二位置信息。
进一步地,处理器610具体用于获取通过所述触控面板输入的第二触摸数据对应的微调信息,根据所述微调信息调整所述焦点的位置。
进一步地,处理器610具体用于获取通过非接触式输入的微调信息,根据所述微调信息调整所述焦点的位置。
上述方案,终端获取需要分享的目标相片对应的人脸信息;根据预设的人脸特征数据与联系人信息的对应关系,获取人脸信息对应的联系人信息;根据人脸信息对应的联系人信息发送目标相片。由于终端不需要手动选择接收相片的联系人信息,能够节省查找联系人的时间,有效提高相片分享效率;并且终端可以根据实时拍摄的相片对应的联系人信息,将实时拍摄的相片进行发送,还能够节省选择需要分享的相片的时间,进一步提高相片分享效率。
终端能够在拍摄相片前,且在不能获取到预览图像包含的任意人脸特征数据对应的联系人信息时,能够提示用户输入缺少的联系人信息,并建立该联系人信息与预览图像中缺少联系人信息的人脸特征数据之间的对应关系,以保存在本地数据库,能够保证均能获取到与所拍摄的相片中的人脸特征数据匹配的联系人信息,从而使得用户能够将实时拍摄的相片分享给目标相片对应的所有联系人,以防止在分享相片时,目标相片中任意人脸特征数据缺少与其对应的联系人信息的情况,能够为用户节省输入缺少的联系人信息的时间,进一步提高分享效率。
应当理解,在本发明实施例中,所称处理器610可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备620可以包括触控板、指纹采传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风等,输出设备630可以包括显示器(LCD等)、扬声器等。
该存储器640可以包括只读存储器和随机存取存储器,并向处理器610提供指令和数据。存储器640的一部分还可以包括非易失性随机存取存储器。例如,存储器640还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器610、输入设备620、输出设备630可执行本发明实施例提供的虚拟现实焦点的控制方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的终端的实现方式,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本发明实施例终端中的单元可以根据实际需要进行合并、划分和删减。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种虚拟现实焦点的控制方法,其特征在于,所述方法包括:
获取通过触控面板输入的第一触摸数据;
确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令;
如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域;
获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
2.根据权利要求1所述的方法,其特征在于,所述如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域包括:
确定所述第一触摸数据对应的第一触摸区域的面积以及第一位置信息;
根据所述第一触摸区域的面积以及第一位置信息确定所述焦点活动区域对应的面积以及第二位置信息;
根据所述焦点活动区域对应的面积以及第二位置信息将焦点移动至所述焦点活动区域。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一触摸区域的面积以及第一位置信息确定所述焦点活动区域对应的面积以及第二位置信息包括:
根据所述触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;
根据所述面积转换系数、所述第一触摸区域的面积确定所述焦点活动区域对应的面积;
根据所述第一触摸区域的第一位置信息确定所述焦点活动区域对应的第二位置信息。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置包括:获取通过所述触控面板输入的第二触摸数据对应的微调信息,根据所述微调信息调整所述焦点的位置。
5.根据权利要求1至3任一项所述的方法,其特征在于,所述获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置包括:
获取通过非接触式输入的微调信息,根据所述微调信息调整所述焦点的位置。
6.一种终端,其特征在于,所述终端包括:
获取单元,用于获取通过触控面板输入的第一触摸数据;
确定单元,用于确定所述第一触摸数据对应的触摸操作是否为预设的焦点控制指令;
控制单元,用于如果所述第一触摸数据对应的触摸操作为预设的焦点控制指令,根据所述第一触摸数据确定虚拟现实视景中的焦点活动区域的信息,并将所述虚拟现实视景中的焦点移动至所述焦点活动区域;
调整单元,用于获取所述焦点对应的微调信息,并根据所述微调信息调整所述焦点的位置。
7.根据权利要求6所述的终端,其特征在于,所述控制单元具体用于确定所述第一触摸数据对应的第一触摸区域的面积以及第一位置信息;以及用于根据所述第一触摸区域的面积以及第一位置信息确定所述焦点活动区域对应的面积以及第二位置信息;还用于根据所述焦点活动区域对应的面积以及第二位置信息将焦点移动至所述焦点活动区域。
8.根据权利要求7所述的终端,其特征在于,所述控制单元具体用于根据所述触控面板的面积、虚拟现视景的虚拟面积确定面积转换系数;根据所述面积转换系数、所述第一触摸区域的面积确定所述焦点活动区域对应的面积;根据所述第一触摸区域的第一位置信息确定所述焦点活动区域对应的第二位置信息。
9.根据权利要求6至8任一项所述的终端,其特征在于,所述调整单元具体用于获取通过所述触控面板输入的第二触摸数据对应的微调信息,根据所述微调信息调整所述焦点的位置。
10.根据权利要求6至8任一项所述的终端,其特征在于,所述调整单元具体用于获取通过非接触式输入的微调信息,根据所述微调信息调整所述焦点的位置。
CN201610571853.XA 2016-07-19 2016-07-19 一种虚拟现实焦点的控制方法及终端 Withdrawn CN106201213A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610571853.XA CN106201213A (zh) 2016-07-19 2016-07-19 一种虚拟现实焦点的控制方法及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610571853.XA CN106201213A (zh) 2016-07-19 2016-07-19 一种虚拟现实焦点的控制方法及终端

Publications (1)

Publication Number Publication Date
CN106201213A true CN106201213A (zh) 2016-12-07

Family

ID=57493507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610571853.XA Withdrawn CN106201213A (zh) 2016-07-19 2016-07-19 一种虚拟现实焦点的控制方法及终端

Country Status (1)

Country Link
CN (1) CN106201213A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112068757A (zh) * 2020-08-03 2020-12-11 北京理工大学 一种用于虚拟现实的目标选择方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103733115A (zh) * 2011-06-30 2014-04-16 谷歌公司 具有弯曲显示和导航工具的可佩戴计算机
CN104471521A (zh) * 2012-05-09 2015-03-25 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
US20150235418A1 (en) * 2013-11-27 2015-08-20 Magic Leap, Inc. Determining user accommodation to display an image at a desired focal distance using freeform optics
CN104914985A (zh) * 2014-03-13 2015-09-16 扬智科技股份有限公司 手势控制方法及系统与视频流处理装置
CN105068653A (zh) * 2015-07-22 2015-11-18 深圳多新哆技术有限责任公司 确定虚拟空间中触摸事件的方法及装置
CN105075254A (zh) * 2013-03-28 2015-11-18 索尼公司 图像处理装置、图像处理方法以及程序

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103733115A (zh) * 2011-06-30 2014-04-16 谷歌公司 具有弯曲显示和导航工具的可佩戴计算机
CN104471521A (zh) * 2012-05-09 2015-03-25 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
CN105075254A (zh) * 2013-03-28 2015-11-18 索尼公司 图像处理装置、图像处理方法以及程序
US20150235418A1 (en) * 2013-11-27 2015-08-20 Magic Leap, Inc. Determining user accommodation to display an image at a desired focal distance using freeform optics
CN104914985A (zh) * 2014-03-13 2015-09-16 扬智科技股份有限公司 手势控制方法及系统与视频流处理装置
CN105068653A (zh) * 2015-07-22 2015-11-18 深圳多新哆技术有限责任公司 确定虚拟空间中触摸事件的方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112068757A (zh) * 2020-08-03 2020-12-11 北京理工大学 一种用于虚拟现实的目标选择方法及系统

Similar Documents

Publication Publication Date Title
CN113508361B (zh) 用于呈现计算机生成现实文件的设备、方法和计算机可读介质
AU2019338180B2 (en) User interfaces for simulated depth effects
US20220291806A1 (en) Device, method, and graphical user interface for composing cgr files
US10379733B2 (en) Causing display of a three dimensional graphical user interface with dynamic selectability of items
US11824898B2 (en) User interfaces for managing a local network
US11604580B2 (en) Configuration of application execution spaces and sub-spaces for sharing data on a mobile touch screen device
CN103106000B (zh) 多焦点窗口的实现方法及通信终端
CN106210521A (zh) 一种拍照方法及终端
WO2021262432A1 (en) User interfaces for accessing an account
EP4189528A1 (en) User interfaces for indicating distance
EP3977250A1 (en) User interface for managing input techniques
CN107329644A (zh) 一种图标移动方法以及装置
KR20180088859A (ko) 시나리오에 따라 그래픽 처리 해상도를 변경하기 위한 방법 및 휴대용 전자 디바이스
CN106249879A (zh) 一种虚拟现实图像的显示方法及终端
CN106201222A (zh) 一种虚拟现实界面的显示方法及终端
CN106227752A (zh) 一种相片分享方法及终端
CN106201213A (zh) 一种虚拟现实焦点的控制方法及终端
CN106231190A (zh) 一种基于前后摄像头双开的成像方法及终端
CN106227396A (zh) 一种显示信息的方法及终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20161207