CN111949904B - 一种基于浏览器的数据处理方法、装置以及终端 - Google Patents
一种基于浏览器的数据处理方法、装置以及终端 Download PDFInfo
- Publication number
- CN111949904B CN111949904B CN201910407796.5A CN201910407796A CN111949904B CN 111949904 B CN111949904 B CN 111949904B CN 201910407796 A CN201910407796 A CN 201910407796A CN 111949904 B CN111949904 B CN 111949904B
- Authority
- CN
- China
- Prior art keywords
- target object
- behavior data
- model
- display
- operation behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
- G06F16/9577—Optimising the visualization of content, e.g. distillation of HTML documents
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种基于浏览器的数据处理方法、装置以及终端,该方法包括:响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象。采用本发明实施例,可以丰富展品的展示方式,且可以提高浏览效率。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于浏览器的数据处理方法、装置以及终端。
背景技术
随着互联网的发展,越来越多展品在线上进行展览,以供展览者随时随地在线上查看展品。
现有技术中,展品展示方式可以通过对真实展品的各视角进行拍摄,将拍摄的图片数据与展品对应的文字描述上传至线上,以使展览者在线上查看展品信息。可见,线上展示的仅为展品的图片与文字描述,对于展品的展示形式过于单一;而且展览者若要浏览展品和展馆的全貌,需要查看展品和展馆的大量图片数据和文字描述,进而导致浏览效率低下。
发明内容
本发明实施例提供一种基于浏览器的数据处理方法和装置,可以丰富展品的展示方式,且可以提高浏览效率。
本发明实施例一方面提供了一种基于浏览器的数据处理方法,包括:
响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;
获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象。
其中,所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象,包括:
获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数;
在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象。
其中,所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数,包括:
获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;
根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数。
其中,所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数,包括:
获取针对所述浏览器所属终端设备的第一操作行为数据,基于所述第一操作行为数据确定在终端屏幕中所选择的标签类型;
从方位参数表中获取与所述标签类型相匹配的视觉方位参数;所述方位参数表包括多个标签类型分别对应的视觉方位参数。
其中,所述第二操作行为数据包括旋转操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:
响应针对所述目标对象的旋转操作,获取所述目标对象对应的对象旋转速度与对象旋转角度;
根据所述对象旋转速度与所述对象旋转角度,确定所述目标对象对应的对象方位参数;
根据所述对象方位参数,在所述展示页面中显示所述目标对象。
其中,所述第二操作行为数据包括详情触发操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:
响应针对所述目标对象的详情触发操作,调用所述目标对象对应的详情描述信息;
创建覆盖所述目标对象的信息展示窗口,在所述信息展示窗口中显示所述详情描述信息。
其中,所述第二操作行为数据包括拆解触发操作或组合触发操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:
响应针对所述目标对象的拆解触发操作,在所述展示页面中创建动画展示区域,并在所述动画展示区域显示所述目标对象对应的组件拆解动画;
响应针对拆解后的目标对象的组合触发操作,在所述动画展示区域显示所述目标对象对应的组件组合动画。
其中,所述方法还包括:
若将所述物体模型封装为第一分享网页标识,则将所述第一分享网页标识发送至交互平台,以使所述交互平台中的目标终端通过所述第一分享网页标识访问所述物体模型;
若将所述目标对象封装为第二分享网页标识,则将所述第二分享网页标识发送至所述交互平台,以使所述交互平台中的所述目标终端通过所述第二分享网页标识访问所述目标对象。
其中,所述方法还包括:
获取多个对象的三维模型数据以及承载所述多个对象的容器的三维模型数据,根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型。
其中,所述三维引擎包括网页三维引擎与可视化三维引擎;
所述根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型,包括:
在所述可视化三维引擎中,获取所述三维模型数据对应的展示效果模型,将所述展示效果模型转换成所述网页三维引擎对应的格式类型,将格式转换后的展示效果模型输入网页三维引擎中;
在所述网页三维引擎中,基于所述浏览器中的增强现实控件,生成所述展示效果模型对应的物体模型,输出所述物体模型对应的网页标识。
本发明实施例一方面提供了一种基于浏览器的数据处理装置,包括:
响应请求模块,用于响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;
对象确定模块,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
对象显示模块,用于获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象。
其中,所述对象确定模块包括:
视觉方位参数确定单元,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数;
展示区域显示单元,用于在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
选择操作响应单元,用于响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象。
其中,所述视觉方位参数确定单元包括:
信息获取子单元,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;
第一确定子单元,用于根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数。
其中,所述视觉方位参数确定单元包括:
标签类型获取子单元,用于获取针对所述浏览器所属终端设备的第一操作行为数据,基于所述第一操作行为数据确定在终端屏幕中所选择的标签类型;
第二确定子单元,用于从方位参数表中获取与所述标签类型相匹配的视觉方位参数;所述方位参数表包括多个标签类型分别对应的视觉方位参数。
其中,所述第二操作行为数据包括旋转操作;
所述对象显示模块包括:
旋转操作响应单元,用于响应针对所述目标对象的旋转操作,获取所述目标对象对应的对象旋转速度与对象旋转角度;
对象方位参数确定单元,用于根据所述对象旋转速度与所述对象旋转角度,确定所述目标对象对应的对象方位参数;
目标对象显示单元,用于根据所述对象方位参数,在所述展示页面中显示所述目标对象。
其中,所述第二操作行为数据包括详情触发操作;
所述对象显示模块包括:
详情操作响应单元,用于响应针对所述目标对象的详情触发操作,调用所述目标对象对应的详情描述信息;
详情描述显示单元,用于创建覆盖所述目标对象的信息展示窗口,在所述信息展示窗口中显示所述详情描述信息。
其中,所述第二操作行为数据包括拆解触发操作或组合触发操作;
所述对象显示模块包括:
拆解操作响应单元,用于响应针对所述目标对象的拆解触发操作,在所述展示页面中创建动画展示区域,并在所述动画展示区域显示所述目标对象对应的组件拆解动画;
组合操作响应单元,用于响应针对拆解后的目标对象的组合触发操作,在所述动画展示区域显示所述目标对象对应的组件组合动画。
其中,所述装置还包括:
分享模块,用于若将所述物体模型封装为第一分享网页标识,则将所述第一分享网页标识发送至交互平台,以使所述交互平台中的目标终端通过所述第一分享网页标识访问所述物体模型;
所述分享模块,还用于若将所述目标对象封装为第二分享网页标识,则将所述第二分享网页标识发送至所述交互平台,以使所述交互平台中的所述目标终端通过所述第二分享网页标识访问所述目标对象。
其中,所述装置还包括:
模型生成模块,用于获取多个对象的三维模型数据以及承载所述多个对象的容器的三维模型数据,根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型。
其中,所述三维引擎包括网页三维引擎与可视化三维引擎;
所述模型生成模块包括:
格式转换单元,用于在所述可视化三维引擎中,获取所述三维模型数据对应的展示效果模型,将所述展示效果模型转换成所述网页三维引擎对应的格式类型,将格式转换后的展示效果模型输入网页三维引擎中;
网页标识输出单元,用于在所述网页三维引擎中,基于所述浏览器中的增强现实控件,生成所述展示效果模型对应的物体模型,输出所述物体模型对应的网页标识。
本发明实施例一方面提供了一种终端,包括:处理器和存储器;
所述处理器和存储器相连,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如本发明实施例中一方面中的方法。
本发明实施例一方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如本发明实施例中一方面中的方法。
本发明实施例通过响应浏览器中针对网页标识的访问请求,获取该网页标识对应的物体模型,采用摄像头采集环境图像数据,在浏览器的展示页面中对该物体模型和环境图像数据进行增强现实显示,通过获取用户针对该浏览器所属终端设备的第一操作行为数据,可以在展示页面中切换显示上述物体模型的内景中的展示区域,可以从该展示区域中确定目标对象,进而可以获取用户针对该目标对象的第二操作行为数据,根据第二操作行为数据对该目标对象进行显示。可见,在模型数据(即目标对象或物体模型)展示过程中,可以采用增强现实技术,在浏览器中的展示页面上对环境图像数据与模型数据进行增强现实显示,可以响应用户针对模型数据的触发操作,对模型数据进行相应的显示,可以丰富模型数据的展示方式;用户可以在浏览器的展示页面中,直接对对象的三维模型数据进行操作,以查看对象的全貌以及对象的详情描述信息,进而可以提高浏览效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于浏览器的数据处理方法的场景示意图;
图2是本发明实施例提供的一种基于浏览器的数据处理方法的流程示意图;
图3a-图3c是本发明实施例提供的一种基于第二操作行为数据显示目标对象的界面示意图;
图4是本发明实施例提供的另一种基于浏览器的数据处理方法的流程示意图;
图5a-图5c是本发明实施例提供的一种获取物体模型的方法的界面示意图;
图6是本发明实施例提供的一种灯光渲染实现示意图;
图7是本发明实施例提供的一种引擎实现方法的流程示意图;
图8a以及图8b是本发明实施例提供的一种基于浏览器的数据处理方法的界面示意图;
图9是本发明实施例提供的一种基于浏览器的数据处理装置的结构示意图;
图10是本发明实施例提供的一种终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,是本发明实施例提供的一种基于浏览器的数据处理方法的场景示意图。由于建立一个实体展馆的成本高昂,且对于远距离的参展者,去实体展馆参观展品需要耗费大量的时间和金钱,因此可以创建一个线上博物馆,可以降低成本,为参展者避免时间和金钱的浪费。如图1所示,终端设备100a中的界面10a可以表示为线上博物馆的首页,该线上博物馆可以采用增强现实技术(Augmented Reality,AR),模拟人在博物馆中行走浏览,也可以称为AR线上博物馆(即可以通过虚拟现实的技术将博物馆场景在线上实现)。用户可以通过点击界面10a上的浏览器入口10b,以使终端设备100a根据用户的点击操作生成访问请求。终端设备100a在生成针对该线上博物馆的访问请求后,可以将该访问请求发送至浏览器(如QQ浏览器等)对应的后台服务器,后台服务器返回该访问请求所请求的线上博物馆数据到终端设备100a,使得终端设备100a可以进入该线上博物馆的展示页面13a。当然,用户还可以通过终端设备100a中的其他软件(如微信、QQ等)扫描界面10a中的二维码10c,以使终端设备100a生成针对线上博物馆的访问请求,终端设备100a可以将生成的访问请求发送至其他软件对应的后台服务器,在接收到后台服务器返回该访问请求所请求的线上博物馆数据后,可以从其他软件中进入该线上博物馆的展示页面13a。终端设备100a可以获取线上博物馆数据中的三维物体模型12a,并通过浏览器调用该终端设备100a的摄像头,采用摄像头采集环境图像数据11a(即现场的实时图像),利用增强现实技术,可以将三维物体模型12a叠加到环境图像数据11a中,并在展示页面13a中显示叠加后的图像。其中,AR技术是一种实时地计算摄影机影像的位置及角度,并加上相应图像、视频、三维模型的技术,AR技术的目标是在终端设备的屏幕上,把虚拟世界套在现实世界并进行互动,即将三维显示信息叠加在实时图像的相应位置处进行显示。
对于线上博物馆的三维物体模型12a,可以用不同的标识信息表示三维物体模型12a中不同的展厅(也可以称为展示区域)。例如,线上博物馆的第一展厅可以用标识13b表示,该第一展厅可以用于展示秦始皇兵马俑;线上博物馆的第二展厅可以用标识13c表示,该第二展厅可以用于展示甘肃彩陶等。设备可以根据用户行走过程中终端设备100a的位置信息(即响应用户的操作行为数据),进入线上博物馆内景中的展厅(即可以通过用户在现实中的行走路径模拟用户进入线上博物馆的展厅中),还可以通过用户所选择的标识,直接进入线上博物馆内景中的展厅,展厅中不仅可以包括展品对应的三维模型数据,还可以包括线上博物馆内景中的展厅设计结构,例如陈列展品的展台、内景中的装潢等,因此在展示页面13a中,可以显示线上博物馆内景中的展厅的内部结构(包括展品的三维模型和展厅设计结构)。另外,在展示页面13a中还可以将展厅中展品的三维模型数据叠加在环境图像数据中进行显示(例如,可以通过对展厅的内部结构进行透明化,以在背景中显示出环境图像数据),如图1所示,以环境图像数据作为展示页面13a的背景信息为例,显示展厅中多个展品的三维模型数据。如进入的展厅为秦始皇兵马俑展厅时,可以在展示页面13a中显示跪射俑14a和武士俑14b等。获取用户在终端设备100a的屏幕上的滑动等操作,确定目标展品(即用户想要查看的展品,也可以称为目标对象,如将跪射俑14a确定为目标展品)。用户可以对目标展品进行操作,查看该目标展品的相应信息,如目标展品的全貌、详情描述信息等。需要说明的是,在进入展示页面13a后,终端设备100a的摄像头可以实时采集环境图像数据11a,即随着用户的走动或者用户对终端设备的操作,采集的环境图像数据11a是实时更新的。另外,若用户无需再浏览展示页面13a中当前显示的展厅或目标展品,则用户可以点击展示页面13a中“返回”按钮,进行重新确定。
其中,终端设备100a可以包括手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,MID)、POS(Point Of Sales,销售点)机、可穿戴设备(例如智能手表、智能手环等)或其他具有安装浏览器功能的终端设备。
请参见图2,是本发明实施例提供的一种基于浏览器的数据处理方法的流程示意图。如图2所示,该基于浏览器的数据处理方法可以包括以下步骤:
步骤S101,响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;
具体的,在完成物体模型的创建后,可以生成该物体模型对应的网页标识,用户可以通过点击或扫描网页标识以使终端设备生成访问请求,终端设备可以将访问请求发送至浏览器对应的后台服务器,进而可以接收该后台服务器返回该访问请求所请求的物体模型,并利用浏览器调用终端设备的摄像头,采用摄像头实时采集环境图像数据,将获取的物体模型叠加到环境图像数据的相应位置(即物体模型可以覆盖环境图像数据中的部分数据),并在上述浏览器的显示页面中进行显示。换言之,在浏览器的显示页面中,即可以显示实时的环境图像数据,也可以显示虚拟三维显示信息(即物体模型)。
其中,物体模型可以包括多个对象的三维模型数据,以及承载上述多个对象的容器的三维模型数据,以物体模型是指线上博物馆为例,上述物体模型既可以包括多个文物分别对应的三维模型数据,还可以包括承载上述多个文物的博物馆的三维建筑模型。网页标识可以包括网址、二维码中的任一种,当网页标识为网址时,用户可以通过在浏览器中输入网址,以使终端设备生成访问请求;当网页标识为二维码时,用户可以通过软件应用(如微信等具有二维码扫描功能的应用)扫描二维码,以使终端设备生成访问请求;当网页标识同时包括网址和二维码时,用户既可以选择在浏览器中输入网址,也可以选择通过软件应用扫描二维码,以使终端设备生成访问请求。
需要说明的是,由于浏览器具有调用终端设备摄像头的权限,且浏览器的底层开发封装了增强现实软件开发工具,因此用户在浏览器中输入网址以使终端设备生成访问请求后,浏览器可以根据终端设备生成的访问请求,调用终端设备的摄像头实现增强现实能力。若用户通过软件应用扫描二维码,且该应用软件没有权限调用终端设备的摄像头,或者该应用软件的底层开发没有封装增强现实软件开发工具,则无法实时采集环境图像数据,并将物体模型叠加到环境图像数据中,因此在展示页面中仅展示物体模型数据,但可以通过终端设备的陀螺仪来模拟实现物体模型内景漫游。为方便描述,下面均在浏览器具有调用终端设备摄像头的权限且封装了增强现实软件开发工具的前提下进行具体描述。
步骤S102,获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
具体的,在浏览器的展示页面中对物体模型和环境图像数据进行增强现实显示后,用户可以对该浏览器所属的终端设备进行操作,在用户对该终端设备进行操作的过程中,终端设备可以获取用户针对该终端设备的第一操作行为数据,该第一操作行为数据可以包括但不限于通过手指或触控笔或鼠标在该终端设备的屏幕上执行滑动操作、通过手指或触控笔或鼠标在该终端设备的屏幕上执行点击操作、对该终端设备执行旋转操作以及对该终端设备执行移动操作(执行移动操作的过程可以是指用户手持终端设备在现实场景中行走的过程),在执行移动操作时,终端设备中的陀螺仪可以记录用户行走过程中,该终端设备移动的位移信息和角度信息。根据第一操作行为数据,可以在展示页面中切换显示该物体模型的内景中的展示区域,并可以从展示区域中确定用户需要查看的对象(即目标对象)。例如,用户在终端设备的屏幕上执行滑动操作时,终端设备可以调用浏览器中集成的AR能力,模拟用户在展示页面所示场景中漫步行走,用户在屏幕上向左滑动,可以模拟用户在展示页面所示场景中向左行走,用户在屏幕上向右滑动,可以模拟用户在展示页面所示场景中向右行走,用户在屏幕上向上滑动,可以模拟用户在展示页面所示场景中向前行走;用户对该终端设备执行旋转操作时,可以模拟用户在展示页面所示场景中改变视觉角度,并且可以根据终端设备中的陀螺仪记录该终端设备的旋转角度,可以根据旋转角度模拟用户在展示页面所示场景中视觉角度的变化;用户对该终端设备执行移动操作时,可以根据该终端设备在现实场景中移动的距离和方向,模拟用户在展示页面所示场景中的行走距离和方向等。根据上述操作,可以在展示页面中切换显示物体模型的内景中的展示区域,并确定目标对象,即模拟用户从物体模型外面进入物体模型内部,并确定目标对象的过程。
步骤S103,获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象。
具体的,在确定了目标对象后,可以在浏览器的展示页面中显示该目标对象。用户可以对展示页面中显示的目标对象进行操作,在用户对目标对象进行操作的过程中,终端设备可以获取用户针对该目标对象的第二操作行为数据(这里的第二操作行为数据是为了区分步骤S102中的第一操作行为数据,第二操作行为数据是指用户针对目标对象的操作数据,即该第二操作行为数据可以用于对目标对象进行查看并显示,第一操作行为数据是指用户针对终端设备的操作数据,即该第一操作行为数据可以用于模拟用户在虚拟场景中进行漫步行走),根据第二操作行为数据,在展示页面中显示目标对象,例如,可以根据第二操作行为数据来确定展示页面中显示的是目标对象的背面还是正面,或者是侧面等。
进一步的,请参见图3a-图3c,是本发明实施例提供的一种基于第二操作行为数据显示目标对象的界面示意图。如图3a-图3c所示,步骤S201-步骤S206是对上述图2所对应实施例中步骤S103的具体描述,即步骤S201-步骤S206是本发明实施例提供的一种基于第二操作行为数据显示目标对象的具体流程。
以物体模型是指线上博物馆为例,当第二操作行为数据包括旋转操作时,如图3a所示,基于第二操作行为数据显示目标对象可以包括以下步骤:
步骤S201,响应针对所述目标对象的旋转操作,获取所述目标对象对应的对象旋转速度与对象旋转角度;
具体的,在浏览器的展示页面中可以显示目标对象32a,若用户想要查看目标对象32a的全貌,用户通过在终端设备的屏幕上点击目标对象32a对应的区域31a中的圆点按钮,并按住该圆点按钮旋转手指,可以对目标对象32a进行360度旋转缩放查看。当用户点击区域31a中的圆点按钮并按住旋转时,终端设备可以响应针对该目标对象32a的旋转操作,获取该目标对象32a对应的对象旋转速度和对象旋转角度,对象旋转速度可以根据用户手指旋转的快慢来决定,用户手指旋转越快,对象旋转速度也越快;对象旋转角度可以根据用户手指转动的角度信息来决定,用户手指转动的角度与对象旋转角度成正比例关系,若用户手指旋转的角度用a来表示,则对象旋转角度可以表示为k*a(k可以表示为大于0的数值)。例如,k=4时,用户手指旋转的角度a=22.5度时,对象旋转角度为90度。
步骤S202,根据所述对象旋转速度与所述对象旋转角度,确定所述目标对象对应的对象方位参数,根据所述对象方位参数,在所述展示页面中显示所述目标对象;
具体的,可以根据上述对象旋转速度与对象旋转角度,确定目标对象32a对应的对象方位参数,该对象方位参数可以包括目标对象32a实时的旋转角度,旋转速度以及旋转方向。根据对象方位参数,可以在展示页面中对目标对象32a进行显示。例如,对象旋转角度为用户手指旋转角度的4倍(即k=4),即用户手指在旋转90度的过程中,目标对象32a可以完成360度的全视角旋转。若用户手指在终端设备的屏幕上顺时针旋转22.5度,则在展示页面上可以显示目标对象32a从最初的正面图像顺时针旋转90度的旋转动画,并在用户旋转22.5度时,显示该目标对象32a旋转90度所对应的侧面图像;若用户继续旋转手指,直至手指旋转角度为45度,则在展示界面上可以继续显示目标对象32a从90度所处的侧面图像顺时针旋转的动画,并在用户旋转45度时,显示该目标对象32a旋转180度所对应的背面图像。当然,若用户不想再继续查看目标对象32a,则可以点击展示页面中的“返回”按钮,从展示页面中退出该目标对象32a的展示。
可选的,可以预先设定目标对象32a的对象方位参数,若用户想要查看目标对象32a的全貌,只需使用手指在终端设备的屏幕上点击目标对象32a对应的区域31a中的圆点按钮,即可对目标对象32a进行360度旋转缩放查看。换言之,用户点击区域31a中的圆点按钮后,终端设备可以响应针对该目标对象32a的旋转操作,以预先设定好的旋转角度、旋转速度、旋转方向进行360度的旋转,即用户无需按住区域31a中的圆点按钮进行旋转即可实现目标对象32a的360度旋转动画。
以物体模型是指线上博物馆为例,当第二操作行为数据包括详情触发操作时,如图3b所示,基于第二操作行为数据显示目标对象可以包括以下步骤:
步骤S203,响应针对所述目标对象的详情触发操作,调用所述目标对象对应的详情描述信息;
具体的,若用户想要了解目标对象32b的详细描述信息,用户可以在展示页面中该目标对象32b所在区域上划(即详情触发操作),以使终端设备调用该目标对象32b对应的详情描述信息进行显示。当用户执行详情触发操作(如区域33a中的上划痕迹)时,终端设备可以响应针对该目标对象32b的详情触发操作,调用出该目标对象32b对应的详情描述信息34a。例如,目标对象32b为秦始皇兵马俑中的跪射俑,用户对展示页面中的目标对象32b进行上划操作时,终端设备可以调用出该跪射俑的详细描述信息为“跪射俑出土于秦兵马俑二号坑东端的弩兵阵中心,身穿战袍,外披铠甲,头顶左侧绾一发髻,左腿曲蹲,右膝着地,跪射武士俑的塑造比起一般的陶俑要更加精细,对表情神态和发髻、甲片、履底等的刻画生动传神,并且文物原本的彩绘保存状况极好,真实表现了秦军作战的情景。…”。
需要说明的是,每个目标对象均对应各自的详情描述信息,该详情描述信息可以是预先匹配好的,并存储在云端数据库中,在终端设备响应针对目标对象的详情触发操作后,可以根据该目标对象的标识信息(如目标对象的编号,每个目标对象均对应一个唯一的编号)从云端数据库中读取该目标对象对应的数据。当然,详情描述信息还可以是根据目标对象的名称从互联网上实时获取,这里不做限定。
步骤S204,创建覆盖所述目标对象的信息展示窗口,在所述信息展示窗口中显示所述详情描述信息;
具体的,在终端设备调用了目标对象32b对应的详情描述信息34a后,可以在展示页面创建一个覆盖目标对象32b的信息展示窗口35a,并在信息展示窗口35a中显示上述详情描述信息35a。信息展示窗口35a可以包括两个部分:区域35b和区域35c,区域35b中可以显示目标对象32b的详细介绍,区域35c中可以显示目标对象32b的关键信息(如目标对象32b的名称、年代、尺寸、出土地点等信息)。可以理解的是,若目标对象32b对应的详细介绍内容较多,在信息展示窗口35a的区域35b中无法进行全部显示,则用户可以在区域35b中进行翻页,来查看目标对象32b的全部详情描述信息。
以物体模型是指线上博物馆为例,当第二操作行为数据包括拆解触发操作或组合触发操作时,如图3c所示,基于第二操作行为数据显示目标对象可以包括以下步骤:
步骤S205,响应针对所述目标对象的拆解触发操作,在所述展示页面中创建动画展示区域,并在所述动画展示区域显示所述目标对象对应的组件拆解动画;
具体的,对于功能性的目标对象32c(如目标对象32c可以用于在夜晚点油灯),用户可以在展示页面中对目标对象32c执行拆解触发操作,该拆解触发操作可以是指用户长按目标对象32c所在区域,弹出菜单,用户选择拆解选项,进而显示该目标对象32c的拆解动画;拆解触发操作也可以是指点击该触发按钮(对于所有功能性的对象,均设置有一个拆解触发按钮),显示该目标对象32c的拆解动画;拆解触发操作还可以是指用户输入一个特定的手势(如在该目标对象32c所在显示页面的屏幕上方伸开手掌等),触发终端设备显示该目标对象32c的拆解动画;拆解触发操作还可以是指其余针对目标对象的操作(除上述旋转操作和详情描述信息之外的操作),这里不做限定。在用户对目标对象32c执行拆解触发操作时,终端设备可以在展示页面中创建动画展示区域,并在动画展示区域中显示该目标对象32c对应的组件拆解动画,即可以通过三维模拟,得到一组构成目标对象32c的组件,如组件36a、组件36b以及组件36c。
步骤S206,响应针对拆解后的目标对象的组合触发操作,在所述动画展示区域显示所述目标对象对应的组件组合动画。
具体的,在动画展示区域展示了目标对象32c对应的组件拆解动画后,用户可以对拆解后的目标对象32c执行组合触发操作,该组合触发操作可以是指对拆解后的目标对象32c所在区域进行的操作,具体的操作方式可以参见上述拆解触发操作的描述,这里不再进行赘述。当用户对拆解后的目标对象32c执行组合触发操作后,可以在动画展示区域显示目标对象32c的组件组合动画,可以模拟该目标对象32c的使用场景。通过上述组件拆解动画和组件组合动画,可以使用户直观地了解目标对象32c的使用场景、结构组成以及工作原理。其中,目标对象32c对应的组件拆解动画和组件组合动画可以是预先制作好的,当终端设备获取到用户的拆解触发操作时,可以调用该目标对象32c对应的组件拆解动画,并在动画展示区域进行显示;当终端设备获取到用户的组合触发操作时,可以调用该目标对象32c对应的组件组合动画,并在动画展示区域进行显示。
需要说明的是,为方便描述,本发明实施中描述的第一操作行为数据与第二操作行为数据,均是在终端设备的显示屏具有触摸功能的前提下进行的,对于显示屏不具备触摸功能的终端设备,凡是上述提及的使用用户手指进行点击或滑动等操作,均可以使用其余设备(如鼠标、触控笔等)进行,这里不再进行赘述。
本发明实施例通过响应浏览器中针对网页标识的访问请求,获取该网页标识对应的物体模型,采用摄像头采集环境图像数据,在浏览器的展示页面中对该物体模型和环境图像数据进行增强现实显示,通过获取用户针对该浏览器所属终端设备的第一操作行为数据,可以在展示页面中切换显示上述物体模型的内景中的展示区域,可以从该展示区域中确定目标对象,进而可以获取用户针对该目标对象的第二操作行为数据,根据第二操作行为数据对该目标对象进行显示。可见,在模型数据(即目标对象或物体模型)展示过程中,可以采用增强现实技术,在浏览器中的展示页面上对环境图像数据与模型数据进行增强现实显示,可以响应用户针对模型数据的触发操作,对模型数据进行相应的显示,可以丰富模型数据的展示方式;用户可以在浏览器的展示页面中,直接对对象的三维模型数据进行操作,以查看对象的全貌以及对象的详情描述信息,进而可以提高浏览效率。
请参见图4,是本发明实施例提供的另一种基于浏览器的数据处理方法的流程示意图。如图4所示,该基于浏览器的数据处理方法可以包括以下步骤:
步骤S301,获取多个对象的三维模型数据以及承载所述多个对象的容器的三维模型数据;
具体的,对于存在实物的对象,可以采用专业设备直接采集对象的三维模型数据,并将专业设备采集的三维模型数据导入到终端设备中。请一并参见图5a,是本发明实施提供的一种获取物体模型的方法的界面示意图。如图5a所示,对于实物42a,可以将专业设备43a(一种专门用于采集三维模型数据的设备)连接到终端设备上,采用专业设备43a采集实物42a的三维模型数据,并将采集到的三维模型数据导入终端设备,可以在终端设备的屏幕41a中实时显示采集到的三维模型数据。换言之,专业设备43a通过对实物42a的各个方向进行扫描,并将采集到的数据实时显示在屏幕41a中(如三维模型数据42b即为实物42a的一部分三维模型数据),当专业设备43a对实物42a的各个方向均进行了扫描时,可以获得该实物42a的完整三维模型数据。由于采用专业设备直接采集的三维模型数据过大,不利于在网页上进行显示,因此需要优化上述获取的三维模型数据,即可以在不影响视觉效果的前提下,通过减少三维模型的网格面(网格面可以看成是一种记录三维模型数据的方式,三维模型数据的网格面越多,三维模型的数据量越大,三维模型包含的细节越多,三维模型数据的网格面越少,三维模型的数据量越小,三维模型包含的细节也减少),达到优化三维模型数据的效果。请一并参见图5b,是本发明实施例提供的一种获取物体模型的方法的界面示意图。如图5b所示,三维模型42c是通过专业设备直接采集得到的原始三维模型数据(数据大小为255M),三维模型42d是对三维模型42c优化过后的三维模型数据(数据大小为635K)。为了对比原始三维模型数据与优化后的三维模型数据之间的区别,可以对三维模型42c(即原始三维模型数据)和三维模型42d(即优化后的三维模型数据)的同一个部位(三维模型42c中的部位44a和三维模型42d中的部位44b)进行放大,显然三维模型42c中的部位44a的网格面数大于三维模型42d中的部位44b的网格面数,达到了降低数据量的效果。
对于不存在实物的对象(即已经消失的对象,只有文字和图片资料)以及承载多个对象的容器,可以通过三维软件Maya(一种三维动画软件)生成三维模型。Maya软件可以使用多边形建模的方式来构造三维模型,多边形建模是一种常见的建模方式,可以通过对该多边形对象的各种子对像进行编辑和修改来实现建模过程。对于可编辑多边形对象,可以包含Vertex(点)、Edge(边)、Polygon(多边形面)。从原则上来说,多边形面数越多,三维模型的数据量越大。由于构建三维模型的最终目的是为了在网页上进行展示,且在网页上为用户提供实时下载浏览功能,基于目前的网络下载速度与现有的测试结果,需要将包含所有三维模型的数据包控制在20M左右(即将下载时长控制在用户可接受的等待时间范围之内),因此需要在20M这个数据量的前提下,来构造三维模型,避免三维模型的数据量过大。
以线上博物馆为例,上述多个对象的三维模型数据可以是指多个文物对应的三维模型数据,对于存在实物的文物,可以采用博物馆的专业设备直接采集文物的三维模型数据,并在Maya软件中对专业设备直接采集的原始三维模型数据进行优化(即减少模型网格面);对于已经消失的文物,可以根据文物的文字介绍和图片资料,利用三维数字化技术进行复原,即构建已消失文物对应的三维模型。在获取到线上博物馆中所有文物对应的三维模型数据后,还需要利用Maya软件生成承载所有文物的博物馆(即承载所述多个对象的容器)的三维建筑模型。在三维建筑模型的构造过程中,可以绘制出博物馆建筑的线框模型(wire frame model),线框模型是三维计算机图形中的物体的可视化表示方法,可以利用建筑形体的棱边和顶点来表示几何形状的一种模型,可以反映出博物馆的轮廓。在线框模型中,无法对模型进行着色、消隐(消除模型中的隐藏线和隐藏面)、渲染。可以在线框模型的基础上添加表面,获得博物馆的表面模型(也可以称为素模),在表面模型中,可以对模型进行着色、消隐、渲染,进而可以得到真实博物馆的视觉效果。请一并参见图5c,是本发明实施例提供的一种获取物体模型的方法的界面示意图。如图5c所示,若线框模型45a表示博物馆对应的线框模型,该线框模型45a可以通过棱边和顶点反映博物馆的轮廓,通过对线框模型45a添加表面,可以得到素模45b,在该素模45b中,可以消除模型中的隐藏线和隐藏面,并可以进行进一步的着色和渲染。
步骤S302,在所述可视化三维引擎中,获取所述三维模型数据对应的展示效果模型,将所述展示效果模型转换成所述网页三维引擎对应的格式类型,将格式转换后的展示效果模型输入网页三维引擎中;
具体的,在通过Maya软件生成多个对象的三维模型数据,以及承载所述多个对象的容器的三维模型数据(采用专业设备直接采集的三维模型数据也需要采用Maya软件进行数据优化处理)后,可以将Maya软件生成的三维模型数据导出到三维引擎中,采用三维引擎对三维模型数据进行开发,并集成浏览器中封装的增强现实能力,可以结合Web3D(网络三维)和AR技术在线上实现对象展览。其中,三维引擎是在图形设备接口基础上开发的一套易用、高效的三维模型数据渲染的核心组件;Web3D是一种在虚拟现实技术的基础上,将现实世界中有形的物品通过互联网进行虚拟的三维立体展示并可互动浏览操作的一种虚拟现实技术。相比起目前网上主流的以图片、动画的展示方式来说,Web3D技术让用户有了浏览的自主感,可以以自己的角度去观察,还有许多虚拟特效和互动操作。
对于Maya软件导出的三维模型数据,可以对上述三维模型数据进行灯光渲染,由于三维引擎渲染属于实时渲染,灯光的拟真度不高,且不支持全局照明,因此可以使用电影级渲染器Arnold(一种渲染软件)进行灯光制作,再把灯光信息烘焙到每一张贴图上,最终在三维引擎当中调用灯光贴图来模拟真实感的渲染效果。请一并参见图6,是本发明实施例提供的一种灯光渲染实现示意图。如图6所示,以线上博物馆为例,可以在Maya软件中生成线框模型51a,并在线框模型51a的基础上添加表面,得到素模52a。素模52a中可以反映出线上博物馆的大致视觉效果,通过渲染器53a(如Arnold等)对素模52a进行灯光制作,把灯光信息烘焙到每一张贴图上,并输出灯光贴图54a,在三维引擎中,可以调用灯光贴图54a,进行三维引擎效果55a展示。
为了更好地实现对象展示的效果,三维引擎可以包括网页三维引擎(如laya,一种网页端引擎)和可视化三维引擎(如unity,一种游戏引擎,可以在界面上进行可视化操作,用于对Maya软件导出的三维模型数据进行文件整理和效果制作)。换言之,终端设备可以将从Maya软件中导出的三维模型数据输入至可视化三维引擎中,通过调用Arnold输出的灯光贴图,对上述三维模型数据进行文件整理和效果制作。在可视化三维引擎中,每执行一步操作(如修改某一参数等),均可以在终端设备的屏幕上显示相应的效果展示,即在开发过程中,可以根据实际的效果展示对三维模型进行效果制作,获得三维模型数据对应的展示效果模型。由于可视化三维引擎中展示效果模型的格式不能被网页三维引擎所使用,因此可以使用网页三维引擎中的可视化三维引擎插件导出工具LayaAirUnityPlugin_beta.unitypackage(laya引擎官方提供的一个unity引擎插件导出工具),将可视化三维引擎中的展示效果模型转换成网页三维引擎对应的格式类型,并将格式转换后的展示效果模型输入网页三维引擎中。
步骤S303,在所述网页三维引擎中,基于所述浏览器中的增强现实控件,生成所述展示效果模型对应的物体模型,输出所述物体模型对应的网页标识;
具体的,由于浏览器底层开发封装了增强现实软件开发工具包,因此网页三维引擎在开发过程中,可以调用浏览器中的增强现实软件开发工具包(即增强现实控件)以及终端设备的陀螺仪,可以生成上述展示效果模型对应的物体模型,并输出该物体模型对应的网页标识。
需要说明的是,物体模型可以是指通过实拍全景图,基于实景采集,生成的实体物体对应的物体模型;也可以是指通过三维制作软件构造的一个不存在实物的物体模型。
请一并参见图7,是本发明实施例提供的一种引擎实现方法的流程示意图。如图7所示,三维建模软件输出三维模型61a可以是指Maya软件将制作的三维模型以及优化的三维模型进行导出,并将导出的三维模型输入unity引擎(即可视化三维引擎),采用unity引擎对上述三维模型进行文件整理62a,在文件整理62a的过程中,需要使用着色器(shader,本质上是一段执行在图形处理器上的程序,该程序使用特定编程语言进行编写)开发63a。换言之,unity引擎进行文件整理62a时,需要采用着色器的特定编程语言glsl(一种编程语言)来进行编写程序,在unity引擎完成三维模型的文件整理62a和效果制作后,可以将用glsl语言编写的进行效果制作后的三维模型数据(即展示效果模型)转换成三维引擎着色器64a中的格式,即转换成三维引擎laya可以读取的格式。将转换格式后的展示效果模型输入laya引擎中,进行三维引擎交互开发65a,在三维引擎交互开发65a中,laya引擎可以调用浏览器集成增强现实能力66a以及终端设备中的陀螺仪68a,生成展示效果模型对应的物体模型,即可以采用陀螺仪68a来记录转动终端设备时,镜头的变化以及用户手指滑动屏幕,模拟用户在物体模型中漫游行走,并输出网址或二维码69a(可以称为网页标识)。用户可以通过网址或二维码69a,进行浏览器增强现实浏览70a,或者使用其他平台(没有封装增强现实软件开发工具包的平台)模拟增强现实浏览71a。其中,浏览器集成增强现实能力66a是由浏览器底层开发封装的增强现实软件开发工具包67a来实现的。
步骤S304,响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;
其中,步骤S304的具体实现过程可以参见上述图2所对应实施例中对步骤S101的描述,这里不再进行赘述。
步骤S305,获取针对所述浏览器所属终端设备的第一操作行为数据,基于所述第一操作行为数据确定在终端屏幕中所选择的标签类型;
具体的,在浏览器的展示页面中,可以显示物体模型和环境图像数据,并物体模型上,可以显示物体模型各展示区域对应的标签类型,如图1所示的标识13b和标识13c,用户可以在浏览器所属终端设备的屏幕上点击标识13b或13c。当用户点击标识13b时,终端设备可以获取针对终端设备的点击操作(即第一操作行为数据),并根据该点击操作确定在终端屏幕中所选择的标识13b对应的标签类型,如标识13b对应的标签类型可以为“秦始皇兵马俑”。
步骤S306,从方位参数表中获取与所述标签类型相匹配的视觉方位参数;所述方位参数表包括多个标签类型分别对应的视觉方位参数;
具体的,终端设备可以从存储的方位参数表中获取与上述标签类型相匹配的视觉方位参数。其中,视觉方位参数是指展示页面中物体模型的当前展示方向到物体模型具体内景展示区域方向的方位参数;方位参数表是指标签类型与视觉方位参数之间的对应关系表,即每个标签类型均对应一个视觉方位参数,如标签类型1可以对应物体模型的左厅入口,标签类型2可以对应物体模型的右厅入口等,标签类型与视觉方位参数之间的对应关系是预先设置好的。
可选的,视觉方位参数还可以根据终端设备的位置变化来确定,可以表示为:获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数。换言之,用户可以通过移动或旋转终端设备来模拟用户从物体模型的外部进入物体模型内景的过程。当用户移动终端设备(用户拿着终端设备在现实场景中行走,或者用户手持终端设备进行移动)或旋转终端设备时,终端设备可以获取到该用户的移动或旋转操作(即第一操作行为数据),并根据上述移动或旋转操作可以采用陀螺仪来记录终端设备对应的位移增量信息与旋转角度信息,进而可以根据位移增量信息与旋转角度信息确定视觉方位参数。简单来说,可以根据终端设备对应的位移增量信息与旋转角度信息,确定用户进入物体模型内景展示区域的方位参数。
步骤S307,在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
具体的,在确定了视觉方位参数后,可以在展示页面中切换显示成与视觉方位参数相匹配的物体模型内景展示区域,在显示的展示区域中,可以展示至少一个对象。例如,物体模型可以表示为一栋教学楼,视觉方位参数可以表示为某一个教室的具体位置信息,展示区域可以表示为一个教室,则根据视觉方位参数可以从教学楼进入,并找到该教室的门口,在教室门口可以显示至少一个课桌(可以看成对象)。
步骤S308,响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象;
具体的,用户可以根据展示区域展示的多个对象,在该展示区域中选择感兴趣的一个对象作为目标对象。当用户在终端设备屏幕上点击某一个对象所在区域,或者滑动屏幕拉近某一个对象时,终端设备可以响应用户针对展示区域的选择触发操作(可以包括上述点击操作或者滑动操作),从展示区域的多个对象中确定用户所选择的目标对象。例如,同样以展示区域为一个教室为例,学生可以直接指定第三排第三个课桌(可以看成是目标对象)作为自己的座位,也可以直接走到第三排第三个课桌并坐下,由此也可以确定第三排第三个课桌为该学生的座位。
步骤S309,获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象;
其中,步骤S309的具体实现过程可以参见上述图2所对应实施例中对步骤S103的描述,或者可以参见上述图3a-图3c所对应实施例中对步骤S201-步骤S206的描述,这里不再进行赘述。
步骤S310,若将所述物体模型封装为第一分享网页标识,则将所述第一分享网页标识发送至交互平台,以使所述交互平台中的目标终端通过所述第一分享网页标识访问所述物体模型;若将所述目标对象封装为第二分享网页标识,则将所述第二分享网页标识发送至所述交互平台,以使所述交互平台中的所述目标终端通过所述第二分享网页标识访问所述目标对象。
具体的,当用户在查看目标对象的过程中,看到特别感兴趣的目标对象,可以将该目标对象或者物体模型分享到交互平台上(如朋友圈、空间、微博等平台)。请一并参见图8a以及图8b,是本发明实施例提供的一种基于浏览器的数据处理方法的界面示意图。如图8a所示,对于目标对象81a,用户长按目标对象81a所在区域,可以在展示页面上的区域82a中显示一个菜单窗口,用户可以选择分享或收藏该目标对象81a,当用户在区域82a中选择分享选项时,终端设备可以将该目标对象81a封装为第一分享网页标识,并将第一分享网页标识发送至交互平台,以使交互平台中的好友可以根据该第一分享网页标识查看该目标对象81a;当用户选择收藏选项时,终端设备可以将该目标对象81a对应的第一分享网页标识存储在浏览器本地存储中。如图8b所示,对于物体模型83a,用户长按物体模型83a所在区域,可以在展示页面上的区域84a中显示一个菜单窗口,用户可以选择分享或收藏该物体模型83a,当用户在区域84a中选择分享选项时,终端设备可以将该物体模型83a封装为第二分享网页标识,并将第二分享网页标识发送至交互平台,以使交互平台中的好友可以根据该第二分享网页标识查看该物体模型83a;当用户选择收藏选项时,终端设备可以将该物体模型83a对应的第二分享网页标识存储在浏览器本地存储中。
本发明实施例通过响应浏览器中针对网页标识的访问请求,获取该网页标识对应的物体模型,采用摄像头采集环境图像数据,在浏览器的展示页面中对该物体模型和环境图像数据进行增强现实显示,通过获取用户针对该浏览器所属终端设备的第一操作行为数据,可以在展示页面中切换显示上述物体模型的内景中的展示区域,可以从该展示区域中确定目标对象,进而可以获取用户针对该目标对象的第二操作行为数据,根据第二操作行为数据对该目标对象进行显示。可见,在模型数据(即目标对象或物体模型)展示过程中,可以采用增强现实技术,在浏览器中的展示页面上对环境图像数据与模型数据进行增强现实显示,可以响应用户针对模型数据的触发操作,对模型数据进行相应的显示,可以丰富模型数据的展示方式;用户可以在浏览器的展示页面中,直接对对象的三维模型数据进行操作,以查看对象的全貌以及对象的详情描述信息,进而可以提高浏览效率;还可以将物体模型或目标对象分享到交互平台上,有利于物体模型的传播。
请参见图9,是本发明实施例提供的一种基于浏览器的数据处理装置的结构示意图。如图9所示,该基于浏览器的数据处理装置1可以包括:响应请求模块10,对象确定模块20,对象显示模块30;
响应请求模块10,用于响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;
对象确定模块20,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
对象显示模块30,用于获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象。
其中,响应请求模块10,对象确定模块20,对象显示模块30的具体功能实现方式可以参见上述图2所对应实施例中的步骤S101-步骤S103,这里不再进行赘述。
请一并参见图9,该基于浏览器的数据处理装置1还可以包括:模型生成模块40,分享模块50;
模型生成模块40,用于获取多个对象的三维模型数据以及承载所述多个对象的容器的三维模型数据,根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型;
分享模块50,用于若将所述物体模型封装为第一分享网页标识,则将所述第一分享网页标识发送至交互平台,以使所述交互平台中的目标终端通过所述第一分享网页标识访问所述物体模型;
所述分享模块50,还用于若将所述目标对象封装为第二分享网页标识,则将所述第二分享网页标识发送至所述交互平台,以使所述交互平台中的所述目标终端通过所述第二分享网页标识访问所述目标对象。
其中,模型生成模块40的具体功能实现方式可以参见上述图4所对应实施例中的步骤S301-步骤S303,分享模块50的具体功能实现方式可以参见上述图4所对应实施例中的步骤S310,这里不再进行赘述。
请一并参见图9,对象确定模块20可以包括:视觉方位参数确定单元201,展示区域显示单元202,选择操作响应单元203;
视觉方位参数确定单元201,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数;
展示区域显示单元202,用于在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
选择操作响应单元203,用于响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象。
其中,视觉方位参数确定单元201,展示区域显示单元202,选择操作响应单元203的具体功能实现方式可以参见上述图4所对应实施例中的步骤S305-步骤S308,这里不再进行赘述。
请一并参见图9,对象显示模块30可以包括:旋转操作响应单元301,对象方位参数确定单元302,目标对象显示单元303,详情操作响应单元304,详情描述显示单元305,拆解操作响应单元306,组合操作响应单元307;
旋转操作响应单元301,用于响应针对所述目标对象的旋转操作,获取所述目标对象对应的对象旋转速度与对象旋转角度;
对象方位参数确定单元302,用于根据所述对象旋转速度与所述对象旋转角度,确定所述目标对象对应的对象方位参数;
目标对象显示单元303,用于根据所述对象方位参数,在所述展示页面中显示所述目标对象;
详情操作响应单元304,用于响应针对所述目标对象的详情触发操作,调用所述目标对象对应的详情描述信息;
详情描述显示单元305,用于创建覆盖所述目标对象的信息展示窗口,在所述信息展示窗口中显示所述详情描述信息;
拆解操作响应单元306,用于响应针对所述目标对象的拆解触发操作,在所述展示页面中创建动画展示区域,并在所述动画展示区域显示所述目标对象对应的组件拆解动画;
组合操作响应单元307,用于响应针对拆解后的目标对象的组合触发操作,在所述动画展示区域显示所述目标对象对应的组件组合动画。
其中,旋转操作响应单元301,对象方位参数确定单元302,目标对象显示单元303,详情操作响应单元304,详情描述显示单元305,拆解操作响应单元306,组合操作响应单元307的具体功能实现方式可以参见上述图3a-图3c所对应实施例中的步骤S201-步骤S206,这里不再进行赘述。其中,当旋转操作响应单元301,对象方位参数确定单元302,目标对象显示单元303在执行相应的操作时,详情操作响应单元304,详情描述显示单元305,拆解操作响应单元306,组合操作响应单元307均暂停执行操作;当详情操作响应单元304,详情描述显示单元305在执行相应操作时,旋转操作响应单元301,对象方位参数确定单元302,目标对象显示单元303,拆解操作响应单元306,组合操作响应单元307均暂停执行操作;当拆解操作响应单元306,组合操作响应单元307在执行响应操作时,旋转操作响应单元301,对象方位参数确定单元302,目标对象显示单元303,详情操作响应单元304,详情描述显示单元305均暂停执行操作。
请一并参见图9,模型生成模块40可以包括:格式转换单元401,展示区网页标识输出单元402;
格式转换单元401,用于在所述可视化三维引擎中,获取所述三维模型数据对应的展示效果模型,将所述展示效果模型转换成所述网页三维引擎对应的格式类型,将格式转换后的展示效果模型输入网页三维引擎中;
网页标识输出单元402,用于在所述网页三维引擎中,基于所述浏览器中的增强现实控件,生成所述展示效果模型对应的物体模型,输出所述物体模型对应的网页标识。
其中,格式转换单元401,展示区网页标识输出单元402的具体功能实现方式可以参见上述图4所对应实施例中的步骤S302-步骤S303,这里不再进行赘述。
请一并参见图9,视觉方位参数确定单元201可以包括:信息获取子单元2011,第一确定子单元2012,标签类型获取子单元2013,第二确定子单元2014;
信息获取子单元2011,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;
第一确定子单元2012,用于根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数;
标签类型获取子单元2013,用于获取针对所述浏览器所属终端设备的第一操作行为数据,基于所述第一操作行为数据确定在终端屏幕中所选择的标签类型;
第二确定子单元2014,用于从方位参数表中获取与所述标签类型相匹配的视觉方位参数;所述方位参数表包括多个标签类型分别对应的视觉方位参数。
其中,信息获取子单元2011,第一确定子单元2012,标签类型获取子单元2013,第二确定子单元2014的具体功能实现方式可以参见上述图4所对应实施例中的步骤S305-步骤S306,这里不再进行赘述。其中,当信息获取子单元2011,第一确定子单元2012在执行相应操作时,标签类型获取子单元2013,第二确定子单元2014均暂停执行操作;当标签类型获取子单元2013,第二确定子单元2014在执行相应操作时,信息获取子单元2011,第一确定子单元2012均暂停执行操作。
本发明实施例通过响应浏览器中针对网页标识的访问请求,获取该网页标识对应的物体模型,采用摄像头采集环境图像数据,在浏览器的展示页面中对该物体模型和环境图像数据进行增强现实显示,通过获取用户针对该浏览器所属终端设备的第一操作行为数据,可以在展示页面中切换显示上述物体模型的内景中的展示区域,可以从该展示区域中确定目标对象,进而可以获取用户针对该目标对象的第二操作行为数据,根据第二操作行为数据对该目标对象进行显示。可见,在模型数据(即目标对象或物体模型)展示过程中,可以采用增强现实技术,在浏览器中的展示页面上对环境图像数据与模型数据进行增强现实显示,可以响应用户针对模型数据的触发操作,对模型数据进行相应的显示,可以丰富模型数据的展示方式;用户可以在浏览器的展示页面中,直接对对象的三维模型数据进行操作,以查看对象的全貌以及对象的详情描述信息,进而可以提高浏览效率;还可以将物体模型或目标对象分享到交互平台上,有利于物体模型的传播。
请参见图10,图10是本发明实施例提供的一种终端的结构示意图。如图10所示,该终端1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述终端1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1004可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图10所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在如图10所示的终端1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现上述图2、图3a-图3c、图4任一个所对应实施例中对所述基于浏览器的数据处理方法的描述,在此不再赘述。
应当理解,本发明实施例中所描述的终端1000可执行前文图2、图3a-图3c、图4任一个所对应实施例中对所述基于浏览器的数据处理方法的描述,也可执行前文图9所对应实施例中对所述基于浏览器的数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本发明实施例还提供了一种计算机可读存储介质,且所述计算机可读存储介质中存储有前文提及的基于浏览器的数据处理装置1所执行的计算机程序,且所述计算机程序包括程序指令,当所述处理器执行所述程序指令时,能够执行前文图2、图3a-图3c、图4任一个所对应实施例中对所述基于浏览器的数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本发明所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本发明方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储存储器(Read-Only Memory,ROM)或随机存储存储器(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (13)
1.一种基于浏览器的数据处理方法,其特征在于,包括:
响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;所述物体模型包括多个对象的三维模型数据,以及承载多个所述对象的容器的三维模型数据;
获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象;
所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象,包括:获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数;所述第一操作行为数据包括对所述浏览器所属终端设备执行旋转操作以及对所述浏览器所属终端设备执行移动操作,用于模拟用户从所述物体模型的外部进入所述物体模型内景的过程;
在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象;
所述根据所述第一操作行为数据确定视觉方位参数,包括:基于所述移动操作或旋转操作确定所述浏览器所属终端设备对应的位移增量信息与旋转角度信息,根据所述位移增量信息与旋转角度信息确定所述视觉方位参数。
2.根据权利要求1所述的方法,其特征在于,所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数,包括:获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;
根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数。
3.根据权利要求1所述的方法,其特征在于,所述获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数,包括:获取针对所述浏览器所属终端设备的第一操作行为数据,基于所述第一操作行为数据确定在终端屏幕中所选择的标签类型;
从方位参数表中获取与所述标签类型相匹配的视觉方位参数;所述方位参数表包括多个标签类型分别对应的视觉方位参数。
4.根据权利要求1所述的方法,其特征在于,所述第二操作行为数据包括旋转操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:响应针对所述目标对象的旋转操作,获取所述目标对象对应的对象旋转速度与对象旋转角度;
根据所述对象旋转速度与所述对象旋转角度,确定所述目标对象对应的对象方位参数;
根据所述对象方位参数,在所述展示页面中显示所述目标对象。
5.根据权利要求1所述的方法,其特征在于,所述第二操作行为数据包括详情触发操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:响应针对所述目标对象的详情触发操作,调用所述目标对象对应的详情描述信息;
创建覆盖所述目标对象的信息展示窗口,在所述信息展示窗口中显示所述详情描述信息。
6.根据权利要求1所述的方法,其特征在于,所述第二操作行为数据包括拆解触发操作或组合触发操作;
所述获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象,包括:响应针对所述目标对象的拆解触发操作,在所述展示页面中创建动画展示区域,并在所述动画展示区域显示所述目标对象对应的组件拆解动画;
响应针对拆解后的目标对象的组合触发操作,在所述动画展示区域显示所述目标对象对应的组件组合动画。
7.根据权利要求1所述方法,其特征在于,还包括:
若将所述物体模型封装为第一分享网页标识,则将所述第一分享网页标识发送至交互平台,以使所述交互平台中的目标终端通过所述第一分享网页标识访问所述物体模型;
若将所述目标对象封装为第二分享网页标识,则将所述第二分享网页标识发送至所述交互平台,以使所述交互平台中的所述目标终端通过所述第二分享网页标识访问所述目标对象。
8.根据权利要求1所述的方法,其特征在于,还包括:
获取多个对象的三维模型数据以及承载所述多个对象的容器的三维模型数据,根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型。
9.根据权利要求8所述的方法,其特征在于,所述三维引擎包括网页三维引擎与可视化三维引擎;
所述根据三维引擎,生成所述三维模型数据对应的包含所述多个对象和所述容器的物体模型,包括:在所述可视化三维引擎中,获取所述三维模型数据对应的展示效果模型,将所述展示效果模型转换成所述网页三维引擎对应的格式类型,将格式转换后的展示效果模型输入网页三维引擎中;
在所述网页三维引擎中,基于所述浏览器中的增强现实控件,生成所述展示效果模型对应的物体模型,输出所述物体模型对应的网页标识。
10.一种基于浏览器的数据处理装置,其特征在于,包括:
响应请求模块,用于响应浏览器中针对网页标识的访问请求,获取所述网页标识对应的物体模型,采用摄像头采集环境图像数据,在所述浏览器的展示页面中,对所述物体模型和所述环境图像数据进行增强现实显示;所述物体模型包括多个对象的三维模型数据,以及承载多个所述对象的容器的三维模型数据;
对象确定模块,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,在所述展示页面中切换显示所述物体模型的内景中的展示区域,从所述展示区域中确定目标对象;
对象显示模块,用于获取针对所述目标对象的第二操作行为数据,根据所述第二操作行为数据在所述展示页面中显示所述目标对象;
所述对象确定模块包括:视觉方位参数确定单元,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据确定视觉方位参数;所述第一操作行为数据包括对所述浏览器所属终端设备执行旋转操作以及对所述浏览器所属终端设备执行移动操作,用于模拟用户从所述物体模型的外部进入所述物体模型内景的过程;所述根据所述第一操作行为数据确定视觉方位参数,包括:基于所述移动操作或旋转操作确定所述浏览器所属终端设备对应的位移增量信息与旋转角度信息,根据所述位移增量信息与旋转角度信息确定所述视觉方位参数;
展示区域显示单元,用于在所述展示页面中切换显示所述物体模型的内景中与所述视觉方位参数相匹配的展示区域;所述展示区域包括至少一个对象;
选择操作响应单元,用于响应针对所述展示区域的选择触发操作,从所述至少一个对象中确定所选择的目标对象。
11.根据权利要求10所述的装置,其特征在于,所述视觉方位参数确定单元包括:信息获取子单元,用于获取针对所述浏览器所属终端设备的第一操作行为数据,根据所述第一操作行为数据,确定所述终端设备对应的位移增量信息与旋转角度信息;
第一确定子单元,用于根据所述位移增量信息与所述旋转角度信息,确定视觉方位参数。
12.一种终端,其特征在于,包括:处理器和存储器;
所述处理器和存储器相连,其中,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以执行如权利要求1-9任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1-9任一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910407796.5A CN111949904B (zh) | 2019-05-16 | 2019-05-16 | 一种基于浏览器的数据处理方法、装置以及终端 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910407796.5A CN111949904B (zh) | 2019-05-16 | 2019-05-16 | 一种基于浏览器的数据处理方法、装置以及终端 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111949904A CN111949904A (zh) | 2020-11-17 |
| CN111949904B true CN111949904B (zh) | 2024-06-11 |
Family
ID=73335884
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201910407796.5A Active CN111949904B (zh) | 2019-05-16 | 2019-05-16 | 一种基于浏览器的数据处理方法、装置以及终端 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111949904B (zh) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112419471B (zh) * | 2020-11-19 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及智能设备、存储介质 |
| CN113706681B (zh) * | 2021-07-30 | 2025-05-02 | 华为技术有限公司 | 图像处理方法及电子设备 |
| JP7409559B2 (ja) * | 2021-12-27 | 2024-01-09 | 東芝三菱電機産業システム株式会社 | Scadaウェブhmiクライアント装置およびscadaウェブhmiシステム |
| CN114528508A (zh) * | 2022-01-18 | 2022-05-24 | 深圳易可达科技有限公司 | 资源展示方法、装置、设备及存储介质 |
| CN114564645A (zh) * | 2022-02-28 | 2022-05-31 | 北京字节跳动网络技术有限公司 | 百科信息展示方法、装置、设备和介质 |
| CN114926616A (zh) * | 2022-05-27 | 2022-08-19 | 京东方科技集团股份有限公司 | 三维图像展示方法、电子设备及存储介质 |
| CN115330921A (zh) * | 2022-08-03 | 2022-11-11 | 深圳市前海手绘科技文化有限公司 | 三维模型的演示方法、装置、计算机设备和存储介质 |
| CN118821454A (zh) * | 2024-07-04 | 2024-10-22 | 中国标准化研究院 | 一种数字标准馆全过程模拟仿真系统 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106803283A (zh) * | 2016-12-29 | 2017-06-06 | 东莞新吉凯氏测量技术有限公司 | 基于实体展馆的交互式三维全景多媒体虚拟展览方法 |
| CN108553889A (zh) * | 2018-03-29 | 2018-09-21 | 广州汉智网络科技有限公司 | 虚拟模型交互方法及装置 |
| CN108572772A (zh) * | 2018-03-27 | 2018-09-25 | 麒麟合盛网络技术股份有限公司 | 图片内容呈现方法及装置 |
| CN109508090A (zh) * | 2018-11-06 | 2019-03-22 | 燕山大学 | 一种具备可交互性的增强现实展板系统 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ITMI20010538A1 (it) * | 2001-03-14 | 2002-09-14 | Phoenix Tools S R L | Sistema per la creazione la visualizzazione e la gestione di oggetti tridimensionali su pagine web e metodo relativo |
-
2019
- 2019-05-16 CN CN201910407796.5A patent/CN111949904B/zh active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106803283A (zh) * | 2016-12-29 | 2017-06-06 | 东莞新吉凯氏测量技术有限公司 | 基于实体展馆的交互式三维全景多媒体虚拟展览方法 |
| CN108572772A (zh) * | 2018-03-27 | 2018-09-25 | 麒麟合盛网络技术股份有限公司 | 图片内容呈现方法及装置 |
| CN108553889A (zh) * | 2018-03-29 | 2018-09-21 | 广州汉智网络科技有限公司 | 虚拟模型交互方法及装置 |
| CN109508090A (zh) * | 2018-11-06 | 2019-03-22 | 燕山大学 | 一种具备可交互性的增强现实展板系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111949904A (zh) | 2020-11-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111949904B (zh) | 一种基于浏览器的数据处理方法、装置以及终端 | |
| Skublewska-Paszkowska et al. | 3D technologies for intangible cultural heritage preservation—literature review for selected databases | |
| Gimeno et al. | Combining traditional and indirect augmented reality for indoor crowded environments. A case study on the Casa Batlló museum | |
| Montero et al. | Designing and implementing interactive and realistic augmented reality experiences | |
| Vetter | Technical potentials for the visualization in virtual reality | |
| Agnello et al. | Virtual reality for historical architecture | |
| CN116243831B (zh) | 一种虚拟云展厅交互方法及系统 | |
| Kersten et al. | The historic wooden model of Solomon’s Temple: 3D recording, modelling and immersive virtual reality visualisation | |
| Tukur et al. | Virtual staging technologies for the metaverse | |
| Trapp et al. | Colonia 3D communication of virtual 3D reconstructions in public spaces | |
| Pérez et al. | Touring the Forum Adiectum of Augusta Emerita in a virtual reality experience | |
| KR20230029130A (ko) | 생동감·라이브형 메타버스 가상인테리어공간 생성장치 및 방법 | |
| Creutzburg et al. | Virtual reality, augmented reality, mixed reality & visual effects: new potentials by event Technology for the Immanuel Kant Anniversary 2024 in Kaliningrad | |
| Han et al. | The application of augmented reality technology on museum exhibition—a museum display project in Mawangdui Han dynasty tombs | |
| Fiorillo et al. | Vr and holographic information system for the conservation project | |
| Tao | A VR/AR-based display system for arts and crafts museum | |
| Trapp et al. | Communication of digital cultural heritage in public spaces by the example of Roman Cologne | |
| Deru et al. | The virtual revival of the City of Saarlouis via a multimodal augmented/mixed reality touristic HoloLens app | |
| Pal et al. | A tour of a technical and educational campus using virtual reality | |
| Perticarini | From the virtual model to the visualization | |
| Bocevska et al. | Implementation of interactive augmented reality in 3D assembly design presentation | |
| Sun et al. | Development of Industrial Historical and Cultural Heritage Display System Based on Panoramic VR Tech | |
| Choi | A technological review to develop an AR-based design supporting system | |
| Hsu et al. | The visual web user interface design in augmented reality technology | |
| Bakaoukas | Virtual reality reconstruction applications standards for maps, artefacts, archaeological sites and monuments |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| TA01 | Transfer of patent application right |
Effective date of registration: 20221114 Address after: 1402, Floor 14, Block A, Haina Baichuan Headquarters Building, No. 6, Baoxing Road, Haibin Community, Xin'an Street, Bao'an District, Shenzhen, Guangdong 518000 Applicant after: Shenzhen Yayue Technology Co.,Ltd. Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
| TA01 | Transfer of patent application right | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |