[go: up one dir, main page]

CN114445603A - 获取对象的关注信息的方法、装置及电子设备 - Google Patents

获取对象的关注信息的方法、装置及电子设备 Download PDF

Info

Publication number
CN114445603A
CN114445603A CN202210118195.4A CN202210118195A CN114445603A CN 114445603 A CN114445603 A CN 114445603A CN 202210118195 A CN202210118195 A CN 202210118195A CN 114445603 A CN114445603 A CN 114445603A
Authority
CN
China
Prior art keywords
virtual image
stereoscopic
image
stereoscopic virtual
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210118195.4A
Other languages
English (en)
Inventor
张冠南
赵弯弯
张晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202210118195.4A priority Critical patent/CN114445603A/zh
Publication of CN114445603A publication Critical patent/CN114445603A/zh
Priority to US18/166,131 priority patent/US12340010B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本申请公开了一种获取对象的关注信息的方法、装置及电子设备,该方法包括:显示虚拟场景中的立体虚拟图像,该立体虚拟图像为物理对象映射到虚拟场景中的虚拟对象对应的立体图像;确定立体虚拟图像中呈现在显示区域内的目标对象;基于目标对象,确定立体虚拟图像中的关注焦点对象,关注焦点对象属于立体虚拟图像中的至少一部分。通过本申请的方案可以较为准确的获得用户对于产品等物理对象的关注情况信息。

Description

获取对象的关注信息的方法、装置及电子设备
技术领域
本申请涉及图像处理技术领域,更具体地说,涉及一种获取对象的关注信息的方法、装置及电子设备。
背景技术
在一些产品发布之后,经常需要收集用户对于产品的意见,并结合产品中用户关注度比较高的部分进行优化或者维护等。
目前一般都是通过问卷调查或者产品的评论等方式来获得产品的用户意见,而这些用户意见涉及到的产品部件较广,很难准确确定出大部分用户关注的部分,从而不利于更为有效的进行产品优化。
发明内容
本申请提供了一种获取对象的关注信息的方法、装置及电子设备。
其中,一种获取对象的关注信息的方法,包括:
显示虚拟场景中的立体虚拟图像,所述立体虚拟图像为物理对象映射到所述虚拟场景中的虚拟对象对应的立体图像;
确定所述立体虚拟图像中呈现在显示区域内的目标对象;
基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,所述关注焦点对象属于所述立体虚拟图像中的至少一部分。
在一种可能的实现方式中,所述确定所述立体虚拟图像中呈现在显示区域内的目标对象,包括:
确定所述立体虚拟图像中处于显示区域中的采样区域内的目标对象。
在又一种可能的实现方式中,所述确定所述立体虚拟图像中处于显示区域中的采样区域内的目标对象,包括:
确定当前时刻所述虚拟场景中虚拟相机的相机位置;
以所述相机位置为视点位置,确定所述立体虚拟图像中处于所述显示区域中的采样区域内的目标对象。
在又一种可能的实现方式中,所述以所述相机位置为视点位置,确定所述立体虚拟图像中处于所述显示区域中的采样区域内的目标对象,包括:
确定所述立体虚拟图像映射到所述显示区域内的图像映射区;
以所述相机位置为起点,确定由所述起点分别经所述显示区域中多个采样点的多条射线;
结合所述图像映射区中被所述多条射线拾取到的子映射区,确定所述立体虚拟图像中被所述多条射线拾取到的目标对象。
在又一种可能的实现方式中,所述目标对象包括:所述立体虚拟图像中至少一个目标对象区域以及所述至少一个目标对象区域的显示特征;
所述基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,包括:
基于所述至少一个目标对象区域的显示特征,从所述至少一个目标对象区域中确定关注焦点对象。
在又一种可能的实现方式中,在确定所述立体虚拟图像中的关注焦点对象之前,还包括:
确定所述目标对象中各部分区域处于所述采样区域内的分布特征;
所述基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,包括:
基于所述目标对象中各部分区域处于所述采样区域内的分布特征,确定所述立体虚拟图像中的关注焦点对象。
在又一种可能的实现方式中,在所述确定所述立体虚拟图像中的关注焦点对象之后,还包括:
增加所述关注焦点对象的关注次数;
存储所述关注焦点对应的关注次数。
在又一种可能的实现方式中,在所述确定所述立体虚拟图像中的关注焦点对象之后,还包括:
获得所述关注焦点对象的被关注时长;
将所述关注焦点对象的累积关注时长增加所述被关注时长。
其中,一种获取对象的关注信息的装置,包括:
图像显示单元,用于显示虚拟场景中的立体虚拟图像,所述立体虚拟图像为物理对象映射到所述虚拟场景中的虚拟对象对应的立体图像;
目标确定单元,确定所述立体虚拟图像中呈现在显示区域内的目标对象;
焦点确定单元,用于基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,所述关注焦点对象属于所述立体虚拟图像中的至少一部分。
其中,一种电子设备,至少包括存储器和处理器;
其中,所述处理器,用于执行本申请任意一项所述的获取对象的关注信息的方法;
所述存储器,用于存储处理器执行操作所需的程序。
通过以上方案可知,本申请通过显示虚拟场景中的立体虚拟图像,确定该立体虚拟图像中呈现在显示区域内的目标对象,便可以基于目标对象来确定用户对于立体虚拟图像中的关注焦点对象。由于立体虚拟图像为物理对象映射到虚拟场景中的虚拟对象对应的立体图像,因此,立体虚拟图像中的关注焦点对象可以反映用户对物理对象的关注部分,从而可以较为准确的获得用户对于产品等物理对象的关注焦点,进而可以结合用户对于产品等物理对象的关注情况合理优化产品等物理对象。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的获取对象的关注信息的方法的一种流程示意图;
图2为本申请实施例提供的显示区域呈现的立体虚拟图像一种示意图;
图3为本申请实施例提供的显示区域呈现的立体虚拟图像又一种示意图;
图4为本申请实施例提供的显示区域内呈现的立体虚拟图像与采样区域的一种关系示意图;
图5为本申请实施例提供的获取对象的关注信息的方法的一种流程示意图;
图6为本申请实施例中确定立体虚拟图像中处于采样区域内的目标对象的一种流程示意图;
图7为本申请实施例中立体虚拟图像的图像映射区的一种示意图;
图8示出了显示区域中的采样点的位置示意图;
图9示出了显示区域中被射线拾取到各区域的示意图;
图10为本申请实施例提供的获取对象的关注信息的装置的一种组成结构示意图;
图11为本申请实施例提供的电子设备的一种组成结构示意图。
说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的部分,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示的以外的顺序实施。
具体实施方式
本申请的方案可以适用于产品展示平台或者电商平台中通过虚拟场景展示产品或者物体等对象的立体虚拟图像,以根据用户对于立体虚拟图像的关注焦点确定用户对于该立体虚拟对象对应的物理对象的关注点,从而为优化产品等物理对象或者进行大数据分析等提供准确和可靠的用户关注数据。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,其示出了本申请实施例提供的获取对象的关注信息的方法的一种流程示意图,本实施例的方法可以应用于电子设备,该电子设备可以为服务器,如电商平台或者产品展示平台等的服务器等等。该电子设备还可以为终端设备,如,手机、笔记本电脑等。
在一种可能的情况中,终端设备可以与提供虚拟场景数据的服务器建立有通信连接,例如,该终端设备可以与电商平台或者产品展示平台建立有通信连接的终端,以从电商平台或者产品展示平台的服务器获得虚拟场景中的立体虚拟图像的数据等等。
在又一种可能的情况中,终端设备可以是独立的计算机设备,该终端设备中可以存储有需要呈现的虚拟场景的数据等,对此不加限制。
本实施例的方法可以包括:
S101,显示虚拟场景中的立体虚拟图像。
其中,立体虚拟图像为物理对象映射到虚拟场景中的虚拟对象对应的立体图像。
如,虚拟对象的立体虚拟图像为物理对象的数字孪生信息,即,虚拟对象的立体虚拟对象为利用数字孪生技术为物理对象创建出的立体虚拟图像。其中,该虚拟对象的立体虚拟图像中组成结构以及外形等都与真实的物理对象的组成结构和外形一致,而且虚拟对象的立体虚拟对象的大小还可以与真实的物理对象的大小成设定比例。
举例说明,假设为了获得用户对于一款产品中不同部分的关注情况,则可以构建包含该产品的立体虚拟图像的虚拟场景。该产品的立体虚拟图像的组成结构和外形可以与该产品保持一致,而立体虚拟图像的大小则可以与该产品的大小相同或者成设定比例等。
其中,立体虚拟图像的类型可以根据虚拟场景的空间维度不同而有所不同,如,立体虚拟图像可以为三维虚拟图像,还可以是其他维度的虚拟图像等,对此不加限制。
可以理解的是,显示虚拟场景的立体虚拟图像实际上是将立体虚拟图像映射到二维的显示区域的过程,也就是将立体虚拟图像中各像素点从世界坐标系转换为屏幕坐标系的过程,本申请对于具体实现过程不加限制。
在本申请中,虚拟对象可以显示在该电子设备的显示屏中,也可以是通过该电子设备投射到该电子设备之外的显示区域或者显示设备内,对此不加限制。
如,以电子设备为终端设备为例,终端设备可以将立体虚拟图像输出到其显示屏上,也可以输出给其他显示屏或者投射到指定显示区域(如墙面或者幕布的显示区域)上。
又如,该电子设备为服务器,那么服务器可以向终端设备输出该立体虚拟图像,以将立体虚拟图像呈现在终端设备的显示屏上。
S102,确定立体虚拟图像中呈现在显示区域内的目标对象。
该显示区域为用于显示立体虚拟图像的显示区域。如,电子设备在自身的显示屏或者其他电子设备的显示屏中显示立体虚拟图像的情况下,该显示区域可以为显示屏(或者说,显示屏的显示区域);如果电子设备将立体虚拟图像投射到投影幕布或者墙面等区域,那么投影幕布或者墙面等的图像呈现区就是该显示区域。
可以理解的是,将立体虚拟图像显示在二维的显示区域内,立体虚拟图像中有部分是呈现在显示区域内,能够被用户看到;而立体虚拟图像中未呈现在显示区域内的图像部分对用户是不可见的。在本申请中,目标对象可以属于立体虚拟图像中呈现在显示区域内的目标图像区域,或者是属于立体图像中呈现在显示区域内的目标图像区域内包含的组成对象。
如,目标对象可以是立体虚拟图像中呈现在显示区域内的目标图像区域,或者该图像区域内包含的全部组成对象。
例如,立体虚拟图像为笔记本电脑的立体虚拟图像,那么该立体虚拟图像呈现在显示区域中的可能只包含笔记本电脑的屏幕和键盘区域的部分图像区域,那么该目标对象表示笔记本电脑的立体虚拟图像中映射到显示区域内的图像部分,也可以是表示立体虚拟图像中的屏幕和键盘这两部分组成对象。
又如,目标对象可以为立体虚拟图像中呈现在显示区域内的图像区域中的部分图像区域,或者是该部分图像区域内的组成对象。例如,本申请可以结合立体虚拟图像呈现在显示区域内的目标图像区域的位置分布特征等,从目标图像区域中确定被用户关注的概率或者可能性较大的部分图像区域,或者该部分图像区域内包含的组成对象等。
其中,确定立体虚拟图像中呈现在显示区域内的目标图像区域的方式可以有多种可能。
如,在一种可能的实现方式中,可以结合虚拟场景中当前的视点位置,确定该立体虚拟图像上可呈现于显示区域的目标图像部分。
其中,虚拟场景中的视点位置为虚拟场景中虚拟出的一观看点,该视点位置为将虚拟场景中的该立体虚拟图像映射到二维屏幕平面的参照点。
作为一种可选方式,可以在虚拟场景中设定虚拟相机,虚拟相机的初始位置是固定的,但是随着用户对虚拟场景的旋转以及缩放等调整操作,虚拟相机的相机位置也会不断变化。在此基础上,可以将虚拟场景中虚拟相机当前的空间位置作为视点位置,确定立体虚拟图像中可呈现于显示区域内的目标图像部分。
需要说明的是,虚拟相机在虚拟场景中并不可见,其仅仅是为了确定视点位置以及确定目标对象等而虚构出的一个参照点。
S103,基于目标对象,确定立体虚拟图像中的关注焦点对象。
其中,关注焦点对象属于立体虚拟图像中的至少一部分。
可以理解的是,关注焦点对象可以为立体虚拟图像中被用户关注的图像区域或者也可以被用户关注的图像区域内的各组成部分。
可以理解的是,立体虚拟图像中呈现在显示区域内的目标对象有可能全部是用户需要关注的对象,在该种情况下,目标对象可以作为关注焦点对象。
在一些情况下,用户可能仅仅关注呈现出的目标对象中的一部分,因此,需要结合目标对象的一些特征,确定属于用户关注的关注焦点对象。
如,在一种可能的实现方式中,确定出的目标对象可以有多个部分组成,具体的,目标对象可以包括:立体虚拟图像中至少一个目标对象区域以及该至少一个目标对象区域的显示特征。
其中,目标对象区域为组成目标对象的图像区域或者组成部件区域。
目标对象区域的显示特征可以为:目标对象区域在显示区域内的显示位置以及目标对象区域占据立体虚拟图像的图像显示区的面积占比等等特征,对此不加限制。其中,立体虚拟图像的图像显示区也可以称为图像映射区,也就是立体虚拟图像映射显示区域内所占据的显示区。
可以理解的是,目标对象区域的显示特征可以反映出能够被用户关注的可能程度。基于此,本申请可以基于该至少一个目标对象区域的显示特征,从该至少一个目标对象区域中确定关注焦点对象。
例如,可以将显示位置处于显示区域的中心区域的目标对象区域确定为关注焦点对象。还可以是将对一个的面积占比较高的前至少一个目标对象区域确定为关注焦点对象。
举例说明,以立体虚拟图像为笔记本电脑的立体虚拟对象为例,假设该笔记本电脑的立体虚拟图像中属于笔记本电脑的正面部分呈现在显示区域内,如,呈现在显示区域内的目标对象可以包括屏幕区域以及键盘区域。在此基础上,本申请可以获得屏幕区域和键盘区域各自在显示区域内的位置,以及,屏幕区域和键盘区域在笔记本电脑的立体虚拟图像在显示区域内的图像显示区的面积占比等等。
如果相对键盘区域,屏幕区域的显示位置处于显示区域的位置更为贴近中心区域,且屏幕区域的面积占比远大于键盘区域的面积占比,那么用户关注屏幕区域的可能性会更大,那么就可以将屏幕作为用户的关注对象。
又如,键盘区域和屏幕区域的显示位置都处于显示区域的中心区域内,且这两个区域的面积占比的差值很小,那么用户可能会同时关注这两部分区域,那么可以将该键盘区域和屏幕区域(或者是虚拟的键盘和屏幕)均作为关注焦点对象。
可以理解的是,由于立体虚拟图像是真实的物理对象在虚拟场景中的映射,因此,用户对于立体虚拟对象的关注焦点对象可以反映出用户对于物理对象中关注的关注部分,也就可以精准确定用户对于物理对象的主要关注部分。在此基础上,收集大量不同用户对于物理对象中的关注部分,可以用于大数据分析等,以预测用户行为或者得到特定分析结果等等,对此不加限制。
通过以上方案可知,本申请通过显示虚拟场景中的立体虚拟图像,确定该立体虚拟图像中呈现在显示区域内的目标对象,便可以基于目标对象来确定用户对于立体虚拟图像中的关注焦点对象。由于立体虚拟图像为物理对象映射到虚拟场景中的虚拟对象对应的立体图像,因此,立体虚拟图像中的关注焦点对象可以反映用户对物理对象的关注部分,从而可以较为准确的获得用户对于产品等物理对象的关注焦点,进而可以结合用户对于产品等物理对象的关注情况合理优化产品等物理对象。
为了便于理解本申请的方案,下面结合确定立体虚拟图像中呈现在显示区域内的目标对象的几种可能情况进行说明。
在一种可能的情况中,可以将立体虚拟图像中呈现在显示区域内的全部对象均确定为目标对象。
如,前面所述,可以将立体虚拟图像中呈现在显示区域内的目标图像部分确定为目标对象。或者是,确定出该目标图像部分后,将目标图像部分内包含的各组成对象确定为目标对象。
在该种实现可能中是将处于显示区域内所有对象均认为是可能会被用户关注的对象。
举例说明:
如图2和图3,分别示出了显示区域呈现的立体虚拟图像一种示意图。
图2和图3中以笔记本电脑的立体虚拟图像在显示区域的映射示意图为例说明。
在图2中,笔记本电脑的立体虚拟图像呈现在显示区域201内的部分可以包括笔记本电脑的立体虚拟图像中屏幕图像区域201和键盘图像区域203,那么可以将屏幕图像区域和键盘图像区域均作为目标对象。
考虑到屏幕图像区域表征的组成笔记本电脑的立体虚拟图像中的屏幕(虚拟屏幕),类似的键盘图像区域表征的该立体虚拟图像中的键盘(或者称为虚拟键盘),也可以是组成立体虚拟图像的键盘组件和屏幕组件作为目标对象。
而在图3中,笔记本电脑的立体虚拟图像呈现在显示区域301的部分为笔记本电脑的侧面部分。由图3可以看出,该笔记本电脑的立体虚拟图像中呈现在显示区域内的部分可以包括:背板图像区域302、机壳图像区域303和键盘图像区域304,那么可以是将背板图像区域302、机壳图像区域303和键盘图像区域304均作为目标对象。
考虑到实际应用中,在显示区域显示出立体虚拟图像后,用户关注到的部分可能只是呈现出的目标图像区域内的部分区域。在该种情况下,为了能够准确获得用户关注立体虚拟图像中的对象部分,就需要确定立体虚拟图像中呈现在显示区域内的一些重点区域内的目标对象。
如,在又一种可能的情况中,本申请可以确定立体虚拟图像中呈现在显示区域中的采样区域内的目标对象。
其中,采样区域可以为显示区域内设定的,属于用户重点关注的显示区。
如,采样区域可以为显示区域中处于中心部分的部分区域等。参见图4,在显示区域401中设置的采样区域402位于显示区域的中心部分区域。在该种情况下,笔记本电脑的立体虚拟图像中处于采样区域内的对象部分只有屏幕图像区403和键盘图像区404。而机壳图像区405并未处于采样区域内,也就不会作为目标对象。
可以理解的是,在显示出立体虚拟图像后,用户一般会根据自己的关注需求对立体虚拟图像进行旋转或者缩放等,以使得立体虚拟图像中属于用户重点关注的部分处于显示区域的中心部分等重要关注区域内,因此,立体虚拟图像中呈现在显示区域中的采样区域的对象部分确定为目标对象,更能够准确反映用户对于立体虚拟图像的关注部分。
下面以将立体虚拟图像中呈现在显示区域的采样区域内的对象部分作为目标对象这一可能情况的一种实现方式为例,对本申请的方案进行介绍。
如图5所示,其示出了本申请一种获得对象的关注信息的又一种流程示意图,本实施例的方法可以应用于前面提到的电子设备。
本实施例的方法包括:
S501,显示虚拟场景中的立体虚拟图像。
其中,立体虚拟图像为物理对象映射到虚拟场景中的虚拟对象对应的立体图像。
将虚拟场景中的立体虚拟图像显示到显示区域实际上是将三维或者多维的立体虚拟图像映射到二维的显示区域的过程。
为了便于理解,以一种实现方式为例说明。以虚拟场景中设置有虚拟相机为例,该虚拟相机具有设定的初始空间位置,在向显示区域显示该立体虚拟图像时,可以基于该初始空间位置构建相机坐标系,然后结合相机坐标系以及坐标映射关系,可以将立体虚拟图像映射到显示区域中。
在显示出立体虚拟图像后,根据用户对立体虚拟图像的旋转或者缩放等调整操作,虚拟场景中的虚拟相机的相机位置(世界坐标系中的空间位置)也会相应改变。相应的,基于该虚拟相机的相机位置构建出的相机坐标系也会有所变化。
下面以结合虚拟相机的相机位置构建出的相机坐标系,显示立体虚拟图像的过程进行介绍:
首先,结合该相机坐标系以及该虚拟场景的世界坐标系,确定由世界坐标系转换到相机坐标系的第一变换矩阵,依据该第一变换矩阵,将立体虚拟图像中各像素点在世界坐标系中的世界坐标转换为该相机坐标系下的坐标。
其次,结合相机坐标系,确定由相机坐标系转换到标准化设备坐标系的第二变换矩阵。基于第二变换矩阵,将立体虚拟图像中各像素点在该相机坐标系中的坐标转换为标准化设备坐标。
最后,按照标准化设备坐标到屏幕坐标的映射关系,将立体虚拟图像中各像素点的标准化设备坐标转换为屏幕坐标系下的屏幕坐标,从而结合立体虚拟图像中各像素点的屏幕坐标将立体虚拟图像显示到显示区域。
例如,在虚拟对象的立体虚拟图像中像素点的标准化设备坐标(x1,y1,z1)已知的情况下,屏幕坐标(x2,y2)可以通过如下公式转换得到:
x2=(0.5+x1/2)*w;
y2=(0.5-y1/2)*h;
其中,w为屏幕宽度,也就是用于显示立体虚拟图像的显示区域的宽度,如,在显示屏中显示虚拟对象的立体虚拟图像,则屏幕宽度可以为显示屏的显示宽度;如果是通过投影等方式将虚拟对象的立体虚拟图像投射到其他类型的显示区域,则屏幕宽度为用于显示投射出的图像的显示区域的宽度;h为屏幕高度,类似的,该屏幕高度可以为显示屏的显示高度或者是显示区域的高度。
当然,在实际应用中,结合虚拟相机对应的相机坐标系,将立体虚拟图像映射到屏幕坐标系的具体实现可以有多个实现可能,本申请对此不加限制。
S502,确定当前时刻虚拟场景中虚拟相机的相机位置。
由前面介绍可知,虚拟场景中虚拟相机的位置会随着用户调整立体虚拟图像等而发生变化,因此,为了后续确定处于显示区域内或者采用区域内的对象,需要先确定当前虚拟相机的相机位置。
S503,以相机位置为视点位置,确定立体虚拟图像中处于显示区域中的采样区域内的目标对象。
其中,虚拟场景中的视点位置为虚拟场景中虚拟出的一观看点,该视点位置为可以为虚拟出的用户观看虚拟场景的用户视角位置。
相应的,可以模拟出以该视点位置观察该立体虚拟图像,得到的处于采样区域内的目标对象。
下面以一种可能的实现方式为例,对确定采样区域内的目标对象的具体实现进行介绍。如图6所示,其示出了确定立体虚拟图像中处于采样区域内的目标对象的一种流程示意图,该流程可以包括:
S601,确定立体虚拟图像映射到显示区域内的图像映射区。
其中,图像映射区为立体虚拟图像映射到显示区域后,该立体虚拟图像在显示区域内的显示区。
该图像映射区可以为显示区域中能够完全包含立体虚拟图像的最小区域。
如,在一种可能的实现方式中,可以确定立体虚拟图像中各像素点映射到屏幕坐标系中的屏幕坐标,然后,从立体虚拟图像中各像素点的屏幕坐标,确定出x坐标轴的最大值和最小值,以及y坐标轴上最大值和最小值。然后利用x坐标轴上的最大值和最小值,以及y坐标轴的最大值和最小值,可以确定出立体虚拟图像在显示区域中的图像映射区。
举例说明,如图7所示,图7以立体虚拟图像为空间立方体为例说明。
在确定出该空间立体方中各像素点投影到显示区域的屏幕坐标后,可以看出,在显示区域的屏幕坐标系中,显示的该空间立方体701中各像素点在x轴上的最小值和最大值分别为x0和x1,而y轴的最大值和最小值分别为y0和y1,结合显示的空间立体方在x轴和y轴上的最大值和最小值,可以构建出包含该空间立体体701的最小的方形区域702,该方形区域702的四个顶点的屏幕坐标分别为(x0,y0)、(x1,y0)、(x0,y1)和(x1,y1)。
当然,也可以是直接将立体虚拟图像在显示区域中的轮廓围成的区域确定为立体虚拟图像的图像映射区。在实际应用中,确定立体虚拟图像在显示区域中的图像映射区的方式可以有多种可能,对此不加限制。
S602,以该相机位置为起点,确定由起点分别经显示区域中多个采样点的多条射线。
其中,显示区域中多个采样点构成的区域可以认为是显示区域中的采样区域。相应的,多个采样点可以表征出显示区域中属于用户重点关注的部分区域。
采样点的数量以及在显示区域中的位置都可以根据需要设定,对此不加限制。
如图8所示,其示出了显示区域中的采样点的位置示意图。
由图8可以看出显示区域801中可以设定多个采样点802的位置。在多个采样点位于显示区域中比较靠近中心区域的部分区域。
需要说明的是,采样点并非显示区域中显示出的点,而仅仅是为了确定目标对象而设定的一个采样位置。
S603,结合该图像映射区中被该多条射线拾取到的子映射区,确定立体虚拟图像中被该多条射线拾取到的目标对象。
其中,图像映射区可以包括至少一个子映射区,每个子映射区为图像映射区的一部分区域。在一种可选方式中,每个子映射区对应立体虚拟图像中一个组成部分在显示区域中的映射区。
其中,被射线拾取的子映射区就是射线穿过的子映射区。由于射线是从虚拟相机的相机位置向采样点发出的射线,因此,被射线拾取的子映射区也实际上就是处于采样区域内,且能够被用户关注的子映射区。
其中,每条射线可以摄取到一个子映射区,且多条射线可能会摄取到同一个子映射区。
本申请可以将多条射线拾取到的子映射区对应的立体虚拟图像中的对象确定为目标对象。
其中,该目标对象可以看成是包括:立体虚拟图像中多个对象区域,每个对象区域为立体虚拟图像在一个子映射区内的图像区域;或者是,每个对象区域为在立体虚拟图像在一个子映射区内包含的组成部件的区域。
举例说明,仍结合图8进行说明:
在图8中以立体虚拟图像为笔记本电脑的立体虚拟图像为例说明。对于图8中示出的多个采样点802以及笔记本电脑的立体虚拟图像803的图像映射区804可知,多个采样点中部分采样点位于笔记本电脑的图像映射区,还有部分采样点位于该图像映射区804之外。
而且,位于笔记本电脑的图像映射区804内分布有采样点的区域包括:立体虚拟图像中屏幕图像区和键盘图像区。
在该种情况下,以虚拟相机的相机位置作为视角位置向多个采样点发射射线后,那么显示区域中被射线拾取到区域可以划分为两大类,一类是处于图像映射区内的区域,另一类是处于图像映射区内区域,而处于图像映射区内的区域可以根据笔记本电脑的组成划分为多个子映射区,每个子映射区对应笔记本电脑中立体虚拟图像的一个组成部件。
参见图9,其示出了显示区域中被射线拾取到各区域的示意图。
对比图8和图9可以看出,射线拾取到三个区域,这三个区域中属于笔记本电脑的立体虚拟图像的映射区且对应立体虚拟图像中一个组成对象的区域包括:区域901和区域902,因此,区域901和区域902均为子映射区。而区域903不包含笔记本电脑的立体虚拟图像的组成部件。
基于图8和图9可知,区域901属于笔记本电脑的立体虚拟图像中的屏幕图像区,而区域902属于笔记本电脑的立体虚拟图像中的键盘图像区。
基于此,结合这两个区域901和902,可以将区域901对应的部分屏幕图像区和区域902对应部分键盘图像区确定为目标对象,那么区域901对应的部分屏幕图像区和区域902对应部分键盘图像区为目标对象中的两个对象区域。
还可以是,直接将立体虚拟图像中的键盘和屏幕均确定为目标对象。
S504,基于目标对象,确定立体虚拟图像中的关注焦点对象。
该步骤可以参见前面实施例的相关介绍。
如,在目标对象包括至少一个目标对象区域的情况下,可以结合基于该至少一个目标对象区域的显示特征,从该至少一个目标对象区域中确定关注焦点对象。
在本实施例中,目标对象区域的显示特征可以包括:目标对象在显示区域或者采样区域的位置,以及目标对象区域在立体虚拟图像的图像映射区或者是采样区域的面积占比等等。
如,考虑到目标对象区域在采样区域中的面积占比越大或者目标对象区域中包含的采样点的数量越多,那么用户关注到该目标对象区域的可能性越大。本申请可以将包含的采样点数量较多或者在采样区域中的面积占比最靠前的一个或者多个目标对象区域确定为关注焦点对象,或者是,将该目标对象区域对应到立体虚拟图像中的组成对象确定为关注焦点对象。
在又一种可能的实现方式中,在目标对象为一个整体且包含立体虚拟图像中至少一个组成部分(组成部件或者零件等)的情况下,本实施例还可以确定目标对象中各部分区域处于采样区域内的分布特征。该分布特征表征目标对象中各个部分区域在采样区域内的相对位置关系以及各个部分区域在采样区域内的面积大小。其中,该面积大小也可以通过目标对象的各个部分区域中包含的采样点的数量(或者说经过该目标对象区域的射线的数量)来确定。
相应的,可以基于目标对象中各部分区域处于采样区域内的分布特征,确定该立体虚拟图像中的关注焦点对象。
如图8和图9所示,笔记本电脑的立体虚拟图像中目标对象包括屏幕图像区和部分键盘图像区(或者说目标对象包括屏幕和键盘,其原理相同)。但是该部分屏幕图像区在采样区域的面积更大且相对位置也更为靠近中心区域,那么就可以将屏幕图像区或者说屏幕确定为关注焦点对象。
可以理解的是,在本申请以上实施例中,确定出立体虚拟图像中的关注焦点对象之后,还可以增加该关注焦点对象的关注次数,并存储该关注焦点对应的关注次数。如,立体虚拟图像中某个对象部分作为关注焦点对象,则该对象部分的关注次数就会增加一次。
类似的,在本申请以上实施例中,在确定立体虚拟图像中的关注焦点对象之后,还可以获得该关注焦点对象的被关注时长。
可以理解的是,在显示出立体虚拟图像,且确定出立体虚拟对象中的某对象为关注焦点对象之后,如果未对显示出该立体虚拟图像进行调整,那么立体虚拟图像中的对象仍会持续作为关注焦点对象,在本申请中可以统计该对象作为关注焦点对应的时长,直至该对象不再作为关注焦点对象为止,从而得到该对象本次被作为关注焦点对象的被关注时长。
进一步的,本申请可以将关注焦点对象的累积关注时长增加被关注时长,最终不断统计每个关注焦点对象的累积关注时长。
可以理解的是,在本申请实施例中通过确定物理对象的立体虚拟图像中的关注焦点对象可以得到用户对该物理对象的关注焦点部分,在此基础上,通过统计不同用户对该物理对象的关注焦点部分,可以用于分析确定物理对象中用户关注程度较高的部分,以便于优先对物理对象中关注程度较高的部分进行升级或者对该部分存在的问题进行优化等。
另外,确定对物理对象的立体虚拟图像中的关注焦点对象、关注焦点对应的累积关注时长以及关注次数等等,有利于从多个不同维度进行用户关注度的分析与比较,还可以由于其他场景的大数据分析等,从而为确定用户关注信息和一些大数据分析提供了可靠的数据支持。
对应本申请的一种获取对象的关注信息的方法,本申请的还提供了一种获取对象的关注信息的装置。
如图10所示,其示出了本申请一种获取对象的关注信息的装置的一种组成结构示意图,本实施例的装置应用于电子设备,该装置可以包括:
图像显示单元1001,用于显示虚拟场景中的立体虚拟图像,所述立体虚拟图像为物理对象映射到所述虚拟场景中的虚拟对象对应的立体图像;
目标确定单元1002,确定所述立体虚拟图像中呈现在显示区域内的目标对象;
焦点确定单元1003,用于基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,所述关注焦点对象属于所述立体虚拟图像中的至少一部分。
在一种可能的实现方式中,该目标确定单元,包括:
目标确定子单元,用于确定所述立体虚拟图像中处于显示区域中的采样区域内的目标对象。
在一种可能的实现方式中,目标确定子单元,包括:
相机确定子单元,用于确定当前时刻所述虚拟场景中虚拟相机的相机位置;
对象确定子单元,用于以所述相机位置为视点位置,确定所述立体虚拟图像中处于所述显示区域中的采样区域内的目标对象。
在一种可能的实现方式中,对象确定子单元,包括:
映射区确定子单元,用于确定所述立体虚拟图像映射到所述显示区域内的图像映射区;
射线构建子单元,用于以所述相机位置为起点,确定由所述起点分别经所述显示区域中多个采样点的多条射线;
拾取子单元,用于结合所述图像映射区中被所述多条射线拾取到的子映射区,确定所述立体虚拟图像中被所述多条射线拾取到的目标对象。
在一种可能的实现方式中,目标确定单元或者目标确定子单元确定出的目标对象包括:所述立体虚拟图像中至少一个目标对象区域以及所述至少一个目标对象区域的显示特征;
该焦点确定单元,包括:
第一焦点确定单元,用于基于所述至少一个目标对象区域的显示特征,从所述至少一个目标对象区域中确定关注焦点对象。
在又一种可能的实现方式中,该装置还包括:
特征确定单元,用于在焦点确定单元确定所述立体虚拟图像中的关注焦点对象之前,确定所述目标对象中各部分区域处于所述采样区域内的分布特征;
该焦点确定单元,包括:
第二焦点确定单元,用于基于所述目标对象中各部分区域处于所述采样区域内的分布特征,确定所述立体虚拟图像中的关注焦点对象。
在本申请以上任意一个实施例中,该装置还包括:
次数增加单元,用于焦点确定单元确定所述立体虚拟图像中的关注焦点对象之后,增加所述关注焦点对象的关注次数;
次数存储单元,用于存储所述关注焦点对应的关注次数。
在本申请以上任意一个实施例中,该装置还包括:
时长获得单元,用于在焦点确定单元确定所述立体虚拟图像中的关注焦点对象之后,获得所述关注焦点对象的被关注时长;
时长累积单元,用于将所述关注焦点对象的累积关注时长增加所述被关注时长。
又一方面,本申请还提供了一种电子设备,如图11所示,其示出了该电子设备的一种组成结构示意图,该电子设备可以为任意类型的电子设备,该电子设备至少包括存储器1101和处理器1102;
其中,处理器1101用于执行如上任意一个实施例中的获取对象的关注信息的方法。
该存储器1102用于存储处理器执行操作所需的程序。
可以理解的是,该电子设备还可以包括显示单元1103以及输入单元1104。
当然,该电子设备还可以具有比图11更多或者更少的部件,对此不加限制。
另一方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上任意一个实施例所述的获取对象的关注信息的方法。
本申请还提出了一种计算机程序,该计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机程序在电子设备上运行时,用于执行如上任意一个实施例中的获取对象的关注信息的方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。同时,本说明书中各实施例中记载的特征可以相互替换或者组合,使本领域专业技术人员能够实现或使用本申请。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种获取对象的关注信息的方法,包括:
显示虚拟场景中的立体虚拟图像,所述立体虚拟图像为物理对象映射到所述虚拟场景中的虚拟对象对应的立体图像;
确定所述立体虚拟图像中呈现在显示区域内的目标对象;
基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,所述关注焦点对象属于所述立体虚拟图像中的至少一部分。
2.根据权利要求1所述的方法,所述确定所述立体虚拟图像中呈现在显示区域内的目标对象,包括:
确定所述立体虚拟图像中处于显示区域中的采样区域内的目标对象。
3.根据权利要求2所述的方法,所述确定所述立体虚拟图像中处于显示区域中的采样区域内的目标对象,包括:
确定当前时刻所述虚拟场景中虚拟相机的相机位置;
以所述相机位置为视点位置,确定所述立体虚拟图像中处于所述显示区域中的采样区域内的目标对象。
4.根据权利要求3所述的方法,所述以所述相机位置为视点位置,确定所述立体虚拟图像中处于所述显示区域中的采样区域内的目标对象,包括:
确定所述立体虚拟图像映射到所述显示区域内的图像映射区;
以所述相机位置为起点,确定由所述起点分别经所述显示区域中多个采样点的多条射线;
结合所述图像映射区中被所述多条射线拾取到的子映射区,确定所述立体虚拟图像中被所述多条射线拾取到的目标对象。
5.根据权利要求1至4任意一项所述的方法,所述目标对象包括:所述立体虚拟图像中至少一个目标对象区域以及所述至少一个目标对象区域的显示特征;
所述基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,包括:
基于所述至少一个目标对象区域的显示特征,从所述至少一个目标对象区域中确定关注焦点对象。
6.根据权利要求2所述的方法,在确定所述立体虚拟图像中的关注焦点对象之前,还包括:
确定所述目标对象中各部分区域处于所述采样区域内的分布特征;
所述基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,包括:
基于所述目标对象中各部分区域处于所述采样区域内的分布特征,确定所述立体虚拟图像中的关注焦点对象。
7.根据权利要求1所述的方法,在所述确定所述立体虚拟图像中的关注焦点对象之后,还包括:
增加所述关注焦点对象的关注次数;
存储所述关注焦点对应的关注次数。
8.根据权利要求1所述的方法,在所述确定所述立体虚拟图像中的关注焦点对象之后,还包括:
获得所述关注焦点对象的被关注时长;
将所述关注焦点对象的累积关注时长增加所述被关注时长。
9.一种获取对象的关注信息的装置,包括:
图像显示单元,用于显示虚拟场景中的立体虚拟图像,所述立体虚拟图像为物理对象映射到所述虚拟场景中的虚拟对象对应的立体图像;
目标确定单元,确定所述立体虚拟图像中呈现在显示区域内的目标对象;
焦点确定单元,用于基于所述目标对象,确定所述立体虚拟图像中的关注焦点对象,所述关注焦点对象属于所述立体虚拟图像中的至少一部分。
10.一种电子设备,至少包括存储器和处理器;
其中,所述处理器,用于执行如上权利要求1至8任意一项所述的获取对象的关注信息的方法;
所述存储器,用于存储处理器执行操作所需的程序。
CN202210118195.4A 2022-02-08 2022-02-08 获取对象的关注信息的方法、装置及电子设备 Pending CN114445603A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210118195.4A CN114445603A (zh) 2022-02-08 2022-02-08 获取对象的关注信息的方法、装置及电子设备
US18/166,131 US12340010B2 (en) 2022-02-08 2023-02-08 Method and apparatus for acquiring object's attention information and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210118195.4A CN114445603A (zh) 2022-02-08 2022-02-08 获取对象的关注信息的方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN114445603A true CN114445603A (zh) 2022-05-06

Family

ID=81371766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210118195.4A Pending CN114445603A (zh) 2022-02-08 2022-02-08 获取对象的关注信息的方法、装置及电子设备

Country Status (2)

Country Link
US (1) US12340010B2 (zh)
CN (1) CN114445603A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116095356A (zh) * 2023-01-18 2023-05-09 北京有竹居网络技术有限公司 用于呈现虚拟场景的方法、装置、设备和存储介质
CN116095379A (zh) * 2023-01-16 2023-05-09 联想(北京)有限公司 一种输出控制方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102760308A (zh) * 2012-05-25 2012-10-31 任伟峰 一种点选三维虚拟现实场景中物体的方法和装置
US20140327749A1 (en) * 2012-01-19 2014-11-06 Kabushiki Kaisha Toshiba Image processing device, stereoscopic image display device, and image processing method
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017102686A (ja) * 2015-12-01 2017-06-08 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
CN113888742A (zh) * 2021-08-25 2022-01-04 北京达佳互联信息技术有限公司 图像识别方法、装置、电子设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3887136B2 (ja) * 2000-01-14 2007-02-28 株式会社日立製作所 仮想3次元的空間におけるオブジェクト表示方法および表示プログラムを記録した媒体
US8542232B2 (en) * 2008-12-28 2013-09-24 Avaya Inc. Method and apparatus for monitoring user attention with a computer-generated virtual environment
US20160070439A1 (en) * 2014-09-04 2016-03-10 International Business Machines Corporation Electronic commerce using augmented reality glasses and a smart watch
US10055892B2 (en) * 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
JP6585929B2 (ja) * 2015-06-02 2019-10-02 キヤノン株式会社 システム、システムの制御方法
US10395428B2 (en) * 2016-06-13 2019-08-27 Sony Interactive Entertainment Inc. HMD transitions for focusing on specific content in virtual-reality environments
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US10262036B2 (en) * 2016-12-29 2019-04-16 Microsoft Technology Licensing, Llc Replacing pronouns with focus-specific objects in search queries
JP7005224B2 (ja) * 2017-08-22 2022-01-21 キヤノン株式会社 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
US10565761B2 (en) * 2017-12-07 2020-02-18 Wayfair Llc Augmented reality z-stack prioritization
EP3506210A1 (en) * 2017-12-27 2019-07-03 Nokia Technologies Oy Handling image content in a virtual reality environment
US10467809B2 (en) * 2018-01-03 2019-11-05 Verizon Patent And Licensing Inc. Methods and systems for presenting a video stream within a persistent virtual reality world
WO2019163129A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
CN109064390B (zh) * 2018-08-01 2023-04-07 Oppo(重庆)智能科技有限公司 一种图像处理方法、图像处理装置及移动终端
CN109191188A (zh) * 2018-08-17 2019-01-11 连云港伍江数码科技有限公司 目标信息的确定方法、装置、计算机设备和存储介质
CN109542226A (zh) * 2018-11-22 2019-03-29 国网上海市电力公司 基于虚拟现实技术的10kV高压计量柜竣工验收模拟系统和模拟方法
WO2020218041A1 (ja) * 2019-04-23 2020-10-29 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11281351B2 (en) * 2019-11-15 2022-03-22 Adobe Inc. Selecting objects within a three-dimensional point cloud environment
WO2021155334A1 (en) * 2020-01-31 2021-08-05 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model
US11402634B2 (en) * 2020-12-30 2022-08-02 Facebook Technologies, Llc. Hand-locked rendering of virtual objects in artificial reality
US11954242B2 (en) * 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN113470161B (zh) * 2021-06-30 2022-06-07 完美世界(北京)软件科技发展有限公司 虚拟环境中容积云的光照确定方法、相关设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140327749A1 (en) * 2012-01-19 2014-11-06 Kabushiki Kaisha Toshiba Image processing device, stereoscopic image display device, and image processing method
CN102760308A (zh) * 2012-05-25 2012-10-31 任伟峰 一种点选三维虚拟现实场景中物体的方法和装置
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017102686A (ja) * 2015-12-01 2017-06-08 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
CN113888742A (zh) * 2021-08-25 2022-01-04 北京达佳互联信息技术有限公司 图像识别方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王建一等: "《数字媒体设计图形图像理论基础》", 30 June 2021, pages: 52 - 54 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116095379A (zh) * 2023-01-16 2023-05-09 联想(北京)有限公司 一种输出控制方法及装置
CN116095356A (zh) * 2023-01-18 2023-05-09 北京有竹居网络技术有限公司 用于呈现虚拟场景的方法、装置、设备和存储介质

Also Published As

Publication number Publication date
US20230251706A1 (en) 2023-08-10
US12340010B2 (en) 2025-06-24

Similar Documents

Publication Publication Date Title
JP6951595B2 (ja) 住宅のデータ収集およびモデル生成方法
KR101636027B1 (ko) 실세계 객체들의 3d 모델들 및 실제 스케일 메타데이터를 캡처하고 이동시키기 위한 방법들 및 시스템들
US10154246B2 (en) Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras
US10410421B2 (en) Method and server for providing virtual reality image about object
US10242280B2 (en) Determining regions of interest based on user interaction
CN106971403A (zh) 点云图像处理方法及装置
CN114416244B (zh) 信息的显示方法、装置、电子设备及存储介质
US20160071294A1 (en) Apparatus and method for constructing indoor map using cloud point
CN114445603A (zh) 获取对象的关注信息的方法、装置及电子设备
JP2009080514A (ja) センサ配置設計支援システム
JP2023172893A (ja) 対象物の双方向な三次元表現の制御方法、制御装置及び記録媒体
JP2019168847A (ja) 情報処理装置、表示システム及びウィンドウ配置プログラム
WO2025152814A1 (zh) 摄像设备控制方法、摄像设备位置处理方法及相关设备
EP4328784A1 (en) A method for selecting a refined scene points, distance measurement and a data processing apparatus
CN107102794B (zh) 操作处理方法及装置
CN116468217A (zh) 工程管理及测量方法、系统、设备及存储介质
JP2018180125A (ja) 画像投影装置、画像投影方法および画像投影プログラム
CN113055603A (zh) 一种图像处理方法及电子设备
CN115268674B (zh) 激光笔指示数据标记方法、装置、设备及计算机存储介质
CN114866749B (zh) 设定方法和记录介质
JP5275573B2 (ja) 壁面情報収集装置及び壁面情報収集プログラム
JP2010224735A (ja) 3次元空間データ作成方法及び3次元空間データ作成装置
CN107742275B (zh) 一种信息处理方法及电子设备
CN114937140A (zh) 面向大规模场景的图像渲染质量预测与路径规划系统
CN121025967A (zh) 空间测距方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination