[go: up one dir, main page]

CN119111066A - 增强现实体验事件度量系统 - Google Patents

增强现实体验事件度量系统 Download PDF

Info

Publication number
CN119111066A
CN119111066A CN202380036257.XA CN202380036257A CN119111066A CN 119111066 A CN119111066 A CN 119111066A CN 202380036257 A CN202380036257 A CN 202380036257A CN 119111066 A CN119111066 A CN 119111066A
Authority
CN
China
Prior art keywords
event
experience
interaction
list
interaction data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202380036257.XA
Other languages
English (en)
Inventor
本杰明·托德·格罗弗
塔拉斯·拉扎连科
埃利奥特·刘易斯
迈克尔·奥布里·鲍威尔
赵家璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN119111066A publication Critical patent/CN119111066A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Information Transfer Between Computers (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)

Abstract

公开了用于执行在消息收发平台上生成AR体验的方法和系统。方法和系统从客户端设备接收访问增强现实(AR)体验的请求,并且访问用于生成一个或更多个度量的与AR体验相关联的事件类型的列表。方法和系统确定与AR体验相关联的交互对应于事件类型的列表中的第一事件类型,并且生成针对第一事件类型的表示所述交互的交互数据。响应于接收到终止AR体验的请求,系统和方法将交互数据发送至远程服务器。

Description

增强现实体验事件度量系统
优先权要求
本申请要求2022年4月25日提交的序列号为17/727,972的美国专利申请的优先权的权益,该美国专利申请通过引用整体并入本文。
技术领域
本公开内容总体上涉及在消息收发应用上生成增强现实(AR)体验。
背景技术
增强现实(AR)是对虚拟环境的修改。例如,在虚拟现实(VR)中,用户完全沉浸在虚拟世界中,而在AR中,用户沉浸在将虚拟对象与现实世界组合或将虚拟对象叠加在现实世界上的世界中。AR系统旨在生成并呈现与现实世界环境真实地交互并且彼此之间进行交互的虚拟对象。AR应用的示例可以包括单人或多人视频游戏、即时消息收发系统等。
附图说明
在附图(其不一定按比例绘制)中,相似的数字可以在不同视图中描述类似的部件。为了容易地标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时所在的图号。在附图中示出了一些非限制性示例,在附图中:
图1是根据一些示例的可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的消息收发客户端应用的图解表示。
图3是根据一些示例的在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是示出根据一些示例的示例AR事件跟踪系统的框图。
图6至图8是根据一些示例的AR事件跟踪系统的输出的图解表示。
图9是示出根据一些示例的AR事件跟踪系统的示例操作的流程图。
图10是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文所讨论的方法中的任何一种或更多种方法。
图11是示出可以在其中实现示例的软件架构的框图。
具体实施方式
下面的描述包括实施本公开内容的说明性示例的系统、方法、技术、指令序列和计算机器程序产品。在以下描述中,出于说明的目的,阐述了许多具体细节以便提供对各种示例的理解。然而,对于本领域技术人员而言将明显的是,可以在没有这些具体细节的情况下实践示例。通常,不需要详细示出公知的指令实例、协议、结构和技术。
消息收发应用通常使得终端用户能够通过启动包括与AR体验相关联的AR内容的AR体验包(bundle)或包(package)来访问各种AR体验。AR体验通常呈现被动画化或锚定至特定位置的AR元素。这使得用户能够在现实世界中四处移动,并且使AR元素保持在适当位置或以类似的方式四处移动。为了确保AR体验以最小数量的错误保持在完全操作状态并改进AR体验的某些特征,AR体验开发者寻求关于AR体验如何整体起作用的信息。具体地,AR体验开发者需要关于AR体验的哪些特征被使用以及哪些特征存在问题的反馈。然而,当前的系统只能提供关于AR体验的通用度量,并且不能逐个特征地跟踪与AR体验的交互的水平。通用度量对于由许多不同实体开发的所有AR体验是相同的,并且不代表每个特定AR体验的独特属性和特征。因此,AR体验开发者仍然不清楚AR体验的某些特征如何起作用以及终端用户如何访问这些特征和与这些特征交互。这迫使AR开发者猜测应该对AR体验进行哪些改进,这可能既耗时又浪费资源。这可能会降低终端用户再次访问AR体验的兴趣水平,从而导致错失机会。
所公开的技术通过跨设备和跨AR体验被启动的不同时间或实例跟踪由AR体验开发者选择的与某些特征的交互来解决这些技术问题。为此,在计算系统上执行的所公开的技术从客户端设备接收访问AR体验的请求。所公开的技术访问用于生成一个或更多个度量的与AR体验相关联的事件类型的列表。所公开的技术确定与AR体验相关联的交互对应于事件类型的列表中的第一事件类型,并且生成针对第一事件类型的表示所述交互的交互数据。在一个示例中,AR开发者选择第一事件类型作为要跟踪的AR事件。所公开的技术接收终止AR体验的请求,并且作为响应,将交互数据发送至远程服务器。该交互数据可以在逐个特征级别的基础上向AR体验开发者提供关于用户与AR体验的某些特征的交互的反馈。
在一些示例中,AR开发平台被提供给AR体验开发者。AR开发平台可以向AR体验开发者呈现使得AR开发者能够选择哪些AR元素被跟踪并用于生成AR体验的度量的用户界面。图形用户界面呈现与AR体验相关联的AR事件的列表,并且包括与AR元素的列表中的第一AR事件相关联的第一选项。第一选项被配置成响应于选择第一选项使与第一AR事件对应的交互被跟踪并在终止AR体验之后提供给远程服务器用于聚合(aggregation)。
在一些示例中,AR事件的列表包括可以被跟踪的预定义AR事件。在一些示例中,AR事件的列表包括由AR开发者生成的自定义AR事件的列表。列表可以包括要跟踪的预定义事件和由AR开发者选择要跟踪的不包括在预定义事件的列表中的自定义AR事件的混合。图形用户界面还包括与第一AR事件相关联的第二选项,第二选项用于响应于选择第二选项而指定用于触发第一AR事件的一个或更多个条件。这为开发者提供了更大的灵活性,以创建有用的、有趣的和吸引人的AR体验,而不受运行AR体验的消息收发应用和/或客户端设备的资源约束的限制。
本文所描述的技术提高了使用电子设备的效率和用户在使用电子设备时的整体体验。此外,通过自定义和自动化跨设备跟踪AR特征或事件使用,减少了完成任务所需的系统资源的总量。
联网计算环境
图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,多个实例中的每个实例托管包括客户端应用104和其他外部应用109(例如,第三方应用)的若干应用。每个客户端应用104经由网络112(例如,因特网)通信地耦接至(例如,托管在相应的其他客户端设备102上的)客户端应用104的其他实例、消息收发服务器系统108以及外部应用服务器110。客户端应用104还可以使用应用程序接口(API)与本地托管的第三方应用诸如外部应用109进行通信。客户端应用104可以包括消息收发客户端、消息收发应用和/或AR开发者应用或AR开发客户端。
客户端设备102可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,客户端设备102可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份操作,或者在对等(或分布式)网络环境中作为对等机器操作。客户端设备102可以包括但不限于服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web(网络)装置、网络路由器、网络交换机、网络桥接器或者能够执行所公开的操作的任何机器。此外,虽然仅示出了单个客户端设备102,但术语“客户端设备”也应被视为包括单独或联合执行所公开的操作的机器的集合。
在一些示例中,客户端设备102可以包括AR眼镜或AR头戴式耳机,其中虚拟内容被显示在眼镜的镜片内,同时用户通过镜片观看现实世界环境。例如,可以在透明显示器上呈现图像,这使得用户能够同时观看显示器上呈现的内容和现实世界对象。
在一些示例中,客户端设备102可以由AR体验开发者操作。在这种情况下,AR体验开发者(或AR开发者)访问AR体验开发平台。AR体验开发平台允许AR开发者生成包括一组AR元素和不同类型的事件或触发器的AR体验包。在一些示例中,AR开发者可以指定在哪些条件下跟踪所述一组AR事件或触发器(triggers)并将其聚合至一组度量中。在一些示例中,以自动的方式跟踪各种标准事件或触发器,无需来自AR开发者的输入。在一些示例中,响应于确定某些AR部件已经被启用、配置或包括在AR体验包中,一组自定义事件(customevent)或触发器被添加至自定义事件的列表以自动进行跟踪。在这种情况下,对于已经为其启用了对应的AR部件的每个AR体验,单独地自动跟踪事件或触发器。AR部件可以包括AR体验上可用的任何类型的功能,诸如对象跟踪、面部跟踪、位置跟踪、摄像装置视图等。
在一些示例中,当在终端用户客户端设备102上启动或访问AR体验时,响应于确定所执行的交互对应于与AR体验相关联的事件或触发器类型之一(例如,由AR体验开发者手动指定或编程的那些事件或触发器、自动被包括以用于跟踪的标准事件或触发器、和/或响应于某些部件被启用而自动被添加以用于跟踪的事件或触发器)而跟踪与由终端用户执行的事件或触发器对应的交互并将其聚合至一组度量中。在AR体验被终止之后,任何所跟踪的交互(基于预定义事件或触发器类型)被添加至批量消息并被发送至远程服务器以呈现给AR体验开发者。
在一些示例中,条件可以包括地理位置、游戏应用或AR体验中的级别、现实世界环境部分的视图或描绘、时间、一天中的时间、客户端设备类型、用户类型、用户账户类型、位置标记、图像标记或任何其他合适的条件。事件或触发器的类型可以包括AR体验的任何独特特征。在一些示例中,可以被跟踪并用于生成一个或更多个度量的事件或触发器的类型可以包括以下的任何组合:面部发现事件、面部丢失事件、对象跟踪标准、3D对象跟踪标准、标记跟踪部件、点击事件、触摸开始事件、触摸移动事件、触摸结束事件、共享会话事件、共享会话加入事件、语音命令事件、语音转录事件和/或语言事件。在一些示例中,条件可以被手动编程并存储为AR体验包的一部分。在一些示例中,通过AR开发者在用于设置与部件和/或事件或触发器相关联的某些条件的各种选项之间进行选择来设置条件。在一些示例中,当给定部件被添加至AR体验包时,条件是预定的和设置的。以这种方式,给定AR体验包可以与被跟踪的标准事件相关联,并且单独地或一起地与响应于向AR体验包添加某些部件而添加的自定义事件或触发器相关联。在一些示例中,AR开发者无法禁用事件和触发器的标准列表用于跟踪。在这种情况下,可以仅禁用自定义事件或触发器用于跟踪,诸如通过移除AR部件或取消选择对于对应的自定义事件或触发器的跟踪选项。
在一些示例中,面部发现事件可以与当客户端设备102的摄像装置检测到新面部(或其他指定对象)时满足的条件或触发器相关联。在这种情况下,可以开启第一计数器来计算或测量面部发现事件的总数量或每个会话(例如,在开始AR体验与结束AR体验之间的每段时间)的面部发现事件的平均数量。在一些示例中,面部丢失事件可以与当不再检测到和跟踪到面部(或其他指定对象)时(例如,如果面部被阻挡在摄像装置的视图之外或距离太远)满足的条件或触发器相关联。在这种情况下,可以开启第二计数器来计算或测量每个会话的面部丢失事件的总次数或会话中丢失的面部的平均数量。
在一些示例中,对象跟踪标准与当对象当前被终端用户的客户端设备102的摄像装置跟踪到时满足的条件或触发器相关联。可以使用第三计数器来计数在给定会话中对象被跟踪到的总次数或平均次数。在一些示例中,可以使用单独的3D对象跟踪标准来单独地跟踪由客户端设备102的摄像装置跟踪到的3D对象的数量。在一些示例中,标记跟踪标准可以与当标记图像(marker image)当前被摄像装置跟踪到时满足的条件或触发器相关联。可以使用第四计数器来计数标记图像被跟踪到的总次数或平均次数。
在一些示例中,点击事件(tap event)与当客户端设备102检测到触摸输入时满足的条件或触发器相关联。可以使用第五计数器来计数在给定会话期间检测到触摸输入的总次数或平均次数。可以使用类似的条件或触发器来跟踪用户开始触摸屏幕的次数,或者用户何时在保持屏幕触摸的同时移动手指(在屏幕上拖动),以及/或者用户何时结束屏幕触摸(例如,通过将手指从屏幕抬起)。
在一些示例中,共享或多用户AR共享会话与当共享AR会话与另一用户共享时满足的条件或触发器相关联。可以使用第六计数器来计数AR会话与其他用户共享的总次数或平均次数。可以使用类似的条件或触发器来跟踪共享AR会话被其他用户加入的次数。
在一些示例中,语音命令事件与当客户端设备102检测到语音导航命令(例如,使用自然语言处理)时满足的条件或触发器相关联。可以使用第七计数器来计数在给定会话期间检测到语音命令事件的总次数或平均次数。语音转录事件(voice transcriptionevent)与在记录期间或针对所存储的视频剪辑实时转录说话(speech)时满足的条件或触发器相关联。可以使用第八计数器来计数在给定会话期间检测到语音转录事件的总次数或平均次数。可以使用语言显示事件(language displayed eve)来跟踪语言的分布和定位。该事件使得AR体验开发者能够定位AR体验中的将自动使用正确定位的字符串的文本。
AR体验开发者可以选择任何其他自定义或预定义的事件或触发器类型来单独跟踪并用于累积或生成给定AR体验的度量。
客户端应用104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并交换数据。在客户端应用104之间以及在客户端应用104与消息收发服务器系统108之间交换的数据包括函数(例如,激活函数的命令)以及净荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定客户端应用104提供服务器侧功能。虽然消息收发系统100的某些功能在本文被描述为由客户端应用104或由消息收发服务器系统108执行,但是某些功能是定位在客户端应用104内还是定位在消息收发服务器系统108内可以是设计选择。例如,在技术上优选的是:可以最初将某些技术和功能部署在消息收发服务器系统108内但是稍后将该技术和功能迁移至客户端设备102具有足够处理能力的客户端应用104。
消息收发服务器系统108支持提供给客户端应用104的各种服务和操作。这样的操作包括向客户端应用104发送数据、从客户端应用104接收数据以及处理客户端应用104生成的数据。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体增强和覆盖(overlay)、消息内容持久化条件、社交网络信息和实况事件信息。通过经由客户端应用104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器114提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web(网络)服务器128耦接至应用服务器114,并且向应用服务器114提供基于web(网络)的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
API服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息净荷)。具体地,API服务器116提供一组接口(例如,例程和协议),该组接口可以由客户端应用104调用或查询以便激活应用服务器114的功能。API服务器116公开由应用服务器114支持的各种功能,包括账户注册、登录功能、经由应用服务器114从特定客户端应用104向另一客户端应用104发送消息、从客户端应用104向消息收发服务器118发送媒体文件(例如,图像或视频)以及用于由另一客户端应用104进行的可能访问、媒体数据的集合(例如,故事)的设置、客户端设备102的用户的朋友列表的检索、这样的集合的检索、消息和内容的检索、向实体图(例如,社交图)添加和删除实体(例如,朋友)、社交图内朋友的位置以及打开应用事件(例如,涉及客户端应用104)。
应用服务器114托管若干服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122和社交网络服务器124。消息收发服务器118实现若干消息处理技术和功能,特别是与从客户端应用104的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的汇总和其他处理相关的消息处理技术和功能。如将进一步详细描述的,来自多个源的文本和媒体内容可以被汇总成内容的集合(例如,称为故事或图库(gallery))。然后,使这些集合对客户端应用104可用。鉴于数据的其他处理器和存储器密集型处理的硬件要求,也可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,该图像处理服务器122专用于执行各种图像处理操作,通常针对在从消息收发服务器118发送或者在消息收发服务器118处接收的消息的净荷内的图像或视频执行各种图像处理操作。
图像处理服务器122用于实现增强系统208(图2中示出)的扫描功能。扫描功能包括当客户端设备102捕获到图像时,在客户端设备102上激活并提供一个或更多个增强现实体验。具体地,客户端设备102上的客户端应用104可以用于激活摄像装置。摄像装置向用户显示一个或更多个实时图像或视频以及一个或更多个增强现实体验的一个或更多个图标或标识符。用户可以选择标识符中的给定标识符来启动对应的增强现实体验或执行所期望的图像修改(例如,替换视频中的用户穿着的服装或者为视频中的用户穿着的服装重新着色或者基于由用户执行的姿势修改服装)。
社交网络服务器124支持各种社交联网功能和服务并使这些功能和服务对消息收发服务器118可用。为此,社交网络服务器124维护并访问数据库126内的实体图308(如图3所示)。由社交网络服务器124支持的功能和服务的示例包括识别消息收发系统100的与特定用户有关系或该特定用户正在“关注”的其他用户,并且还包括识别特定用户的兴趣和其他实体。
返回至客户端应用104,外部资源(例如,第三方应用109或小程序(applet))的特征和功能经由客户端应用104的接口对用户可用。客户端应用104接收对用于启动或访问诸如外部应用109的外部资源(例如,第三方资源)的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的第三方应用(外部应用109)(例如,“原生应用”),或者是托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的第三方应用的小规模版本(例如,“小程序”)。第三方应用的小规模版本包括第三方应用(例如,第三方独立应用的全规模、原生版本)的特征和功能的子集,并且使用标记语言文档来实现。在一个示例中,第三方应用的小规模版本(例如,“小程序”)是第三方应用的基于web的标记语言版本,并且被嵌入在客户端应用104中。除了使用标记语言文档(例如,*ml文件)之外,小程序可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,*ss文件)。
响应于接收到对用于启动或访问外部资源(外部应用109)的特征的选项的用户选择,客户端应用104确定所选择的外部资源是基于web的外部资源还是本地安装的外部应用。在一些情况下,本地安装在客户端设备102上的外部应用109可以诸如通过在客户端设备102的主页画面上选择与外部应用109对应的图标来独立于客户端应用104并且与客户端应用104分开地启动。这样的外部应用的小规模版本可以经由客户端应用104启动或访问,并且在一些示例中,小规模外部应用的任何部分都不能或者有限部分才能在客户端应用104之外被访问。可以通过客户端应用104从外部应用服务器110接收与小规模外部应用相关联的标记语言文档并对这样的文档进行处理来启动小规模外部应用。
响应于确定外部资源是本地安装的外部应用109,客户端应用104指示客户端设备102通过执行与外部应用109对应的本地存储的代码来启动外部应用109。响应于确定外部资源是基于web的资源,客户端应用104与外部应用服务器110进行通信以获得与所选择的资源对应的标记语言文档。客户端应用104然后处理所获得的标记语言文档以在客户端应用104的用户界面内呈现基于web的外部资源。
客户端应用104可以向客户端设备102的用户或与这样的用户相关的其他用户(例如,“朋友”)通知一个或更多个外部资源中发生的活动。例如,客户端应用104可以向客户端应用104中的对话(例如,聊天会话)中的参与者提供与用户组中的一个或更多个成员当前或最近使用外部资源相关的通知。可以邀请一个或更多个用户加入活跃的外部资源或者启动(该朋友组中)最近使用过但当前不活跃的外部资源。外部资源可以向对话中的各自使用相应的客户端应用104的参与者提供与进入聊天会话中的用户组中的一个或更多个成员分享外部资源中的项、状况、状态或定位的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,以例如启动对应的外部资源、查看外部资源内的特定信息或者将聊天的成员带到外部资源内的特定位置或状态。在给定外部资源内,可以在客户端应用104上向用户发送响应消息。外部资源可以基于外部资源的当前上下文将不同的媒体项选择性地包括在响应中。
客户端应用104可以向用户呈现可用的外部资源(例如,第三方或外部应用109或小程序)的列表以启动或访问给定外部资源。该列表可以被呈现在上下文相关菜单中。例如,表示外部应用109(或小程序)中的不同外部应用的图标可以基于用户如何启动(例如,从对话界面或从非对话界面启动)菜单而变化。
客户端应用104可以允许用户启动具有不同类型的AR元素或事件的AR体验。具体地,客户端应用104可以接收访问AR体验的请求。响应于接收到访问AR体验的请求,客户端应用104启动与AR体验相关联的AR体验包。作为AR体验包的一部分,客户端应用104访问用于生成一个或更多个度量的与AR体验相关联的事件类型的列表。该列表可以包括预定义的事件类型和/或由AR开发者具体配置和选择的事件类型和/或当某些AR部件被添加至AR体验包时自动添加的用于跟踪的事件类型。
客户端应用104可以确定与AR体验相关联的交互对应于事件类型的列表中的第一事件类型。客户端应用104可以生成针对第一事件类型的表示所述交互的交互数据,并且接收终止AR体验的请求。响应于接收到终止AR体验的请求,客户端应用104可以将交互数据发送至远程服务器。远程服务器可以从许多客户端设备102收集该交互数据,并且生成AR体验的特定于特征的度量。远程服务器可以向AR体验开发者呈现特定于特征的度量。这可以使得AR体验开发者能够增强或改进AR体验的某些特征,从而可以改善终端用户的整体体验。与AR体验相关联的交互的列表可以由AR开发者定义,使得每个AR体验可以具有可以被跟踪的交互的独特列表。这样的交互可以对应于基于AR开发者指定的配置针对每个AR体验跟踪的不同事件。
在一些示例中,客户端应用104可以呈现AR开发者界面。在这种情况下,客户端应用104可以由AR开发者操作以开发和创建一个或更多个AR体验,如以下所讨论的。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示为包括客户端应用104和应用服务器114。消息收发系统100包含若干子系统,这些子系统在客户端侧由客户端应用104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、以及外部资源系统220。
短暂定时器系统202负责实施客户端应用104和消息收发服务器118对内容的临时或时间受限访问。短暂定时器系统202包含若干定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由客户端应用104访问消息和相关联的内容(例如,用于呈现和显示)。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的合集或集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件图库”或“事件故事”。这样的集合可以在指定的时间段内(诸如,与内容相关的事件的持续时间内)可用。例如,可以使与音乐会相关的内容在音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向客户端应用104的用户界面发布提供特定集合的存在的通知的图标。
此外,集合管理系统204还包括策展接口206,策展接口206使得集合管理者能够管理和策展特定内容集合。例如,策展接口206使得事件组织者能够策展与特定事件相关的内容的集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来对内容集合进行自动策展。在某些示例中,可以针对将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地向这样的用户支付费用以使用其内容。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布针对由消息收发系统100处理的消息的媒体覆盖(media overlay)相关的功能。增强系统208基于客户端设备102的地理位置可操作地向客户端应用104提供媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向客户端应用104提供媒体覆盖。媒体覆盖可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、标志、动画和声音效果。视觉效果的示例包括颜色覆盖。音频和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备102拍摄的照片上的文本、图形元素或者图像。在另一示例中,媒体覆盖包括定位标识覆盖(例如,威尼斯海滩)、实况事件的名称或商家名称覆盖(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理位置来标识包括客户端设备102的地理位置处的商家名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他标记。媒体覆盖可以被存储在数据库126中并且通过数据库服务器120进行访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够在地图上选择地理位置并上传与所选择的地理位置相关联的内容。用户还可以指定特定媒体覆盖应当被提供给其他用户的环境。增强系统208生成包括所上传的内容并且将所上传的内容与所选择的地理位置相关联的媒体覆盖。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由竞标过程选择与地理位置相关联的特定媒体覆盖。例如,增强系统208使最高出价商家的媒体覆盖与对应地理位置相关联达预定义时间量。增强系统208与图像处理服务器122通信以获得增强现实体验,并且在一个或更多个用户界面中呈现这样的体验的标识符(例如,作为实时图像或视频上的图标,或作为专用于所呈现的增强现实体验的标识符的界面中的缩略图或图标)。一旦选择了增强现实体验,则检索一个或更多个图像、视频或增强现实图形元素,并将其呈现为在由客户端设备102捕获的图像或视频之上的覆盖物。在一些情况下,摄像装置被切换至正面视角(例如,客户端设备102的前置摄像装置响应于特定增强现实体验的激活而被激活),并且来自客户端设备102的前置摄像装置而不是客户端设备102的后置摄像装置的图像开始显示在客户端设备102上。一个或更多个图像、视频或增强现实图形元素被检索并呈现为在由客户端设备102的前置摄像装置捕获和显示的图像之上的覆盖物。
在其他示例中,增强系统208能够经由网络112与另一客户端设备102上的另一增强系统208以及与服务器通信并交换数据。交换的数据可以包括:标识共享AR会话的会话标识符;第一客户端设备102与第二客户端设备102(例如,多个客户端设备102,包括第一设备和第二设备)之间的变换,该变换用于将共享AR会话对准至共同原点;共同坐标系;功能(例如,用于激活函数的命令)以及其他净荷数据(例如,文本、音频、视频或其他多媒体数据),诸如在多个用户或参与者之间的视频呼叫期间。
增强系统208将变换发送至第二客户端设备102,使得第二客户端设备102可以基于该变换来调整AR坐标系。以这种方式,第一客户端设备102和第二客户端设备102将它们的坐标系(coordinate systems and frames)同步以显示AR会话中的内容。具体地,增强系统208计算第二客户端设备102在第一客户端设备102的坐标系中的原点。然后,增强系统208可以基于从第二客户端设备102的角度来看的该原点在第二客户端设备102的坐标系中的定位来确定第二客户端设备102的坐标系中的偏移量。使用该偏移量生成变换,使得第二客户端设备102根据与第一客户端设备102的共同坐标系生成AR内容。
增强系统208可以与客户端设备102通信,以建立单独或共享的AR会话。增强系统208还可以耦接至消息收发服务器118以在共享AR会话中为客户端设备102建立电子群组通信会话(例如,群组聊天、即时消息收发、视频呼叫、群组视频呼叫等)。可以使电子群组通信会话与由客户端设备102提供的会话标识符相关联以获得对电子群组通信会话和共享AR会话的访问权限。在一个示例中,客户端设备102首先获得对电子群组通信会话的访问权限,并且然后在电子群组通信会话中获得允许客户端设备102访问共享AR会话的会话标识符。在一些示例中,客户端设备102能够在无需应用服务器114中的增强系统208的帮助或与应用服务器114中的增强系统208通信的情况下访问共享AR会话。
地图系统210提供各种地理位置功能,并且支持由客户端应用104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的,在图3中示出的)用户图标或化身,以指示用户的“朋友”的当前或过去位置,以及由这样的朋友在地图的上下文内生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在客户端应用104的地图界面上将用户从特定地理位置发布到消息收发系统100的消息在地图的该特定位置的上下文内显示给特定用户的“朋友”。用户还可以经由客户端应用104与消息收发系统100的其他用户(例如,使用适当的状态化身)共享他或她的位置和状态信息,其中该位置和状态信息在客户端应用104的地图界面的上下文内被类似地显示给选定用户。
游戏系统212在客户端应用104的上下文内提供各种游戏功能。客户端应用104提供游戏界面,该游戏界面提供可以由用户在客户端应用104的上下文内启动并且与消息收发系统100的其他用户一起玩的可用游戏(例如,基于web的游戏或基于web的应用)的列表。消息收发系统100还使得特定用户能够通过从客户端应用104向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。客户端应用104还支持玩游戏上下文内的语音消息收发和文本消息收发两者(例如,聊天)、为游戏提供排行榜,并且还支持提供游戏内奖励(例如,游戏币和物品)。
外部资源系统220向客户端应用104提供用于与外部应用服务器110通信以启动或访问外部资源的接口。每个外部资源(应用)服务器110托管例如基于标记语言(例如,HTML5)的应用或外部应用的小规模版本(例如,客户端应用104外部的游戏、实用程序、支付或骑乘共享应用)。客户端应用104可以通过从与基于web的资源相关联的外部资源(应用)服务器110访问HTML5文件来启动该基于web的资源(例如,应用)。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由外部资源服务器110托管的应用进行编程。SDK包括具有可以由基于web的应用调用或激活的功能的应用程序接口(API)。在某些示例中,消息收发服务器118包括JavaScript库,该JavaScript库向给定的第三方资源提供对客户端应用104的某些用户数据的访问。HTML5被用作用于对游戏进行编程的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,由外部资源(应用)服务器110从消息收发服务器118下载SDK或者由外部资源(应用)服务器110以其他方式来接收SDK。一旦被下载或接收,SDK就被包括为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将客户端应用104的特征集成至基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供了外部资源(例如,第三方或外部应用109或小程序与客户端应用104)之间的桥接。这为用户提供了与客户端应用104上的其他用户交流的无缝体验,同时还保留了客户端应用104的外观和感觉。为了桥接外部资源与客户端应用104之间的通信,在某些示例中,SDK促进外部资源服务器110与客户端应用104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与客户端应用104之间建立两个单向通信通道。在外部资源与客户端应用104之间经由这些通信通道异步地发送消息。每个SDK功能激活被作为消息和回调而发送。每个SDK功能通过构造独特的回调标识符以及发送具有该回调标识符的消息来实现。
通过使用SDK,并非所有来自客户端应用104的信息都与外部资源服务器110共享。SDK基于外部资源的需求来限制共享哪些信息。在某些示例中,每个外部资源服务器110将与基于web的外部资源对应的HTML5文件提供给消息收发服务器118。消息收发服务器118可以在客户端应用104中添加基于web的外部资源的视觉表示(诸如,盒设计(box art)或其他图形)。一旦用户选择视觉表示或者指示客户端应用104通过客户端应用104的GUI访问基于web的外部资源的特征,客户端应用104则获得HTML5文件并且使访问基于web的外部资源的特征所需的资源实例化。
客户端应用104呈现针对外部资源的图形用户界面(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,客户端应用104确定所启动的外部资源是否先前已经被授权访问客户端应用104的用户数据。响应于确定所启动的外部资源先前已经被授权访问客户端应用104的用户数据,客户端应用104呈现外部资源的另一图形用户界面,其包括外部资源的功能和特征。响应于确定所启动的外部资源先前未被授权访问客户端应用104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,客户端应用104滑动出用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现到画面的中间或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,客户端应用104将外部资源添加至已授权外部资源的列表,并且使得外部资源能够访问来自客户端应用104的用户数据。在一些示例中,由客户端应用104根据O Auth 2框架来授权外部资源访问用户数据。
客户端应用104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模的外部应用(例如,第三方或外部应用109)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问。作为另一示例,向包括外部应用的小规模版本(例如,第三方应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身以及具有各种化身特性的化身)的访问。化身特性包括定制化身的外观和感觉(诸如,不同姿态、面部特征、衣服等)的不同方式。
AR事件跟踪系统224可以接收访问AR体验的请求,并且可以从与AR体验相关联的AR体验包中访问用于生成一个或更多个度量的与AR体验相关联的事件类型的列表。AR事件跟踪系统224可以确定与AR体验相关联的交互对应于事件类型的列表中的第一事件类型。AR事件跟踪系统224可以生成针对第一事件类型的表示所述交互的交互数据,并且接收终止AR体验的请求。响应于接收到终止AR体验的请求,AR事件跟踪系统224可以将交互数据发送至远程服务器。AR事件跟踪系统224可以从许多客户端设备102收集该交互数据,并且生成AR体验的特定于特征的度量。AR事件跟踪系统224可以向AR体验开发者呈现特定于特征的度量。这可以使得AR体验开发者能够增强或改进AR体验的某些特征,从而可以改善终端用户的整体体验。
AR事件跟踪系统224可以允许AR开发者创建具有被跟踪的AR事件类型或触发器类型的AR体验。可以被跟踪的AR类型可以包括以下的任何组合:自定义事件、面部发现事件、面部丢失事件、对象跟踪标准、3D对象跟踪标准、标记跟踪部件、点击事件、触摸开始事件、触摸移动事件、触摸结束事件、共享会话事件、共享会话加入事件、语音命令事件、语音转录事件和/或语言事件。AR事件跟踪系统224可以呈现AR开发者平台的用户界面。用户界面可以用于选择哪些AR事件要被跟踪并在AR体验终止或关闭之后被收集。用户界面可以用于选择将哪些AR部件包括或编程至AR体验包中,以便自动生成要被跟踪并在AR体验终止或关闭之后被收集的事件的自定义列表(custom list)。
在一些示例中,图形用户界面呈现与AR体验相关联的AR事件的列表,并且包括与AR元素的列表中的第一AR事件相关联的第一选项,以响应于选择第一选项而使得跟踪要在终止AR体验之后收集和发送或存储的第一AR事件。用户界面还包括用于指定跟踪第一AR事件的条件的与第一AR事件相关联的第二选项。用户界面还包括用于为被跟踪的第一事件类型指定自定义名称(custom name)的第三选项,可以使用该自定义名称来生成针对该事件所收集的度量的图形、图表或其他表示。在一些示例中,用户界面仅包括用于为要跟踪的事件指定自定义名称的选项,并且提供用于链接至定义事件的参数或事件的触发器的Javascript代码的选项。在一些情况下,图形用户界面允许AR开发者将AR部件添加至AR体验,并且AR开发平台自动为所添加的AR部件添加或生成用于对交互进行跟踪的事件或触发器。
该功能为开发者提供了更大的灵活性,以创建有用的、有趣的和吸引人的AR体验,而不受运行AR体验的消息收发应用和/或客户端设备的资源约束的限制。具体地,每个AR开发者可以独特地配置针对他们各自的AR体验中的每个AR体验跟踪什么事件度量,这包括由系统提供的任何预定事件和AR开发者想要跟踪的独特事件。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示为包括若干表,但是将认识到,数据可以以其他类型的数据结构进行存储(例如,作为面向对象的数据库)。
数据库126包括存储在消息表302中的消息数据。对于任何特定的一个消息,该消息数据至少包括消息发送者数据、消息接收方(或接收者)数据和净荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储于消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,以参考的方式)链接至实体图308和简档数据316。针对其记录被维护在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。与实体类型无关地,消息收发服务器系统108存储关于其的数据的任何实体可以是被识别的实体。每个实体被提供有唯一的标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣或者基于活动的。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)、以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个化身表示选择性地包括在经由消息收发系统100传送的消息的内容中以及包括在由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状况化身”,其呈现用户可以选择在特定时间进行通信的状况或活动的图形表示。
在实体是团体的情况下,除了相关团体的团体名称、成员和各种设置(例如,通知)之外,团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,诸如覆盖物(overlay)或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且被应用于视频和图像。
数据库126还可以存储与单独的和共享的AR会话有关的数据。该数据可以包括在第一客户端设备102的AR会话客户端控制器与第二客户端设备102的另一AR会话客户端控制器之间传送的数据,以及在AR会话客户端控制器与增强系统208之间传送的数据。数据可以包括用于建立共享AR场景的共同坐标系、设备之间的变换、会话标识符、描绘身体的图像、骨骼关节位置、腕关节定位、脚等的数据。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆盖在图像或视频上的覆盖物。过滤器可以是各种类型的,包括当发送用户正在编写消息时由客户端应用104呈现给发送用户的一组过滤器中的用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理位置信息,由客户端应用104在用户界面内呈现特定于附近或特殊位置的地理位置过滤器。
另一类型的过滤器是数据过滤器,其可以由客户端应用104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以被存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用增强现实体验)。增强现实内容项或增强现实项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、覆盖物、图像变换、AR图像、AR标志或徽标以及涉及可以应用于图像数据(例如,视频或图像)的修改的类似项。这包括实时修改,实时修改在使用客户端设备102的设备传感器(例如,一个或多个摄像装置)捕获到图像时对图像进行修改并且然后在客户端设备102的屏幕上显示具有所述修改的图像。这还包括对所存储的内容(诸如,图库中可以被修改的视频剪辑)的修改。例如,在访问多个增强现实内容项的客户端设备102中,用户可以将单个视频剪辑与多个增强现实内容项一起使用来查看不同的增强现实内容项将如何修改所存储的剪辑。例如,通过针对同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由客户端设备102的传感器捕获的视频图像将如何修改所捕获的数据。这样的数据可以仅在屏幕上显示而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并被存储在存储器中。在一些系统中,预览特征可以同时示出不同的增强现实内容项在显示器中的不同窗口内看起来如何。这可以例如使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,数据以及使用增强现实内容项的各种系统或使用该数据来修改内容的其他这样的变换系统可以涉及:对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测;视频帧中在这样的对象离开视场、进入视场以及在视场四处移动时对其进行跟踪;以及在跟踪这样的对象时对其进行修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及:生成一个或多个对象的三维网格模型;以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对象上的点的跟踪将图像或纹理(其可以是二维或三维的)放置在所跟踪的位置处。在又一示例中,视频帧的神经网络分析可以用于将图像、模型或纹理放置在内容(例如,图像或视频的帧)中。因此,增强现实内容项既指用于在内容中创建变换的图像、模型和纹理,也指利用对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器来生成视频流。另外,可以使用计算机动画模型来处理任何对象,诸如人的面部和人体部位、动物、或非生命事物(诸如椅子、汽车或其他对象)。
在一些示例中,当连同要变换的内容一起选择特定修改时,由计算设备来识别要变换的元素,并且然后如果所述元素存在于视频的帧中,则检测并跟踪它们。根据修改请求来修改对象的元素,从而变换视频流的帧。针对不同种类的变换,可以通过不同的方法来执行对视频流的帧的变换。例如,对于主要涉及改变对象的元素的形式的帧变换,计算对象的每个元素的特性点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每个元素生成基于特性点的网格。该网格被用于跟踪视频流中的对象的元素的后续阶段。在跟踪的过程中,将所提及的用于每个元素的网格与每个元素的定位对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点和修改请求针对每个元素生成一组第二点。然后,可以通过基于该组第一点、该组第二点和网格修改对象的元素来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来改变经修改对象的背景或使其发生扭曲。
在一些示例中,可以通过计算对象的每个元素的特性点以及基于所计算的特性点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,并且然后基于所述点生成各种区域。然后通过将针对每个元素的区域与针对至少一个元素中的每个元素的定位对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而对视频流的帧进行变换。取决于具体的修改请求,可以以不同的方式对所提及区域的属性进行变换。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少一些部分;将一个或更多个新对象包括到基于修改请求的区域中;以及修改或扭曲区域或对象的元素。在各种示例中,可以使用这样的修改的任何组合或其他类似修改。对于要被动画化的某些模型,可以选择一些特性点作为要用于确定针对模型动画的选项的整个状态空间的控制点。
在用于使用面部检测来变换图像数据的计算机动画模型的一些示例中,使用特定的面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适合于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,界标表示存在于所考虑的大多数图像中的可区分点。例如,对于面部界标,可以使用左眼瞳孔的位置。如果初始界标不可标识(例如,在人带眼罩的情况下),则可以使用次级界标。这样的界标标识过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标来将形状表示为矢量。利用使形状点之间的平均欧几里得距离最小化的相似性变换(其允许平移、缩放和旋转)来将一个形状与另一个形状对准。平均形状(mean shape)是经对准的训练形状的平均值。
在一些示例中,从与由全局面部检测器确定的面部的定位和大小对准的平均形状开始搜索界标。然后,这样的搜索重复以下步骤:通过对每个点周围的图像纹理进行模板匹配以调整形状点的位置来建议暂定形状,并且然后使暂定形状符合全局形状模型,直到发生收敛。在一些系统中,单独的模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。在从粗分辨率至细分辨率的图像金字塔中的每一级处重复整个搜索。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并且在维持适当的用户体验、计算时间和功耗的同时,在客户端设备102上本地执行复杂的图像操纵。复杂的图像操纵可以包括:大小和形状改变、情绪转变(例如,将面部从皱眉改变为微笑)、状态转变(例如,使主体变老、减小外表年龄、改变性别)、风格转变、图形元素应用以及由已经被配置成在客户端设备102上有效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在所述系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),其中神经网络作为在客户端设备102上操作的客户端应用104的一部分来操作。在客户端应用104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与用于变换图像数据的计算机动画模型相关联的修改图标,或者计算机动画模型可以与本文所描述的界面相关联地存在。该修改图标包括下述改变,所述改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户面部的基础。一旦选择了修改图标,则变换系统发起转换用户的图像以反映所选择的修改图标(例如,为用户生成微笑面部)的处理。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以针对图像或视频流的一部分实施复杂的卷积神经网络,以生成并应用所选择的修改。也就是说,用户可以捕获图像或视频流,并且一旦选择了修改图标,就可以实时或接近实时地向用户呈现修改后的结果。此外,在正捕获视频流并且所选择的修改图标保持切换时,修改可以是持久的。机器学习的神经网络可以用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以向用户提供附加的交互选项。这样的选项可以基于用于发起对特定计算机动画模型的选择和内容捕获的界面(例如,从内容创建者用户界面来发起)。在各种示例中,在最初选择了修改图标之后,修改可以是持久的。用户可以通过轻击或以其他方式选择正由变换系统修改的面部来开启或关闭修改,并将其存储以供后面观看或浏览到成像应用的其他区域。在由变换系统修改了多个面部的情况下,用户可以通过轻击或选择在图形用户界面内修改和显示的单个面部来全局地将修改切换为开启或关闭。在一些示例中,可以单独修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户界面内显示的单个面部或一系列面部来单独切换这样的修改。
故事表314存储与消息和相关联的图像、视频或音频数据的集合有关的数据,这些消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,其记录被维护在实体表306中的每个用户)发起。用户可以创建呈已经由该用户创建和发送/广播的内容的集合的形式的“个人故事”。为此,客户端应用104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自各种位置和事件的用户提交的内容的策展流。其客户端设备启用了位置服务并且在特定时间处于共同位置事件处的用户可以例如经由客户端应用104的用户界面而被呈现将内容贡献给特定实况故事的选项。可以由客户端应用104基于用户的位置向他或她标识实况故事。最终结果是从社区角度讲述的“实况故事”。
另一类型的内容集合被称为“位置故事”,“位置故事”使得其客户端设备102位于特定地理位置(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证,以验证终端用户属于特定的组织或其他实体(例如,是大学校园的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与其记录被维护在消息表302内的消息相关联。类似地,图像表312存储与其消息数据被存储在实体表306中的消息相关联的图像数据。实体表306可以使来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由客户端应用104生成,以用于传送至另外的客户端应用104或消息收发服务器118。特定消息400的内容用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本净荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像净荷406:由客户端设备102的摄像装置部件捕获的或从客户端设备102的存储器部件检索的并且包括在消息400中的图像数据。针对已发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频净荷408:由摄像装置部件捕获的或者从客户端设备102的存储器部件检索的并且包括在消息400中的视频数据。针对已发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频净荷410:由麦克风捕获的或从客户端设备102的存储器部件检索的并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像净荷406、消息视频净荷408或消息音频净荷410的增强的增强数据(例如,过滤器、标贴或其他标注或增强)。针对已发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像净荷406、消息视频净荷408、消息音频净荷410)将经由客户端应用104呈现给用户或使其可由用户访问的时间量的参数值。
·消息地理位置参数416:与消息的内容净荷相关联的地理位置数据(例如,纬度坐标和经度坐标)。在净荷中可以包括多个消息地理位置参数416值,这些参数值中的每个参数值都与包括在内容中的内容项(例如,消息图像净荷406内的特定图像,或消息视频净荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像净荷406中的特定内容项相关联的一个或更多个内容集合(例如,故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像净荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每个标签指示消息净荷中包括的内容的主题。例如,在包括在消息图像净荷406中的特定图像描绘动物(例如,狮子)的情况下,指示相关动物的标签值可以被包括在消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
·消息发送者标识符422:指示在其上生成消息400以及从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向在其内存储内容数据值的表中的位置的指针。例如,消息图像净荷406中的图像值可以是指向图像表312内的位置的指针(或图像表312内的位置的地址)。类似地,消息视频净荷408内的值可以指向存储在视频表304内的数据,存储在消息增强数据412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
AR事件跟踪系统
图5是示出根据一些示例的示例AR事件跟踪系统224的框图。AR事件跟踪系统224包括AR体验开发模块500、AR事件跟踪模块510和AR度量生成模块520。
AR体验开发模块500可以生成用于在AR开发者客户端设备102上呈现给AR开发者的用户界面。用户界面可以使AR开发者能够选择关于在一个或更多个客户端设备102上启动的AR体验的要跟踪的AR事件。在一些示例中,用户界面使得AR开发者能够添加AR部件,并且与AR部件相关联的AR事件被自动添加以用于跟踪交互。这样,AR开发者不需要手动定义和编程用于跟踪与所添加的AR部件的交互的代码。用户界面使得AR开发者能够诸如通过提供定义跟踪事件的方式和过程(诸如用于触发跟踪和计数的条件)的Javascript代码,为他们的AR体验中的每个AR体验定义独特的事件跟踪。事件跟踪可以对应于由AR开发者生成的预定义事件或自定义事件。以这种方式,一个AR体验可以与被跟踪的AR事件类型的第一列表相关联,所述第一列表与针对第二AR体验被跟踪的AR事件类型的第二列表相同或不同。这使得AR开发者能够更好地控制哪些类型的事件被跟踪并用于生成度量,以及哪些类型的事件不被跟踪并用于生成度量,以及如何跟踪或触发事件。
如本文所提及的,“AR体验包”或“AR包”表示一组AR元素(包括标准AR元素和链接的AR元素)和指示AR元素中的每个AR元素的视觉外观、交互和行为的对应代码。AR包包括客户端设备102启动和执行与AR包相关联的AR体验所需的代码。
在一些示例中,AR体验开发模块500从开发者客户端设备102接收访问开发者用户界面的请求。AR体验开发模块500可以从开发者客户端设备102接收登录凭证。AR体验开发模块500可以搜索与登录凭证相关联的账户,并且可以生成用于呈现给开发者客户端设备102的与该账户相关联的图形用户界面。AR体验开发模块500可以在图形用户界面中呈现与账户相关联的多个AR体验包。在一些情况下,账户可由组织访问,在这种情况下,组织内的多个用户可以共享对账户的访问权限,并且可以查看同一组AR体验包。
AR体验开发模块500可以从开发者客户端设备102接收选择给定AR体验包的输入。响应于接收到输入,AR体验开发模块500可以呈现图形用户界面600(图6)。AR体验开发模块500可以在图形用户界面600中包括AR体验包的标识符和AR体验包中所包括的AR事件或触发器的列表620。在一些情况下,代替呈现AR事件或触发器的列表或除了呈现AR事件或触发器的列表之外,图形用户界面600列出可用于添加或已经添加到AR体验包中的AR部件。对于AR体验包中所包括的AR部件中的每个AR部件或一部分,自动添加一组事件或触发器用于跟踪交互。在一些情况下,图形用户界面600提供用于为要跟踪的事件指定自定义名称的选项。图形用户界面600可以允许AR开发者输入自定义名称并链接Javascript代码,该代码定义了用于跟踪与自定义名称相关联的与AR体验的交互的操作和条件。
AR事件或触发器可以包括或表示与AR体验相关联的指定动作或对象。例如,AR事件或触发器可以包括以下的任何组合:自定义事件、摄像装置事件(指定前置摄像装置或后置设置装置的激活)、面部发现事件、面部丢失事件、对象跟踪标准、3D对象跟踪标准、标记跟踪部件、点击事件、触摸开始事件、触摸移动事件、触摸结束事件、共享会话事件、共享会话加入事件、语音命令事件、语音转录事件和/或语言事件。列表还可以包括一个或更多个AR元素或对象。AR元素可以包括2D网格、3D网格、视频、音频文件、图像文件和/或机器学习模型。
AR体验开发模块500还可以在图形用户界面600中呈现用于访问或查看与所选AR体验包相关联的度量的选项(未示出)。响应于接收到对该选项的选择,AR体验开发模块500可以与AR度量生成模块520通信以获得与AR体验相关联的一个或更多个度量。AR体验开发模块500然后可以生成包括表示一个或更多个度量的图形或图表的用户界面。在图8中示出并在下面讨论的示例图形用户界面800中描绘了示例图形或图表。
AR体验开发模块500可以接收从AR事件或触发器的列表620中选择给定AR事件622或AR部件的输入。作为响应,AR体验开发模块500呈现列出用于生成与给定AR事件622相关联的度量的选项的提示610。选项的列表可以包括:自定义事件名称选项634、启用事件跟踪选项630以及事件跟踪的一个或更多个条件选项632。在一些情况下,可以响应于接收到对启用事件跟踪选项630的选择而显示事件跟踪的条件选项632。对启用事件跟踪选项630的选择生成与给定AR事件622相关联的计数器。每次检测到给定AR事件622在终端用户客户端设备102上被执行或满足时,计数器递增。计数器可以是特定于客户端设备102的,或者可以是与许多客户端设备102相关联的计数器。计数器的值可以用于在描绘图形或图表的图形用户界面中生成或表示包括AR事件622的AR体验的度量。在一些情况下,每个客户端设备102提供计数器的累积值,并且从多个客户端设备102接收的累积值由服务器(例如,AR度量生成模块520)进行平均。在一些示例中,每个客户端设备102本地计算平均值并将计数器的平均值提供给AR体验开发模块500。
响应于接收到对启用事件跟踪选项630的选择,将新字段添加至表示与AR体验相关联的度量的图形或图表。可以使用与自定义事件名称选项634中输入的名称匹配的名称视觉地表示新字段。在一些情况下,响应于添加与事件或触发器自动相关联的AR部件,将新字段添加至表示与AR体验部件相关联的度量的图形或图表。
提示610可以包括事件跟踪条件选项632。响应于接收到对选项632的选择,可以呈现用于输入触发对与给定事件AR事件622相关联的事件进行计数的一个或更多个条件的一个或更多个字段。例如,条件可以指定终端用户的订阅级别、与终端用户相关联的地理区域、一天中的时间、AR体验的类型、地理位置、游戏应用或AR体验中的级别、现实世界环境部分的视图或描绘、来自终端用户的使得AR对象或元素能够持久化的请求、时间、位置标记、图像标记或任何其他合适的条件。在一些示例中,可以根本不显示提示610,并且可以响应于由AR开发者添加、生成或启用某些相关联的AR部件而自动添加自定义事件用于跟踪。
为了确保用户数据隐私,客户端设备102(或在客户端设备102上实现的应用)可以通知用户关于可以收集的信息的类型,并且提示用户在收集数据之前选择是否选择加入。如果用户拒绝选择加入并且没有给予同意,系统将不会收集数据。如果用户选择加入,数据将以加密的方式被安全地存储在服务器上。
在一些示例中,对于被跟踪以生成度量的每个事件类型,条件可以是相同或不同的。例如,第一事件622可以与第一组条件(例如,终端用户的某个订阅级别)相关联,并且第二事件可以与第二组条件(例如,客户端设备102的地理区域)相关联。当满足第一事件的标准并且当满足第一组条件时,第一事件622使与第一事件622相关联的计数器递增或调整。当满足第二事件的标准并且当满足第二组条件时,第二事件使与第二事件相关联的相应的计数器递增或调整。
在一些示例中,给定事件622可以与面部发现事件相关联或表示面部发现事件。面部发现事件可以与当客户端设备102的摄像装置检测到新面部(或其他指定对象)时满足的条件或触发器相关联。例如,AR体验可以由终端用户客户端设备102启动。作为响应,描绘了图形用户界面,诸如图7中所示的示例用户界面700,并且该图形用户界面可以包括第一现实世界对象710和第二现实世界对象712以及一个或更多个AR对象(未示出)。客户端设备102可以监测在客户端设备102上启动的AR体验会话期间发生的交互。客户端设备102可以从相关联的AR体验包中获得包括触发AR体验的度量的生成的给定事件622的事件的列表。
在一些示例中,客户端设备102可以确定特定交互(例如,摄像装置馈送中的面部)对应于包括在事件的列表中的给定的事件622。即,客户端设备102可以确定特定交互对应于与AR体验相关联的事件类型的列表中的第一事件类型。例如,给定事件622可以是被启用用于跟踪和生成度量的面部发现事件。在这种情况下,客户端设备102可以生成面部发现事件的交互数据以表示所检测到的交互。这可以通过将交互聚合至与给定事件622相关联的实体中来执行。实体可以包括第一计数器,第一计数器被实例化以计算或测量面部发现事件的总数量或每个会话的面部发现事件的平均数量(例如,在开始AR体验与结束AR体验之间的每段时间)。在一些示例中,响应于在客户端设备102的摄像装置馈送中检测到面部,客户端设备102可以确定AR事件622已经被触发,并且可以呈现AR事件触发的消息720。客户端设备102还可以访问与给定事件622相关联的一个或更多个条件。如果指定或满足一个或更多个条件,则客户端设备102可以在每次面部发现事件被触发时使第一计数器的值递增。在一些情况下,第一计数器表示面部发现事件被触发的总次数。在一些情况下,第一计数器表示面部发现事件已被触发的平均次数。在一些情况下,总次数由客户端设备102提供给AR度量生成模块520,并且AR度量生成模块520生成平均次数。
作为另一示例,给定事件622可以另外地或替选地与面部丢失事件相关联或表示面部丢失事件。面部丢失事件可以与当不再检测到和跟踪到面部(或其他指定对象)时(诸如如果面部被阻挡在摄像装置的视图之外或距离太远)满足的条件或触发器相关联。在这种情况下,可以使用与面部丢失事件相关联的第二实体来跟踪该特定类型的事件。例如,可以开启第二计数器来计算或测量每个会话的面部丢失事件的总次数或会话中丢失的面部的平均数量。在一些情况下,第二计数器表示面部发现事件被触发的总次数。在一些情况下,第二计数器表示面部发现事件已被触发的平均次数。在一些情况下,第一计数器表示总数量,并且第二计数器表示相关联的事件类型的平均值。在一些情况下,总次数由客户端设备102提供给AR度量生成模块520,并且AR度量生成模块520生成平均次数。
在一些示例中,客户端设备102可以确定特定交互(例如,特定摄像装置视图,诸如前置摄像装置视图、后置摄像装置视图,或者在所捕获的图像中检测到指定的现实世界对象)对应于包括在事件的列表中的给定事件622。即,客户端设备102可以确定特定交互对应于与同特定摄像装置视图对应的AR体验相关联的事件类型的列表中的给定事件类型。例如,给定事件622可以是如下摄像装置视图事件:其被启用以跟踪和生成度量,以诸如表示前置摄像装置视图被激活、后置摄像装置视图被激活或在所捕获的图像中检测到指定的现实世界对象的次数。在这种情况下,客户端设备102可以生成摄像装置视图事件的交互数据以表示所检测的交互。这可以通过将交互聚合至与给定的事件622相关联的实体中来执行。实体可以包括:特定计数器,其被实例化以计算或测量前置摄像装置视图被激活、后置摄像装置视图被激活或在所捕获的图像中检测到指定的现实世界对象的总次数或平均次数。客户端设备102还可以访问与给定事件622相关联的一个或更多个条件。如果指定或满足一个或更多个条件,则客户端设备102可以在每次摄像装置视图事件被触发时使特定计数器的值递增。在一些情况下,总次数由客户端设备102提供给AR度量生成模块520,并且AR度量生成模块520生成平均次数。
客户端设备102可以确定AR体验已被终止。作为响应,客户端设备102可以生成包括与所跟踪的事件类型相关联的实体中的任何实体的消息。例如,客户端设备102可以为正被跟踪的事件中的每个事件生成度量或计数器。然后将消息从客户端设备102发送至AR事件跟踪模块510。AR事件跟踪模块510可以从发起相同AR体验的许多其他客户端设备102接收类似的消息,并且可以聚合相应的实体或计数器以生成正被跟踪的每个事件类型的度量。
例如,AR事件跟踪模块510可以从第一终端用户客户端设备102接收与面部发现事件相关联的第一计数器的第一值,并且可以从第二终端用户客户端设备102接收第一计数器的第二值。AR事件跟踪模块510可以对第一值和第二值进行组合或求和,以生成表示AR体验的面部发现事件的第一计数器的度量。在一些示例中,AR事件跟踪模块510可以计算第一值和第二值的平均值,以生成表示AR体验的面部发现事件的第一计数器的度量。AR事件跟踪模块510存储与AR体验相关联的度量,并将该度量提供给AR度量生成模块520。在一些示例中,AR事件跟踪模块510将第一值和第二值的原始总值提供给AR度量生成模块520,然后AR度量生成模块520计算平均值。
在一些示例中,给定事件622包括或表示与当对象当前被终端用户的客户端设备102的摄像装置跟踪到时满足的条件或触发器相关联的对象跟踪标准。可以使用第三计数器来计数在给定会话中对象被跟踪到的总次数或平均次数。在一些示例中,可以使用单独的3D对象跟踪标准来单独跟踪由客户端设备102的摄像装置跟踪到的3D对象的数量。在一些示例中,标记跟踪标准可以与当标记图像当前被摄像装置跟踪到时满足的条件或触发器相关联。可以使用第四计数器来计数标记图像被跟踪到的总次数或平均次数。在一些情况下,总次数由客户端设备102提供给AR度量生成模块520,并且AR度量生成模块520生成平均次数。
在一些示例中,点击事件与当客户端设备102检测到触摸输入时满足的条件或触发器相关联。可以使用第五计数器来计数在给定会话期间检测到触摸输入的总次数或平均次数。可以使用类似的条件或触发器来跟踪用户开始触摸屏幕的次数,或者用户何时在保持屏幕触摸的同时移动手指(在屏幕上拖动),以及/或者用户何时结束屏幕触摸(例如,通过将手指从屏幕抬起)。
在一些示例中,共享或多用户AR共享会话与当共享AR会话与另一用户共享时满足的条件或触发器相关联。可以使用第六计数器来计数AR会话与其他用户共享的总次数或平均次数。可以使用类似的条件或触发器来跟踪共享AR会话被其他用户加入的次数。
在一些示例中,语音命令事件与当客户端设备102检测到语音导航命令(例如,使用自然语言处理)时满足的条件或触发器相关联。可以使用第七计数器来计数在给定会话期间检测到语音命令事件的总次数或平均次数。语音转录事件与在记录期间或针对所存储的视频剪辑实时转录说话时满足的条件或触发器相关联。可以使用第八计数器来计数在给定会话期间检测到语音转录事件的总次数或平均次数。可以使用语言显示事件来跟踪语言的分布和定位。该事件使得AR体验开发者能够定位AR体验中的将自动使用正确定位的字符串的文本。在一些情况下,总次数由客户端设备102提供给AR度量生成模块520,并且AR度量生成模块520生成平均次数。
AR体验开发者可以选择任何其他自定义或预定义的事件或触发类型来单独跟踪并用于累积或生成给定AR体验的度量。类似于第一计数器和第二计数器(以上所讨论的),这些附加计数器中的任何或全部可以被添加至响应于终止客户端设备102上的AR体验而发送至远程服务器的消息。远程服务器(例如,AR事件跟踪模块510)对从一个或更多个客户端设备102接收的每个特定计数器应用一个或更多个统计函数(例如,平均值),以生成AR体验的度量。
在一些示例中,AR事件跟踪模块510可以生成可以在相应的客户端设备102上被跟踪(例如,使用实体或计数器)的通用事件(generic event)的列表。AR事件跟踪模块510可以经由选项634从开发者接收指定自定义事件名称的输入。作为响应,AR事件跟踪模块510可以在通用事件中搜索与给定事件622的条件和属性匹配的触发器。响应于确定特定通用事件包括与给定事件622的属性匹配的条件和属性,AR事件跟踪模块510生成存储自定义事件名称与特定通用事件之间的关联的映射。AR事件跟踪模块510可以指示客户端设备102在AR体验被启动的同时跟踪特定通用事件的发生。客户端设备102可以在AR体验被终止之后提供与由AR体验触发的特定通用事件相关联的实体或计数器。AR事件跟踪模块510可以搜索映射以识别与特定通用事件相关联的自定义事件名称。AR事件跟踪模块510然后可以将所跟踪的特定通用事件的发生存储为与自定义事件名称对应的给定事件622的交互数据的一部分。
开发者客户端设备102呈现用户界面,诸如图8的示例用户界面800,其表示与在给定AR体验被启动的同时在一个或更多个客户端设备102上检测到的一个或更多个交互或事件类型对应的度量。用户界面800由AR度量生成模块520基于从一个或更多个客户端设备102接收的表示在AR体验被启动的同时发生的交互的实体来生成。交互可以表示开发者先前已经启用用于跟踪的一个或更多个事件类型的发生。
在一些示例中,用户界面800包括先前由开发者启用用于跟踪(例如,通过选择选项630)的每个事件类型的列表。用户界面800可以从开发者接收对第一区域820的选择。第一区域820可以与被跟踪的第一类型事件相关联。例如,第一区域820可以与面部发现事件相关联。响应于接收到对第一区域820的选择,AR度量生成模块520呈现指示日常从一个或更多个客户端设备102接收的计数器值或实体值的第一图形或图表810。计数器值可以表示面部发现事件在每个特定日814发生的总数量。AR度量生成模块520可以接收用户对平均数量区域812的选择。作为响应,AR度量生成模块520可以用表示在每个特定日检测到面部发现事件的平均次数(或一些其他统计表示)的不同图形或图表来替换第一图形或图表810。每个区域可以表示原始计数器值(例如,在给定时间段(诸如28天)中触发特定事件类型的总次数和/或在给定时间段(诸如28天)中触发特定事件类型的平均次数)。
用户界面800可以接收对第二事件类型830的选择。第二事件类型可以与对象跟踪事件相关联。响应于接收到对第二事件类型830的选择,AR度量生成模块520呈现指示日常从一个或更多个客户端设备102接收的计数器值或实体值的第二图形或图表832。计数器值可以表示对象跟踪事件在每个特定日发生的总数量。第二事件类型830的每个区域可以表示原始计数器值(例如,在给定时间段(诸如28天)中触发特定事件类型的总次数和/或在给定时间段(诸如28天)中触发特定事件类型的平均次数)。可以同时呈现第一图形或图表810和第二图形或图表832,以使开发者能够无缝且容易地比较不同事件类型的交互数据。当在用户界面800中选择附加事件类型时,检索对应的实体值或计数器值,并且扩展显示区域以呈现表示计数器值的图形或图表。
以这种方式,用户界面800可以使得开发者能够跨开发者选择的不同自定义事件类型来跟踪使用情况和交互数据。这使得开发者能够监测和跟踪与AR体验的不同特征的交互。
图9是根据一些示例的由AR事件跟踪系统224执行的过程900的流程图。尽管流程图可以将操作描述为顺序过程,但是这些操作中的许多操作可以被并行或同时执行。另外,可以对操作的顺序进行重新排列。当过程的操作完成时,过程被终止。过程可以对应于方法、程序等。方法的步骤可以全部或部分地执行,可以结合其他方法中的一些或全部步骤来执行,并且可以由任何数目的不同系统或其任何部分(诸如,包括在任何系统中的处理器)来执行。
在操作901处,如以上所讨论的,AR事件跟踪系统224(例如,客户端设备102或服务器)从客户端设备接收访问AR体验的请求。
在操作902处,如以上所讨论的,AR事件跟踪系统224访问与用于生成一个或更多个度量的AR体验相关联的事件类型的列表。
在操作903处,如以上所讨论的,AR事件跟踪系统224确定与AR体验相关联的交互对应于事件类型的列表中的第一事件类型。
在操作904处,如以上所讨论的,AR事件跟踪系统224生成针对第一事件类型的表示所述交互的交互数据。
在操作905处,如以上所讨论的,响应于接收到终止AR体验的请求,AR事件跟踪系统224将交互数据发送至远程服务器。
机器架构
图10是机器1000的图解表示,在该机器1000内可以执行用于使机器1000执行本文所讨论的方法中的任何一种或更多种方法的指令1008(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1008可以使机器1000执行本文所描述的方法中的任何一种或更多种方法。指令1008将通用的未编程的机器1000变换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1000。机器1000可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1000可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份来操作,或者在对等(或分布式)网络环境中作为对等机器来操作。机器1000可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1000采取的动作的指令1008的任何机器。此外,虽然仅示出了单个机器1000,但是术语“机器”还应被视为包括单独地或联合地执行指令1008以执行本文所讨论的任何一种或更多种方法的机器的集合。例如,机器1000可以包括客户端设备102或者形成消息收发服务器系统108的一部分的若干服务器设备中的任何一个。在一些示例中,机器1000还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器1000可以包括可以被配置成经由总线1040彼此通信的处理器1002、存储器1004和输入/输出(I/O)部件1038。在示例中,处理器1002(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1008的处理器1006和处理器1010。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。尽管图10示出了多个处理器1002,但是机器1000可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器1004包括主存储器1012、静态存储器1014以及存储单元1016,其均可由处理器1002经由总线1040访问。主存储器1012、静态存储器1014和存储单元1016存储体现本文所描述的方法或功能中的任何一种或更多种方法或功能的指令1008。指令1008在其由机器1000执行期间还可以完全地或部分地驻留在主存储器1012内、驻留在静态存储器1014内、驻留在存储单元1016内的机器可读介质内、驻留在处理器1002中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者驻留在其任何合适的组合内。
I/O部件1038可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。包括在特定机器中的特定I/O部件1038将取决于机器的类型。例如,便携式机器诸如移动电话可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将很可能不包括这样的触摸输入设备。应当认识到的是,I/O部件1038可以包括图10中未示出的许多其他部件。在各种示例中,I/O部件1038可以包括用户输出部件1024和用户输入部件1026。用户输出部件1024可以包括视觉部件(例如,显示器诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT))、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。用户输入部件1026可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1038可以包括生物计量部件1028、运动部件1030、环境部件1032、或定位部件1034以及各种其他部件。例如,生物计量部件1028包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1030包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1032包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器),或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和在客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),该静止图像和视频然后可以用上述增强数据(例如,过滤器)进行增强。例如,后置摄像装置可以用于以更传统的摄像装置模式捕获静止图像和视频,其中这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°的摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧包括三重、四重或五重后置摄像装置配置。例如,这些多个摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
定位部件1034包括位置传感器部件(例如,GPS接收器部件)、海拔高度传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔高度)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1038还包括通信部件1036,该通信部件1036可操作以经由相应的耦接或连接将机器1000耦接至网络1020或设备1022。例如,通信部件1036可以包括与网络1020对接的网络接口部件或其他合适的设备。在另外的示例中,通信部件1036可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,低能耗)、部件以及经由其他模态提供通信的其他通信部件。设备1022可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1036可以检测标识符或包括能够进行操作以检测标识符的部件。例如,通信部件1036可以包括射频标识(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测一维条形码诸如通用产品代码(UPC)条形码、多维条形码诸如快速响应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码以及其他光学码的光学传感器)或声学检测部件(例如,用于识别所标记的音频信号的麦克风)。另外,可以经由通信部件1036得出各种信息,诸如经由因特网协议(IP)地理位置得出位置、经由信号三角测量得出位置、经由检测可以指示特定位置的NFC信标信号得出位置等。
各种存储器(例如,主存储器1012、静态存储器1014以及处理器1002的存储器)以及存储单元1016可以存储由本文所描述的方法或功能中的任何一种或更多种方法或功能实现或使用的一组或更多组指令和数据结构(例如,软件)。在由处理器1002执行时,这些指令(例如,指令1008)使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1036中包括的网络接口部件)使用传输介质并且使用若干公知的传送协议中的任意一种传输协议(例如,超文本传输协议(HTTP)),通过网络1020来传输或接收指令1008。类似地,可以使用传输介质经由与设备1022的耦接(例如,对等耦接)来发送或接收指令1008。
软件架构
图11是示出可以安装在本文所描述的设备中的任何一个或更多个设备上的软件架构1104的框图1100。软件架构1104由硬件支持,该硬件诸如是包括处理器1120、存储器1126和I/O部件1138的机器1102。在该示例中,软件架构1104可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1104包括下述层,诸如操作系统1112、库1110、框架1108和应用1106。在操作上,应用1106通过软件堆栈来激活API调用1150并且响应于API调用1150而接收消息1152。
操作系统1112管理硬件资源并提供公共服务。操作系统1112包括例如:核1114、服务1116以及驱动器1122。核1114用作硬件与其他软件层之间的抽象层。例如,核1114提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置等功能。服务1116可以针对其他软件层提供其他公共服务。驱动器1122负责控制底层硬件或与底层硬件对接(interface)。例如,驱动器1122可以包括显示驱动器、摄像装置驱动器、低能耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1110提供由应用1106使用的共用低级基础设施。库1110可以包括系统库1118(例如,C标准库),该系统库1118提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1110可以包括API库1124,诸如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式诸如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)进行呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1110还可以包括各种其他库1128,以向应用1106提供许多其他API。
框架1108提供由应用1106使用的共用高级基础设施。例如,框架1108提供各种图形用户界面(GUI)功能、高级资源管理以及高级位置服务。框架1108可以提供可以由应用1106使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1106可以包括家庭应用1136、联系人应用1130、浏览器应用1132、书籍阅读器应用1134、位置应用1142、媒体应用1144、消息收发应用1146、游戏应用1148和诸如外部应用1140的各种各样的其他应用。应用1106是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1106中的一个或更多个,所述编程语言诸如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C或汇编语言)。在特定示例中,外部应用1140(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是移动操作系统诸如IOSTM、ANDROIDTMPhone、或另一移动操作系统上运行的移动软件。在该示例中,外部应用1140可以激活由操作系统1112提供的API调用1150以促进本文所描述的功能。
术语表
“载波信号”是指能够存储、编码或携载用于由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以促进这样的指令的传送。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、其他类型的网络或两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全局移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,诸如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、GSM演进的增强数据速率(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通讯系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有边界的设备、物理实体或逻辑,该边界由功能或子例程调用、分支点、API或者对特定处理或控制功能提供分区或模块化的其他技术定义。部件可以经由它们的接口与其他部件对接以执行机器过程。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元,并且是通常执行相关功能中的特定功能的程序的一部分。
部件可以构成软件部件(例如,在机器可读介质上实施的代码)或硬件部件。“硬件部件”是能够执行某些操作并且可以以某种物理方式来配置或布置的有形单元。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行本文所描述的某些操作的硬件部件。
也可以机械地、电子地或其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件而配置,硬件部件就成为被独特地定制成执行所配置功能的特定机器(或机器的特定部件),而不再是通用处理器。将认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式进行操作或者执行本文所描述的某些操作的实体。
考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件进行配置而变成专用处理器的通用处理器的情况下,可以在不同时间处将该通用处理器分别配置为不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个或多个特定处理器,以例如在一个时刻处构成特定硬件部件并且在不同时刻处构成不同的硬件部件。
硬件部件可以向其他硬件部件提供信息并且从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为是通信地耦接的。在同时存在多个硬件部件的情况下,可以通过在硬件部件中的两个或更多个硬件部件之间或之中的信号传输(例如,通过适当的电路和总线)来实现通信。在多个硬件部件在不同时间处被配置或被实例化的示例中,可以例如通过将信息存储在多个硬件部件具有访问权限的存储器结构中并且在该存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,其他硬件部件可以在随后的时间处访问该存储器设备以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。
本文所描述的示例方法的各种操作可以至少部分地由被临时配置(例如,通过软件)或被永久配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文所描述的一个或更多个操作或功能的处理器实现的部件。如本文所使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,在本文所描述的方法可以至少部分地由处理器实现,其中特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器1002或处理器实现的部件来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或者作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由一组计算机(作为包括处理器的机器的示例)来执行,其中这些操作可以经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之中,不是仅驻留在单个机器内,而是被跨若干机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理位置(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨若干地理位置分布。
“计算机可读存储介质”是指机器存储介质和传输介质二者。因此,术语包括存储设备/介质和载波/调制数据信号二者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换使用。
“短暂消息”是指可访问达有限持续时间的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送方设置。替选地,访问时间可以是默认设置或者由接收方指定的设置。无论设置技术如何,该消息都是暂态的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,诸如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”和“计算机存储介质”意指相同的事物并且可以在本公开内容中互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,其中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或有利于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特性中的一个或更多个特性被以将信息编码在该信号中的方式来设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物,并且可以在本公开内容中互换使用。
在不脱离本公开内容的范围的情况下,可以对所公开的示例进行改变和修改。这些以及其他改变或修改旨在包括在如所附权利要求书中所表达的本公开内容的范围内。

Claims (20)

1.一种方法,包括:
从客户端设备接收访问增强现实(AR)体验的请求;
访问用于生成一个或更多个度量的与所述AR体验相关联的事件类型的列表,所述事件类型的列表包括由所述AR体验的开发者配置的一个或更多个事件类型;
确定与所述AR体验相关联的交互对应于所述事件类型的列表中的第一事件类型;
生成针对所述第一事件类型的表示所述交互的交互数据;
接收终止所述AR体验的请求;以及
响应于接收到所述终止所述AR体验的请求,将所述交互数据发送至远程服务器。
2.根据权利要求1所述的方法,还包括:
响应于确定所述交互对应于所述第一事件类型,将所述交互聚合至与所述第一事件类型相关联的实体中;以及
将所述实体存储为所述交互数据的一部分。
3.根据权利要求2所述的方法,其中,聚合所述交互包括:将所述交互与同所述第一事件类型相关联的一个或更多个先前交互进行累积。
4.根据权利要求3所述的方法,还包括:对所累积的与所述第一事件类型相关联的交互应用一个或更多个统计函数以生成所述交互数据。
5.根据权利要求1所述的方法,其中,所述交互是第一交互,并且其中,所述交互数据包括第一交互数据,所述方法还包括:
确定与所述AR体验相关联的第二交互对应于所述事件类型的列表中的第二事件类型;以及
生成针对所述第二事件类型的表示所述第二交互的第二交互数据。
6.根据权利要求5所述的方法,还包括:
使用所述第一交互数据和所述第二交互数据分别跟踪所述第一交互和所述第二交互;以及
响应于接收到所述终止所述AR体验的请求而生成包括所述第一交互数据和所述第二交互数据的消息,所述消息被发送至所述远程服务器。
7.根据权利要求6所述的方法,还包括:
通过以下来使所述第一交互数据和所述第二交互数据呈现给所述AR体验的开发者:
获得将通用事件的列表与所述AR体验的自定义事件的列表相关联的映射;
确定所述第一交互数据的所述第一事件类型对应于所述通用事件的列表中的第一通用事件;
确定所述第二交互数据的所述第二事件类型对应于所述通用事件的列表中的第二通用事件;以及
基于所述映射生成与所述AR体验的自定义事件相关联地在视觉上描绘所述第一交互数据和所述第二交互数据的图形用户界面。
8.根据权利要求7所述的方法,还包括:
识别与所述第一通用事件对应的第一自定义事件;
识别与所述第二通用事件对应的第二自定义事件;以及
在所述图形用户界面中与所述第一交互数据和所述第二交互数据相关联地在视觉上描绘所述第一自定义事件和所述第二自定义事件。
9.根据权利要求1所述的方法,其中,所述交互数据表示所述第一事件类型的平均或总计数。
10.根据权利要求9所述的方法,其中,所述平均或总计数对应于在所述客户端设备上和在其他客户端设备上执行的与所述第一事件类型相关联的交互。
11.根据权利要求1所述的方法,其中,响应于确定在所述AR体验期间指定的摄像装置视图被激活而触发所述第一事件类型。
12.根据权利要求11所述的方法,其中,所述指定的摄像装置视图包括以下中至少之一:前置摄像装置视图、后置摄像装置视图,或者在所捕获的图像中检测到指定的现实世界对象。
13.根据权利要求1所述的方法,其中,使用AR开发者平台开发所述AR体验,所述AR开发者平台包括用于使得能够选择事件类型以触发交互数据跟踪的图形用户界面。
14.根据权利要求13所述的方法,其中,所述图形用户界面包括:
与所述AR体验相关联的AR事件的列表,所述图形用户界面包括与所述AR事件的列表中的第一AR事件相关联的第一选项,响应于选择所述第一选项,所述第一选项使得与所述第一AR事件对应的交互被跟踪,所述图形用户界面包括用于指定用于触发所述第一AR事件的一个或更多个条件的与所述第一AR事件相关联的第二选项。
15.根据权利要求14所述的方法,其中,所述图形用户界面包括用于为所述第一AR事件指定自定义名称的第三选项。
16.根据权利要求1所述的方法,其中,所述事件类型的列表是事件类型的第一列表,并且所述AR体验是第一AR体验,所述方法还包括:
从所述客户端设备接收访问第二AR体验的请求;
访问用于生成度量的组的与所述第二AR体验相关联的事件类型的第二列表,所述事件类型的第二列表包括由所述第二AR体验的开发者配置的一个或更多个事件类型;
确定与所述第二AR体验相关联的交互对应于所述事件类型的第二列表中的第二事件类型;
生成针对所述第二事件类型的表示所述交互的交互数据;以及
将所述交互数据发送至所述远程服务器。
17.根据权利要求16所述的方法,其中,所述事件类型的第一列表包括与所述事件类型的第二列表不同的一个或更多个事件类型,使得所述事件类型的第一列表包括从所述事件类型的第二列表排除的所述一个或更多个事件类型。
18.一种系统,包括:
处理器;以及
存储器部件,所述存储器部件上存储有指令,所述指令在由所述处理器执行时使所述处理器执行操作,所述操作包括:
从客户端设备接收访问增强现实(AR)体验的请求;
访问用于生成一个或更多个度量的与所述AR体验相关联的事件类型的列表,所述事件类型的列表包括由所述AR体验的开发者配置的一个或更多个事件类型;
确定与所述AR体验相关联的交互对应于所述事件类型的列表中的第一事件类型;
生成针对所述第一事件类型的表示所述交互的交互数据;
接收终止所述AR体验的请求;以及
响应于接收到所述终止所述AR体验的请求,将所述交互数据发送至远程服务器。
19.根据权利要求16所述的系统,所述操作还包括:
响应于确定所述交互对应于所述第一事件类型,将所述交互聚合至与所述第一事件类型相关联的实体中;以及
将所述实体存储为所述交互数据的一部分。
20.一种其上存储有指令的非暂态计算机可读存储介质,所述指令在由处理器执行时使所述处理器执行操作,所述操作包括:
从客户端设备接收访问增强现实(AR)体验的请求;
访问用于生成一个或更多个度量的与所述AR体验相关联的事件类型的列表,所述事件类型的列表包括由所述AR体验的开发者配置的一个或更多个事件类型;
确定与所述AR体验相关联的交互对应于所述事件类型的列表中的第一事件类型;
生成针对所述第一事件类型的表示所述交互的交互数据;
接收终止所述AR体验的请求;以及
响应于接收到所述终止所述AR体验的请求,将所述交互数据发送至远程服务器。
CN202380036257.XA 2022-04-25 2023-04-14 增强现实体验事件度量系统 Pending CN119111066A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/727,972 2022-04-25
US17/727,972 US11894989B2 (en) 2022-04-25 2022-04-25 Augmented reality experience event metrics system
PCT/US2023/018636 WO2023211701A1 (en) 2022-04-25 2023-04-14 Augmented reality experience event metrics system

Publications (1)

Publication Number Publication Date
CN119111066A true CN119111066A (zh) 2024-12-10

Family

ID=88414937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202380036257.XA Pending CN119111066A (zh) 2022-04-25 2023-04-14 增强现实体验事件度量系统

Country Status (5)

Country Link
US (3) US11894989B2 (zh)
EP (1) EP4515482A1 (zh)
KR (1) KR20250002591A (zh)
CN (1) CN119111066A (zh)
WO (1) WO2023211701A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12348387B2 (en) 2022-04-25 2025-07-01 Snap Inc. Augmented reality experience event metrics system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12411700B2 (en) * 2023-07-17 2025-09-09 Maplebear Inc. Assigning control and variants to dynamically defined time periods in application state experiments

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9589149B2 (en) * 2012-11-30 2017-03-07 Microsoft Technology Licensing, Llc Combining personalization and privacy locally on devices
US10505825B1 (en) * 2014-10-09 2019-12-10 Splunk Inc. Automatic creation of related event groups for IT service monitoring
US10484298B2 (en) * 2015-11-16 2019-11-19 HomeAdvisor, Inc. Optimization of network resources
WO2018039076A1 (en) 2016-08-22 2018-03-01 Vantedge Group, Llc Immersive and merged reality experience / environment and data capture via virtural, agumented, and mixed reality device
US20180189338A1 (en) * 2016-12-30 2018-07-05 Google Inc. Techniques for enhanced pasteboard usage
US20190018656A1 (en) * 2017-05-12 2019-01-17 Monsarrat, Inc. Platform for third party augmented reality experiences
US10264003B1 (en) * 2018-02-07 2019-04-16 Extrahop Networks, Inc. Adaptive network monitoring with tuneable elastic granularity
US11847773B1 (en) * 2018-04-27 2023-12-19 Splunk Inc. Geofence-based object identification in an extended reality environment
US10748342B2 (en) 2018-06-19 2020-08-18 Google Llc Interaction system for augmented reality objects
CN112487278A (zh) * 2019-09-11 2021-03-12 华为技术有限公司 推荐模型的训练方法、预测选择概率的方法及装置
US20210142255A1 (en) * 2019-11-11 2021-05-13 Bank Of America Corporation System for automatic identification and mapping of interaction attributes to generate custom assessment functionality
WO2022006162A1 (en) 2020-06-29 2022-01-06 Snap Inc. Analyzing augmented reality content usage data
US11908159B2 (en) * 2020-07-27 2024-02-20 Shopify Inc. Systems and methods for representing user interactions in multi-user augmented reality
US11579757B2 (en) 2020-09-30 2023-02-14 Snap Inc. Analyzing augmented reality content item usage data
US11894989B2 (en) 2022-04-25 2024-02-06 Snap Inc. Augmented reality experience event metrics system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12348387B2 (en) 2022-04-25 2025-07-01 Snap Inc. Augmented reality experience event metrics system

Also Published As

Publication number Publication date
EP4515482A1 (en) 2025-03-05
KR20250002591A (ko) 2025-01-07
WO2023211701A1 (en) 2023-11-02
US20250286793A1 (en) 2025-09-11
US20240121169A1 (en) 2024-04-11
US12348387B2 (en) 2025-07-01
US11894989B2 (en) 2024-02-06
US20230344728A1 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
KR102836471B1 (ko) 외부-리소스 도크 및 서랍을 포함하는 메시징 시스템
KR102862744B1 (ko) 게임 결과 오버레이 시스템
KR102891310B1 (ko) 애플리케이션을 론칭하기 위한 시각적 검색
KR102777092B1 (ko) 컨텍스트 애플리케이션 메뉴
CN117501675A (zh) 呈现由消息应用从第三方资源接收的内容
CN118401912A (zh) 增强现实开箱体验
KR102802038B1 (ko) 턴-기반 협업 플레이리스트
KR20230070271A (ko) 마이크로 사운드 클립들을 갖는 채팅
KR20230121918A (ko) 다수의 비디오 클립을 캡처하기 위한 카메라 모드
CN118176712A (zh) 来自视频的自定义动画
CN119895353A (zh) 消息收发系统中的增强现实内容的光标功能
CN119856223A (zh) 消息收发系统中的增强现实内容的自动裁剪
CN119452622A (zh) 将增强现实体验与其他组件集成
US20250286793A1 (en) Augmented reality experience event metrics system
CN119547101A (zh) 基于用户输入遮蔽元素
KR20250105455A (ko) 이전에 캡처된 이미지들 및 ar 경험들을 내비게이트함
CN120283394A (zh) 内容项的自动标记
CN119137567A (zh) 增强现实体验中的实时修改
KR20250005475A (ko) 다중-모드 인간 상호작용 제어 증강 현실
CN119137921A (zh) 监测消息收发平台上的用户活动
CN119096215A (zh) 增强现实体验功率使用预测
CN118541961A (zh) 用于生成具有改变效果的语音消息的方法和系统
KR20250030507A (ko) 새로운 플랫폼 인식을 위한 시스템
CN119072721A (zh) 利用动态可加载资产的增强现实体验
KR20250006183A (ko) 증강 현실 경험들을 지속함

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination