CN116438574A - 在增强现实组件中使用肖像图像 - Google Patents
在增强现实组件中使用肖像图像 Download PDFInfo
- Publication number
- CN116438574A CN116438574A CN202180075901.5A CN202180075901A CN116438574A CN 116438574 A CN116438574 A CN 116438574A CN 202180075901 A CN202180075901 A CN 202180075901A CN 116438574 A CN116438574 A CN 116438574A
- Authority
- CN
- China
- Prior art keywords
- media content
- target media
- content object
- user
- camera view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2024—Style variation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Architecture (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
通过提供增强现实(AR)组件来解决创建下述AR体验的技术问题,该AR体验一方面可以从与消息收发客户端一起提供的摄像装置视图用户界面访问,并且还可以基于先前捕获的用户图像执行修改。当用户在访问消息收发客户端时在摄像装置视图用户界面中使用表示AR组件的用户可选元素的情况下,消息收发系统将AR组件加载到消息收发客户端中。AR组件包括可以是动画或实景视频的目标媒体内容对象。加载的AR组件访问与用户相关联的肖像图像并且使用该肖像图像来修改目标媒体内容。所得目标媒体内容对象被显示在摄像装置视图用户界面中。
Description
优先权要求
本申请要求于2020年11月11日提交的美国专利申请第16/949,700号的优先权的权益,该美国专利申请通过引用整体并入本文。
技术领域
本公开内容总体上涉及操纵电子内容。
背景技术
使用户能够在线访问内容以及与其他用户交互的计算机实现的程序的普及度持续增长。存在使用户能够通过消息收发客户端与其他用户共享内容的各种计算机实现的应用。这样的计算机实现的应用(称为app)中的一些可以被设计成在移动设备例如电话、平板电脑或手表上运行,同时具有在服务器计算机系统上提供的后端服务以执行可能需要比在客户端设备处执行所需的合理资源更多的资源的操作(例如,存储大量数据或执行计算上昂贵的处理)。例如,消息收发客户端和相关联的消息收发服务器系统可以被配置成使在线用户能够共享内容。
附图说明
在附图(其不一定按比例绘制)中,相似的附图标记可以在不同的视图中描述类似的组件。为了容易标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时所在的图号。在附图的图中通过示例而非限制的方式示出了一些实施方式,在附图中:
图1是根据一些示例的其中可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是根据一些示例的访问限制过程的流程图。
图6是根据一些示例的用于提供增强现实体验的流程图。
图7是根据一些示例的显示摄像装置的数字图像传感器的输出以及经修改的目标媒体内容对象的摄像装置视图用户界面的图解表示。
图8是根据一些示例的显示经修改的目标媒体内容对象的摄像装置视图用户界面的图解表示,其中显示了背景而不是显示摄像装置的数字图像传感器的输出。
图9是根据一些示例的显示经修改的目标媒体内容对象的多个实例的摄像装置视图用户界面的图解表示。
图10是根据一些示例的显示使用用户的连接(a user’s connection)的肖像图像修改的目标媒体内容对象的摄像装置视图用户界面的图解表示。
图11是根据一些示例的呈计算机系统形式的机器的图解表示,在该计算机系统内可以执行一组指令以使该机器执行本文中所讨论的方法中的任何一种或更多种方法。
具体实施方式
本公开内容的实施方式通过增强用户使用增强现实技术的体验来改进电子消息收发软件和系统的功能。
托管相关联的消息收发客户端的后端服务的消息收发系统被配置成:使用户能够利用与托管消息收发客户端的客户端设备一起提供的摄像装置来捕获图像和视频以及经由网络通信与其他用户共享所捕获的内容。消息收发系统还被配置成提供可经由消息收发客户端访问的增强现实(AR)组件。AR组件可以用于修改由摄像装置捕获的内容,例如,通过将图片或动画叠加在所捕获的图像或视频帧之上,或者通过添加三维(3D)效果、对象、字符和变换来修改由摄像装置捕获的内容。可以使用适于app开发的编程语言例如JavaScript或Java来实现AR组件。在消息收发服务器系统中通过相应AR组件标识符来标识AR组件。
用户可以通过使用包括在由消息收发客户端呈现的摄像装置视图用户界面中的用户可选元素来访问由AR组件提供的功能。摄像装置视图用户界面被配置成显示以下各项:与相关联的客户端设备一起提供的摄像装置的数字图像传感器的输出,可操作以通过摄像装置捕获图像或者开始和停止视频记录的用户可选元素,以及表示相应AR组件的一个或更多个用户可选元素。摄像装置视图用户界面可以包括一个或更多个用户可选元素,所述一个或更多个用户可选元素使用户能够应用并且还能够移除由AR组件产生的视觉效果。由消息收发客户端显示的画面被称为摄像装置视图画面,该画面可以包括摄像装置的数字图像传感器的输出、可操作以通过摄像装置捕获图像或者开始和停止视频记录的用户可选元素,并且还可以显示表示相应AR组件的一个或更多个用户可选元素。表示AR组件的用户可选元素可操作以启动AR组件。在AR组件被启动的情况下,利用由AR组件提供的修改来增强在摄像装置视图用户界面中显示的摄像装置的数字图像传感器的输出。例如,AR组件可以被配置成检测由数字图像传感器捕获的人的头部位置,并且将派对帽的图像叠加在检测到的头部位置上,使得观看者将看到被呈现为佩戴了派对帽的人。在许多示例中,AR组件实时修改在摄像装置视图用户界面中显示的摄像装置的数字图像传感器的输出。
创建一方面可以从摄像装置视图用户界面访问另一方面可以基于先前捕获并存储的用户图像来执行修改的AR体验的技术问题通过提供被配置成包括该功能的AR组件来解决。出于本描述的目的,先前捕获并存储的用户图像被称为肖像图像。
当用户在访问消息收发客户端时在由消息收发客户端呈现的摄像装置视图用户界面中使用表示AR组件的用户可选元素的情况下,消息收发系统将AR组件加载到消息收发客户端中。AR组件包括可以是动画或实景视频的目标媒体内容对象。目标媒体内容对象包括这样的部分,其可以接收与来自肖像图像的人类面部对应的内容,或者可以用与来自肖像图像的人类面部对应的内容替换,例如占位符对象(placeholder object)。出于本描述的目的,对应于来自肖像图像的人类面部的内容仅被称为面部对象。AR组件可以被配置成使用面部检测方法来从肖像图像得到面部对象。下面在增强现实工具的背景下参照图3描述了一些示例面部检测方法。所加载的AR组件访问与用户相关联的肖像图像,并且通过将来自肖像图像的面部对象插入目标媒体内容对象中的占位符对象中来修改目标媒体内容对象。所得目标媒体内容对象被显示在摄像装置视图用户界面中。
所得目标媒体内容对象可以在摄像装置视图用户界面中被显示为叠加在摄像装置的数字图像传感器的输出的一部分上。例如,在用户使用前置摄像装置使得摄像装置的数字图像传感器的输出是用户的图像并且目标媒体内容对象是带兔子耳朵的卡通动物的动画的情况下,摄像装置视图画面显示由摄像装置的数字图像传感器捕获的用户的图像,并且还显示具有用户的面部的带兔子耳朵的卡通动物。
在另一示例中,AR组件包括背景图像,并且所得目标媒体内容对象被叠加在背景图像上,使得叠加在背景图像上的所得目标媒体内容对象而不是摄像装置的数字图像传感器的输出被呈现在摄像装置视图画面上。在该示例中,摄像装置的数字图像传感器的输出在摄像装置视图画面中不可见。将所得目标媒体内容对象而不是摄像装置的数字图像传感器的输出呈现在摄像装置视图画面上的另一示例是与AR组件相关联的目标媒体内容对象是实景视频的情况,在这种情况下,视频中的一个或更多个角色的面部被来自用户的肖像图像的面部对象替代。
在又一示例中,所得目标媒体内容对象的各方面,例如叠加的目标媒体内容对象的空间放置,可以响应于由摄像装置的数字图像传感器检测到的用户的移动。例如,AR组件可以被配置成:响应于检测到在摄像装置视图画面中显示的对象用户的头部移动,将叠加的目标媒体内容对象的位置从摄像装置视图用户界面的一侧移动到另一侧。
在一些示例中,AR组件包括用于面部对象动画的一个或更多个机器学习模型,其中,模型被构建成以不同的面部表情来重新渲染从用户的肖像图像得到的面部对象,或者重新渲染来自肖像图像的面部对象以使其表现为转向一侧或另一侧。
AR组件可以包括多个目标媒体内容对象,所述目标媒体内容对象可以是不同的媒体内容项或同一媒体内容项的多个副本。除了被配置成包括来自用户的肖像图像的面部对象的占位符的目标媒体内容对象之外,AR组件还可以被配置成对由与用户正访问的消息收发客户端相关联的摄像装置捕获的图像或视频应用修改。例如,除了将相关联的经修改的目标媒体内容对象叠加在所捕获的帧的一部分上之外,由AR组件应用于摄像装置的数字图像传感器的输出的修改还可以将派对帽的图像叠加在帧中所检测到的头部位置上,或者使所捕获的帧中的用户的头部和面部的图像失真。
消息收发系统中的用户简档可以指示该用户简档与消息收发系统中作为“朋友”简档(也被称为连接简档)的另一简档相关。消息收发系统中由指示与表示另一用户的另一简档的连接的简档所表示的用户可以被允许以对于其简档不指示与该另一用户的友谊关系的用户而言不被允许的方式与该另一用户交换内容。在一些示例中,AR组件可以被配置成利用另一用户的肖像图像,其中,该另一用户在消息收发系统中由与正访问消息收发客户端的第一用户的简档不同的简档来表示。该另一用户可以是消息收发系统中的第一用户的连接(也被称为“朋友”)。利用另一用户的肖像图像的AR组件通过将来自该另一用户的肖像图像的面部对象插入目标媒体内容对象中的占位符对象中来修改目标媒体内容对象。
联网计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,每个实例托管包括消息收发客户端104的多个应用。每个消息收发客户端104经由网络106(例如,因特网)通信地耦接至消息收发客户端104的其他实例和消息收发服务器系统108。
消息收发客户端104能够经由网络106与另一消息收发客户端104和消息收发服务器系统108通信并且交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,用于激活功能的命令)以及净荷数据(例如,文本、音频、视频或其他多媒体数据)。例如,消息收发客户端104允许用户访问由AR组件提供的功能,其可以至少部分地驻留在消息收发服务器系统108处。如上所述,AR组件包括目标媒体内容对象,并且被配置成通过将从用户的肖像图像得到的面部对象插入目标媒体内容对象中的占位符对象来修改目标媒体内容对象。
消息收发服务器系统108经由网络106向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能是在消息收发客户端104内还是在消息收发服务器系统108内的定位可以是设计选择。例如,在技术上可能优选的是:最初将某些技术和功能部署在消息收发服务器系统108内,但是之后将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。例如,关于由AR组件提供的功能,响应于检测到表示增强现实组件的用户可选元素的激活而执行的从肖像图像得到面部对象以及通过用面部对象替换目标媒体内容对象的一部分来生成经修改的目标媒体内容对象的操作可以在消息收发服务器系统108处执行以节省托管消息收发客户端104的客户端设备102的资源。可替选地,如果确定托管消息收发客户端104的客户端设备102具有足够的处理资源,则这些操作中的一些或全部操作可以由消息收发客户端104执行。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体增强和叠加、消息内容持续条件、社交网络信息和实况事件信息。通过经由消息收发客户端104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。例如,消息收发客户端104可以呈现摄像装置视图用户界面,该摄像装置视图用户界面显示客户端设备102的摄像装置的数字图像传感器的输出,并且还显示可操作以将AR组件加载到消息收发客户端104中的用户可选元素。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器110耦接至应用服务器112,并且向应用服务器112提供编程接口。应用服务器112通信地耦接至数据库服务器118,数据库服务器118便于进行对数据库120的访问,该数据库120存储与通过应用服务器112处理的消息相关联的数据。类似地,web服务器124耦接至应用服务器112,并且向应用服务器112提供基于web的接口。为此,web服务器124通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
应用程序接口(API)服务器110在客户端设备102与应用服务器112之间接收和发送消息数据(例如,命令和消息净荷)。具体地,应用程序接口(API)服务器110提供一组接口(例如,例程和协议),消息收发客户端104可以调用或查询该组接口以便激活应用服务器112的功能。应用程序接口(API)服务器110公开应用服务器112所支持的各种功能,包括帐户注册、登录功能、经由应用服务器112从特定消息收发客户端104向另一消息收发客户端104发送消息、从消息收发客户端104向消息收发服务器114发送媒体文件(例如,图像或视频)、以及供另一消息收发客户端104进行的可能访问、对媒体数据的集合(例如,故事)进行设置、检索客户端设备102的用户的朋友列表、检索这样的集合、检索消息和内容、针对实体图(例如,社交图)添加和删除实体(例如,朋友)、定位社交图内的朋友以及打开(例如,与消息收发客户端104相关的)应用事件。
应用服务器112托管多个服务器应用和子系统,包括例如消息收发服务器114、图像处理服务器116以及社交网络服务器122。消息收发服务器114实现多个消息处理技术和功能,特别地涉及对包括在从消息收发客户端104的多个实例接收的消息中的内容(例如,文本和多媒体内容)的汇总和其他处理。如将进一步详细描述的,可以将来自多个源的文本和媒体内容汇总成内容的集合(例如,被称为故事(story)或图库(gallery))。然后,使这些集合对消息收发客户端104可用。鉴于对数据的其他处理器和存储器密集型处理的硬件要求,也可以由消息收发服务器114在服务器侧执行这样的处理。
应用服务器112还包括图像处理服务器116,图像处理服务器116专用于通常针对从消息收发服务器114发送或者在消息收发服务器114处接收的消息的净荷内的图像或视频执行各种图像处理操作。所述各种图像处理操作中的一些图像处理操作可以由图像处理服务器116所托管或支持的各种AR组件执行。如上所述,AR组件的示例是包括目标媒体内容对象并且被配置成通过将从用户的肖像图像得到的面部对象插入目标媒体内容对象中的占位符对象来修改目标媒体内容对象的AR组件。
社交网络服务器122支持各种社交联网功能和服务并使这些功能和服务对消息收发服务器114可用。为此,社交网络服务器122维护并访问数据库120内的实体图306(如图3所示)。由社交网络服务器122支持的功能和服务的示例包括识别消息收发系统100中的特定用户与其有“朋友”关系或正“关注”的其他用户,以及识别其他实体和特定用户的兴趣。参照AR组件所提供的功能,由社交网络服务器122进行的对消息收发系统100中的特定用户与其有“朋友”关系的其他用户的识别可以用于确定对其肖像图像将被AR组件用于得到面部对象的另一用户的识别,然后通过将来自该另一用户的肖像图像的面部对象插入目标媒体内容对象中的占位符对象中来将面部对象用于修改与AR组件相关联的目标媒体内容对象。
系统架构
图2是示出根据一些示例的关于消息收发系统100的其他细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器112。消息收发系统100包含多个子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器112支持。这些子系统包括例如短暂定时器系统202、集合管理系统204和增强系统206。
短暂定时器系统202负责迫使由消息收发客户端104和消息收发服务器114对内容进行临时或限时访问。短暂定时器系统202包含若干定时器,这些定时器基于与消息或消息集合(例如,故事)相关联的持续时间和显示参数选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的其他细节。
集合管理系统204负责管理媒体的合集或集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件图库”或“事件故事”。可以使这样的集合在指定时间段例如与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。在另一示例中,集合可以包括使用一个或更多个AR组件生成的内容,所述一个或更多个AR组件可以包括这样的AR组件:所述AR组件可以包括由摄像装置捕获的内容,其中所述内容使用通过先前捕获并存储的用户图像修改的媒体内容对象来增强。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括使得集合管理者能够管理和策展特定内容集合的策展接口212。例如,策展接口212使得事件组织者能够策展与特定事件相关的内容集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以向用户支付补偿以用于将用户生成的内容包括到集合中。在这样的情况下,集合管理系统204进行操作以自动地向这样的用户进行支付以使用他们的内容。
增强系统206提供使得用户能够增强(例如,注释或以其他方式修改或编辑)可能与消息相关联的媒体内容的各种功能。例如,增强系统206提供与生成和发布用于由消息收发系统100处理的消息的媒体叠加有关的功能。媒体叠加可以被存储在数据库120中并且通过数据库服务器118访问。
参照AR组件,与AR组件相关联的媒体叠加被称为目标媒体内容对象。如上所述,目标媒体内容对象包括占位符对象,该占位符对象可以接收与来自肖像图像的人类面部(面部对象)对应的内容,或者可以被与来自肖像图像的人类面部(面部对象)对应的内容代替。AR组件,在被加载到接收来自用户的输入的消息收发客户端中的情况下,访问与用户相关联的肖像图像并且通过将来自肖像图像的面部对象插入目标媒体内容对象中的占位符对象来修改目标媒体内容对象。所得目标媒体内容对象可以被叠加在由消息收发客户端呈现的摄像装置视图用户界面中的相关联摄像装置的数字图像传感器的输出上。下面参照图6进一步描述由增强系统206执行的示出了AR组件所提供的功能中的一些功能的示例操作。
在一些示例中,增强系统206被配置成提供对AR组件的访问,所述AR组件可以使用适于app开发的编程语言例如JavaScript或Java来实现并且在消息收发服务器系统中由相应AR组件标识符来标识。AR组件可以包括或引用对应于图像修改、过滤、媒体叠加、变换等的各种图像处理操作。这些图像处理操作可以提供真实世界环境的交互体验,其中通过计算机生成的感知信息来增强由数字图像传感器或摄像装置捕获的对象、表面、背景、照明等。在这种情况下,AR组件包括将所选择的增强现实体验应用于图像或视频馈送(videofeed)所需的数据、参数和其他资产的集合。
在一些实施方式中,AR组件包括被配置成以某种方式对在客户端设备的图形用户界面(GUI)内呈现的图像数据进行修改或变换的模块。例如,可以使用AR组件数据对内容图像执行复杂的添加或变换,例如在视频剪辑中将兔子耳朵添加至人的头部、将具有背景颜色的浮动心添加至视频剪辑、改变视频剪辑内的人的特征的比例或许多其他这样的变换。这包括实时修改以及对所存储的内容的修改两者,其中,实时修改在使用与客户端设备相关联的摄像装置捕获到图像并且然后在客户端设备的屏幕上显示图像时利用AR内容组件修改对图像进行修改,所存储的内容例如可以使用AR组件进行修改的图库中的视频剪辑。
可以由AR组件提供的各种增强现实功能包括:检测对象(例如,面部、手、身体、猫、狗、表面、对象等),在这样的对象离开、进入视频帧中的视场以及在视频帧中的视场周围移动时跟踪这样的对象,以及在这样的对象被跟踪时对其进行修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。例如,一些实施方式可以涉及生成一个或多个对象的3D网格模型,并且在视频内使用模型的变换和动画纹理来实现变换。在其他实施方式中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)置于所跟踪的位置处。在另外的实施方式中,可以使用视频帧的神经网络分析来将图像、模型或纹理置于内容(例如图像或视频帧)中。因此,AR组件数据既指用于在内容中创建变换的图像、模型和纹理,也指利用对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
如上所述,AR组件的示例是在被加载到接收来自用户的输入的消息收发客户端中时访问与用户相关联的肖像图像并且通过将从肖像图像得到的面部对象插入目标媒体内容对象中的占位符对象中来修改目标媒体内容的AR组件。在一些示例中,AR组件被配置成利用面部检测技术来从肖像图像得到面部对象。面部检测技术的示例包括基于Viola-Jones特征的对象检测框架和深度学习方法,例如“多任务级联卷积神经网络”或MTCNN(Multi-Task Cascaded Convolutional Neural Network)。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库120中的数据结构300的示意图。虽然数据库120的内容被示出为包括若干表,但是应当理解,数据可以存储在其他类型的数据结构(例如,作为面向对象的数据库)中。
数据库120包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和净荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的其他细节。
实体表304存储实体数据,并且(例如,参考地)链接到实体图306和简档数据308。实体表304内针对其维持记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。不论实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是已识别的实体。每个实体被提供唯一标识符以及实体类型标识符(未示出)。
实体图306存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣或者基于活动的。参照由AR组件提供的功能,实体图306存储这样的信息:在AR组件被配置成允许使用除了控制相关联的客户端设备的用户的肖像图像之外的用户的肖像图像来修改目标媒体内容对象的情况下,所述信息可以用于确定连接至表示控制相关联的客户端设备的用户的简档的另一简档。如上所述,用户的肖像图像可以被存储在消息收发系统中表示该用户的用户简档中。
简档数据308存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据308可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据308包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)、以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容中以及在由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间传送的状态或活动的图形表示。
参照由AR组件提供的功能,简档数据308存储用户的肖像图像或对肖像图像的引用。肖像图像由通过相关联的简档表示的用户提供。如上所述,在AR组件被加载到消息收发客户端104中的情况下,AR组件可以使用肖像图像。
数据库120还在增强表310中存储增强数据。增强数据与视频(其数据被存储在视频表314中)和图像(其数据被存储在图像表316中)相关联并且被应用于视频和图像。在一些示例中,由包括AR组件的各种AR组件使用增强数据。增强数据的示例是目标媒体内容对象,如上所述,目标媒体内容对象可以与AR组件相关联并且用于为用户生成AR体验。
增强数据的另一示例是可以在AR组件中使用以实现图像变换的增强现实(AR)工具。图像变换包括实时修改,实时修改在使用客户端设备102的数字图像传感器捕获到图像(例如,视频帧)时修改该图像。经修改的图像与修改一起显示在客户端设备102的屏幕上。AR工具还可以用于将修改应用于所存储的内容,例如存储在图库中的视频剪辑或静止图像。在可以访问多个AR工具的客户端设备102中,用户可以将不同的AR工具(例如,通过使用被配置成利用不同AR工具的不同AR组件)应用于单个视频剪辑以查看不同的AR工具将如何修改同一视频剪辑。例如,通过针对同一捕获内容选择不同的AR工具,可以将应用不同伪随机运动模型的多个AR工具应用于同一捕获内容。类似地,实时视频捕获可以与示出的修改一起使用,以示出当前正通过与客户端设备102一起提供的摄像装置的数字图像传感器捕获的视频图像将如何修改所捕获的数据。这样的数据可以仅显示在屏幕上而不存储在存储器中,或者由数字图像传感器捕获的内容可以在有或者没有修改(或两者)的情况下被记录并存储在存储器中。消息收发客户端104可以被配置成包括预览特征,该预览特征可以同时在显示器中的不同窗口内示出由不同的AR工具产生的修改将看起来如何。例如,这可以使用户能够查看同时呈现在显示器上的具有不同伪随机动画的多个窗口。
在一些示例中,在特定修改与要变换的内容一起被选择的情况下,由计算设备识别要变换的元素,并且然后如果要变换的元素存在于视频帧中,则检测并跟踪要变换的元素。根据修改请求来修改对象的元素,从而变换视频流的帧。对于不同类型的变换,可以通过不同的方法对视频流的帧进行变换。例如,对于主要涉及改变对象的元素的形式的帧变换,计算对象的每个元素的特征点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每个元素生成基于特征点的网格。该网格用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,所提及的针对每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一点的第一集合,并且基于第一点的集合和修改请求针对每个元素生成第二点的集合。然后,可以通过基于第一点的集合和第二点的集合以及网格修改对象的元素来变换视频流的帧。在这样的方法中,也可以通过跟踪和修改背景来使被修改对象的背景改变或扭曲。
在一些示例中,使用对象的元素来改变对象的一些区域的变换可以通过计算对象的每个元素的特征点并基于所计算的特征点生成网格来执行。在网格上生成点,然后生成基于这些点的各种区域。然后通过将每个元素的区域与至少一个元素中的每个元素的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而变换视频流的帧。根据具体的修改请求,可以以不同的方式变换所提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少一些部分;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其发生扭曲。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点以用于确定针对模型动画的选项的整个状态空间。
故事表312存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,其记录被保存在实体表304中的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容的集合的形式创建“个人故事”。为此,消息收发客户端104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。在一些示例中,故事表312存储使用AR组件创建的一个或更多个图像或视频。
集合还可以构成作为来自多个用户的内容的集合的“实况故事”,该内容的集合是手动地、自动地或者使用手动技术和自动技术的组合创建的。例如,“实况故事”可以构成由来自不同定位和事件的用户提交的内容的策展流。可以例如经由消息收发客户端104的用户界面向其客户端设备启用了定位服务并且在特定时间处于共同定位事件处的用户呈现选项,以将内容贡献给特定的实况故事。可以由消息收发客户端104基于用户的定位向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另一类型的内容集合被称为“定位故事”,该“定位故事”使得其客户端设备102位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对定位故事的贡献可能需要二级认证来验证终端用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如上面提到的,视频表314存储视频数据,在一个示例中,该视频数据与其记录被保存在消息表302内的消息相关联。类似地,图像表316存储图像数据,该图像数据与其消息数据存储在实体表304中的消息相关联。实体表304可以使来自增强表310的各种增强与存储在图像表316和视频表314中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端104生成,以用于传送给另外的消息收发客户端104或消息收发服务器114。特定消息400的内容用于填充存储在可由消息收发服务器114访问的数据库120内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器112的“传输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。在一些示例中,消息400的内容包括使用AR组件创建的图像或视频。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本净荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像净荷406:由客户端设备102的摄像装置组件捕获的或从客户端设备102的存储器组件检索到的、并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以被存储在图像表316中。
·消息视频净荷408:由摄像装置组件捕获的或从客户端设备102的存储器组件检索到的、并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表314中。
·消息音频净荷410:由麦克风捕获的或从客户端设备102的存储器组件检索的并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像净荷406、消息视频净荷408或消息音频净荷410的增强的增强数据(例如,过滤器、标贴或其他注解或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像净荷406、消息视频净荷408、消息音频净荷410)将经由消息收发客户端104被呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理定位参数416:与消息的内容净荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。在净荷中可以包括多个消息地理定位参数416值,这些参数值中的每个参数值与内容中所包括的内容项(例如,消息图像净荷406内的特定图像或者消息视频净荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像净荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表312中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像净荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每个标签指示消息净荷中包括的内容的主题。例如,在消息图像净荷406中包括的特定图像描绘动物(例如,狮子)的情况下,可以在消息标签420内包括指示相关动物的标签值。标签值可以基于用户输入手动地生成,或者可以使用例如图像识别自动地生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各个组成部分的内容(例如,值)可以是指向表中的存储内容数据值的位置的指针。例如,消息图像净荷406中的图像值可以是指向图像表316内的位置的指针(或地址)。类似地,消息视频净荷408内的值可以指向存储在视频表314内的数据,存储在消息增强数据412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表312中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表304内的用户记录。
基于时间的访问限制架构
图5是示出访问限制过程500的示意图,根据该访问限制过程,对内容(例如,短暂消息502和相关联的数据的多媒体净荷)或内容集合(例如,短暂消息组504)的访问可以是时间受限的(例如,短暂的)。在一些示例中,短暂消息502的内容包括使用AR组件创建的图像或视频。
短暂消息502被示出为与消息持续时间参数506相关联,消息持续时间参数506的值确定消息收发客户端104将向短暂消息502的接收用户显示短暂消息502的时间量。在一个示例中,接收用户可查看短暂消息502最多长达10秒,这取决于发送用户使用消息持续时间参数506指定的时间量。
消息持续时间参数506和消息接收者标识符424被示出为消息定时器512的输入,消息定时器512负责确定向由消息接收者标识符424标识的特定接收用户示出短暂消息502的时间量。特别地,将仅在由消息持续时间参数506的值确定的时间段内向相关接收用户示出短暂消息502。消息定时器512被示出为向更一般化的短暂定时器系统202提供输出,该短暂定时器系统202负责向接收用户显示内容(例如,短暂消息502)的总体定时。
短暂消息502在图5中被示出为被包括在短暂消息组504(例如,个人故事或事件故事中的消息的集合)内。短暂消息组504具有相关联的组持续时间参数508,组持续时间参数508的值确定短暂消息组504被呈现并且可由消息收发系统100的用户访问的持续时间。例如,组持续时间参数508可以是音乐会的持续时间,其中,短暂消息组504是与该音乐会有关的内容的集合。可替选地,用户(拥有用户或策展者用户)可以在执行短暂消息组504的设置和创建时指定组持续时间参数508的值。
另外,短暂消息组504内的每个短暂消息502具有相关联的组参与参数510,组参与参数510的值确定在短暂消息组504的上下文内可访问短暂消息502的持续时间。因此,在特定短暂消息组504本身根据组持续时间参数508到期之前,该短暂消息组504可以在短暂消息组504的上下文内“到期”并且变得不可访问。组持续时间参数508、组参与参数510和消息接收者标识符424各自向组定时器514提供输入,组定时器514可操作地首先确定短暂消息组504的特定短暂消息502是否将被显示给特定接收用户,并且如果是,则确定显示多长时间。注意,由于消息接收者标识符424,短暂消息组504也知道特定接收方用户的身份。
因此,组定时器514可操作地控制相关联的短暂消息组504以及包括在短暂消息组504中的单独的短暂消息502的整体寿命。在一个示例中,短暂消息组504内的每个短暂消息502在由组持续时间参数508指定的时间段内保持可查看且可访问。在另一示例中,在短暂消息组504的上下文内,某个短暂消息502可以基于组参与参数510而到期。注意,即使在短暂消息组504的上下文内,消息持续时间参数506也仍然可以确定向接收用户显示特定短暂消息502的持续时间。因此,消息持续时间参数506确定向接收用户显示特定短暂消息502的持续时间,而不管接收用户是在短暂消息组504的上下文之内还是在短暂消息组504的上下文之外查看该短暂消息502。
短暂定时器系统202还可以基于确定已经超过相关联的组参与参数510而可操作地从短暂消息组504中移除特定短暂消息502。例如,当发送用户已经建立了从发布起24小时的组参与参数510时,短暂定时器系统202将在指定的24小时之后从短暂消息组504中移除相关短暂消息502。当针对短暂消息组504内的每个短暂消息502的组参与参数510已到期时,或者当短暂消息组504本身根据组持续时间参数508已到期时,短暂定时器系统202也进行操作以移除短暂消息组504。
在某些使用情况下,特定短暂消息组504的创建者可以指定无期限的组持续时间参数508。在这种情况下,短暂消息组504内最后剩余的短暂消息502的组参与参数510的到期将确定短暂消息组504本身何时到期。在这种情况下,添加至短暂消息组504的具有新的组参与参数510的新的短暂消息502实际上将短暂消息组504的寿命延长到等于组参与参数510的值。
响应于短暂定时器系统202确定短暂消息组504已经到期(例如,不再是可访问的),短暂定时器系统202与消息收发系统100(并且例如特别是消息收发客户端104)通信,以使与相关短暂消息组504相关联的标记(例如,图标)不再显示在消息收发客户端104的用户界面内。类似地,当短暂定时器系统202确定针对特定短暂消息502的消息持续时间参数506已经到期时,短暂定时器系统202使消息收发客户端104不再显示与短暂消息502相关联的标记(例如,图标或文本标识)。
图6是根据一些示例的使用AR组件来提供增强现实体验的流程图600。在一个示例实施方式中,一些或全部处理逻辑驻留在图1的客户端设备102处和/或图1的消息收发服务器系统108处。方法600开始于操作610,在操作610处,图2的增强系统206从摄像装置视图用户界面检测表示AR组件的用户可选元素的激活。响应于该检测,在操作620处,增强系统206访问与表示消息收发系统中的用户的用户简档相关联的肖像图像并从该肖像图像得到面部对象。如上所述,可以通过利用例如基于Viola-Jones特征的对象检测框架或MTCNN的面部检测技术从肖像图像得到面部对象。在操作630处,增强系统206通过用得到的面部对象替换目标媒体内容对象的一部分来生成经修改的目标媒体内容对象。在操作640处,增强系统206使得在客户端设备处在摄像装置视图用户界面中呈现经修改的目标媒体内容对象。
图7中示出了摄像装置视图用户界面700的示例,摄像装置视图用户界面700在显示区域710中显示摄像装置的数字图像传感器的输出以及经修改的目标媒体内容对象720,其中经修改的目标媒体内容对象720在摄像装置视图用户界面中被显示为叠加在摄像装置的数字图像传感器的输出的一部分上。图7中示出可操作以通过摄像装置捕获图像或者开始和停止视频记录的用户可选元素730。图形740指示所加载的AR组件是可以基于先前捕获并存储的用户图像(肖像图像)执行修改并将其叠加在摄像装置视图用户界面700的区域710上的AR组件。用户可选元素750表示可以响应于检测到用户与用户可选元素750的交互而加载的另一AR组件。
图8是显示经修改的目标媒体内容对象810的摄像装置视图用户界面800的图解表示,其中在区域820中显示背景,而不是摄像装置的数字图像传感器的输出。所述背景可以是例如颜色、图案(如区域820中所示)、背景图像、动画场景或视频序列。
如上所述,AR组件可以包括多个目标媒体内容对象,如图9所示,所述多个目标媒体内容对象可以是不同的媒体内容项或同一媒体内容项的多个副本。图9是显示经修改的目标媒体内容对象910的多个实例的摄像装置视图用户界面900的图解表示。由摄像装置的数字图像传感器捕获的用户的头部的图像920在区域930中显示,并通过相关联的AR组件提供的修改进行了修改,所述修改为添加帽子940。
图10是根据一些示例的摄像装置视图用户界面1000的图解表示,摄像装置视图用户界面1000显示利用用户的连接的肖像图像修改的目标媒体内容对象1010。如图10中可以看到的,经修改的目标媒体内容对象中所包括的面部与区域1020中显示的面部不同,其中区域1020显示摄像装置的数字图像传感器的输出。
机器架构
图11是机器600的图解表示,在该机器600内可以执行用于使机器600执行本文中所讨论的方法中的任何一种或更多种方法的指令608(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1108可以使机器1100执行本文中描述的方法中的任何一种或更多种方法。指令1108将通用的未经编程的机器1100转换成被编程为以所描述的方式执行描述和示出的功能的特定机器1100。机器1100可以作为独立设备操作或者可以耦接(例如,联网)到其他机器。在联网部署中,机器1100可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1100可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1100采取的动作的指令1108的任何机器。此外,虽然仅示出了单个机器1100,但是术语“机器”还应当被视为包括单独地或联合地执行指令1108以执行本文中所讨论的任何一种或更多种方法的机器的集合。例如,机器1100可以包括客户端设备102或者形成消息收发服务器系统108的一部分的多个服务器设备中的任何一个。在一些示例中,机器1100还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器1100可以包括可以被配置成经由总线1140彼此通信的处理器1102、存储器1104和输入/输出(I/O)组件1138。在示例中,处理器1102(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1108的处理器1106和处理器1110。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。尽管图11示出了多个处理器1102,但是机器1100可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或其任何组合。
存储器1104包括主存储器1112、静态存储器1114和存储单元1116,所述主存储器1112、静态存储器1114和存储单元1116均可由处理器1102经由总线1140访问。主存储器1104、静态存储器1114以及存储单元1116存储实现本文中所描述的方法或功能中的任何一种或更多种的指令1108。指令1108还可以在其由机器1100执行期间完全地或部分地驻留在主存储器1112内、在静态存储器1114内、在存储单元11111内的机器可读介质1118内、在处理器1102中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者在其任何合适的组合内。
I/O组件1138可以包括接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种组件。包括在特定机器中的特定I/O组件1138将取决于机器的类型。例如,便携式机器例如移动电话可以包括触摸输入设备或其他这样的输入机构,而无头(headless)服务器机器将不太可能包括这样的触摸输入设备。应当理解,I/O组件1138可以包括图11中未示出的许多其他组件。在各种示例中,I/O组件1138可以包括用户输出组件1124和用户输入组件1126。用户输出组件1124可以包括视觉组件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学组件(例如,扬声器)、触觉组件(例如,振动马达、阻力机构)、其他信号发生器等。用户输入组件1126可以包括字母数字输入组件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入组件)、基于指向的输入组件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入组件(例如,物理按钮、提供触摸或触摸手势的位置和/或力的触摸屏或其他触觉输入组件)、音频输入组件(例如,麦克风)等。
在其他示例中,I/O组件1138可以包括生物计量组件1128、运动组件1130、环境组件1132、或位置组件1134以及各种其他组件。例如,生物计量组件1128包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的组件。运动组件1130包括加速度传感器组件(例如,加速计)、重力传感器组件、旋转传感器组件(例如,陀螺仪)。
环境组件1132包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器组件(例如,光度计)、温度传感器组件(例如,检测环境温度的一个或更多个温度计)、湿度传感器组件、压力传感器组件(例如,气压计)、声学传感器组件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器组件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器),或者可以提供与周围物理环境对应的指示、测量或信号的其他组件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。后置摄像装置可以例如用于以更传统的摄像装置模式捕获静止图像和视频,其中这些图像类似地使用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感应摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置组件1134包括定位传感器组件(例如,GPS接收器组件)、海拔传感器组件(例如,检测气压的高度计或气压计,根据该气压可以得到海拔)、取向传感器组件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O组件1138还包括通信组件1136,通信组件1136可操作以经由相应的耦接或连接将机器1100耦接至网络1120或设备1122。例如,通信组件1136可以包括网络接口组件或另一合适的设备以与网络1120对接。在其他示例中,通信组件1136可以包括有线通信组件、无线通信组件、蜂窝通信组件、近场通信(NFC)组件、组件(例如,低能耗)、组件以及经由其他模态提供通信的其他通信组件。设备1122可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信组件636可以检测标识符或包括可操作以检测标识符的组件。例如,通信组件636可以包括射频识别(RFID)标签读取器组件、NFC智能标签检测组件、光学读取器组件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或声学检测组件(例如,用于识别标记的音频信号的麦克风)。此外,可以经由通信组件1136得到各种信息,例如经由因特网协议(IP)地理位置得到的定位、经由信号三角测量得到的定位、经由检测可以指示特定定位的NFC信标信号得到的定位等。
各种存储器(例如,主存储器1112、静态存储器1114以及处理器1102的存储器)以及存储单元1116可以存储由本文中所描述的方法或功能中的任何一种或更多种方法或功能实现或使用的一组或更多组指令和数据结构(例如,软件)。在由处理器1102执行的情况下,这些指令(例如,指令1108)使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信组件1136中包括的网络接口组件),使用传输介质并且使用若干公知的传输协议中的任何一种传输协议(例如,超文本传输协议(HTTP)),通过网络1120来发送或接收指令1108。类似地,可以使用传输介质经由与设备1122的耦接(例如,对等耦接)来发送或接收指令608。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这些指令的通信。可以使用传输介质经由网络接口设备来通过网络发送或接收指令。
“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、其他类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动电信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“组件”是指设备、物理实体或具有由功能或子例程调用、分支点、API或者对特定处理或控制功能提供分区或模块化的其他技术来定义的边界的逻辑。组件可以经由其接口与其他组件组合以执行机器处理。组件可以是被设计用于与其他组件一起使用的经封装的功能硬件单元,并且可以是通常执行相关功能中的特定功能的程序的一部分。组件可以构成软件组件(例如,体现在机器可读介质上的代码)或硬件组件。“硬件组件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例实施方式中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或更多个硬件组件(例如,处理器或处理器组)配置成进行操作以执行本文中所描述的某些操作的硬件组件。也可以机械地、电子地或以其任何合适的组合来实现硬件组件。例如,硬件组件可以包括被永久地配置成执行某些操作的专用电路或逻辑。硬件组件可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件组件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件组件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件组件成为被独特地定制成执行所配置的功能的特定机器(或机器的特定组件),而不再是通用处理器。应当理解,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路中实现硬件组件还是在临时配置(例如,由软件配置)的电路中实现硬件组件。因此,短语“硬件组件”(或“硬件实现的组件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑到硬件组件被临时配置(例如,被编程)的实施方式,无需在任一时刻对硬件组件中的每个硬件组件进行配置或实例化。例如,在硬件组件包括通过软件配置成变成专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被分别配置成不同的专用处理器(例如,包括不同的硬件组件)。软件相应地将一个或多个特定处理器配置成例如在一个时刻处构成特定硬件组件,并且在不同的时刻处构成不同的硬件组件。硬件组件可以向其他硬件组件提供信息以及从其他硬件组件接收信息。因此,所描述的硬件组件可以被认为通信地耦接。在同时存在多个硬件组件的情况下,可以通过在两个或更多个硬件组件之间或之中(例如,通过适当的电路和总线)的信号传输来实现通信。在多个硬件组件在不同时间处被配置或被实例化的实施方式中,可以例如通过将信息存储在多个硬件组件有权访问的存储器结构中以及在该存储器结构中检索信息来实现这样的硬件组件之间的通信。例如,一个硬件组件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另一硬件组件可以在随后的时间处访问该存储器设备以检索所存储的输出并对其进行处理。硬件组件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。在本文中所描述的示例方法的各种操作可以至少部分地由(例如,通过软件)临时地配置或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中所描述的一个或更多个操作或功能的处理器实现的组件。如本文中使用的,“处理器实现的组件”是指使用一个或更多个处理器实现的硬件组件。类似地,在本文中所描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的操作中的至少一些操作可以由一个或更多个处理器1004或者处理器实现的组件来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由一组计算机(作为包括处理器的机器的示例)执行,其中,这些操作能够经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)进行访问。某些操作的执行可以分布在处理器之间,不是仅驻留在单个机器内,而是跨多个机器被部署。在一些示例实施方式中,处理器或处理器实现的组件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例实施方式中,处理器或处理器实现的组件可以跨多个地理位置分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中可互换地使用。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除磁盘;磁光盘;以及CD-ROM和DVD-ROM磁盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于软件或数据的通信。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特性中的一个或更多个特性被以将信息编码在信号中的方式设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物,并且可以在本公开内容中互换使用。
Claims (20)
1.一种方法,包括:
在用于通过网络交换数据的消息收发系统中,配置增强现实组件以修改目标媒体内容对象;
使得在客户端设备处呈现摄像装置视图界面,所述摄像装置视图界面包括所述客户端设备的摄像装置的数字图像传感器的输出,并且包括表示所述增强现实组件的用户可选元素;
响应于检测到表示所述增强现实组件的用户可选元素的激活:
访问与表示所述消息收发系统中的用户的用户简档相关联的肖像图像,
从所述肖像图像得到面部对象,以及
通过用所述面部对象替换所述目标媒体内容对象的一部分来生成经修改的目标媒体内容对象;以及
使得在所述客户端设备处在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象。
2.根据权利要求1所述的方法,其中,所述目标媒体内容对象包括动画。
3.根据权利要求1所述的方法,其中,所述目标媒体内容对象包括实景视频。
4.根据权利要求1所述的方法,其中,在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得所述经修改的目标媒体内容对象叠加在所述摄像装置的数字图像传感器的输出的一部分上呈现。
5.根据权利要求1所述的方法,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得所述经修改的目标媒体内容对象叠加在背景图像上而不是叠加在所述摄像装置的数字图像传感器的输出上呈现。
6.根据权利要求1所述的方法,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:基于由所述摄像装置的数字图像传感器检测的所述用户简档的移动来确定所述经修改的目标媒体内容对象在所述摄像装置视图界面中的空间放置。
7.根据权利要求1所述的方法,其中,所述增强现实组件包括用于面部动画的一个或更多个机器学习模型,所述一个或更多个机器学习模型被配置成利用一个或更多个修改来重新渲染从所述用户简档的肖像图像得到的面部对象,其中,生成所述经修改的目标媒体内容对象包括执行所述一个或更多个机器学习模型。
8.根据权利要求1所述的方法,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得呈现所述经修改的目标媒体内容对象的多个实例。
9.根据权利要求1所述的方法,其中,所述用户简档表示在所述客户端设备处访问所述摄像装置视图界面的用户。
10.根据权利要求1所述的方法,其中,所述用户简档表示在所述客户端设备处访问所述摄像装置视图界面的用户的连接。
11.一种系统,包括:
一个或更多个处理器;以及
包括指令的非暂态计算机可读存储介质,所述指令在由所述一个或更多个处理器执行时使所述一个或更多个处理器执行操作,所述操作包括:
在用于通过网络交换数据的消息收发系统中,配置增强现实组件以修改目标媒体内容对象;
使得在客户端设备处呈现摄像装置视图界面,所述摄像装置视图界面包括所述客户端设备的摄像装置的数字图像传感器的输出,并且包括表示所述增强现实组件的用户可选元素;
响应于检测到表示所述增强现实组件的用户可选元素的激活:
访问与表示所述消息收发系统中的用户的用户简档相关联的肖像图像,
从所述肖像图像得到面部对象,以及
通过用所述面部对象替换所述目标媒体内容对象的一部分来生成经修改的目标媒体内容对象;以及
使得在所述客户端设备处在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象。
12.根据权利要求11所述的系统,其中,所述目标媒体内容对象包括动画。
13.根据权利要求11所述的系统,其中,所述目标媒体内容对象包括实景视频。
14.根据权利要求11所述的系统,其中,在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得所述经修改的目标媒体内容对象叠加在所述摄像装置的数字图像传感器的输出的一部分上呈现。
15.根据权利要求11所述的系统,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得所述经修改的目标媒体内容对象叠加在背景图像上而不是叠加在所述摄像装置的数字图像传感器的输出上呈现。
16.根据权利要求11所述的系统,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:基于由所述摄像装置的数字图像传感器检测的所述用户简档的移动来确定所述经修改的目标媒体内容对象在所述摄像装置视图界面中的空间放置。
17.根据权利要求11所述的系统,其中,所述增强现实组件包括用于面部动画的一个或更多个机器学习模型,所述一个或更多个机器学习模型被配置成利用一个或更多个修改来重新渲染从所述用户简档的肖像图像得到的面部对象,其中,生成所述经修改的目标媒体内容对象包括执行所述一个或更多个机器学习模型。
18.根据权利要求11所述的系统,其中,使得在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象包括:使得呈现所述经修改的目标媒体内容对象的多个实例。
19.根据权利要求11所述的系统,其中,所述用户简档表示在所述客户端设备处访问所述摄像装置视图界面的用户。
20.一种具有指令数据的机器可读非暂态存储介质,所述指令数据能够由机器执行以使所述机器执行操作,所述操作包括:
在用于通过网络交换数据的消息收发系统中,配置增强现实组件以修改目标媒体内容对象;
使得在客户端设备处呈现摄像装置视图界面,所述摄像装置视图界面包括所述客户端设备的摄像装置的数字图像传感器的输出,并且包括表示所述增强现实组件的用户可选元素;
响应于检测到表示所述增强现实组件的用户可选元素的激活:
访问与表示所述消息收发系统中的用户的用户简档相关联的肖像图像,
从所述肖像图像得到面部对象,以及
通过用所述面部对象替换所述目标媒体内容对象的一部分来生成经修改的目标媒体内容对象;以及
使得在所述客户端设备处在所述摄像装置视图界面中呈现所述经修改的目标媒体内容对象。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/949,700 | 2020-11-11 | ||
| US16/949,700 US11354872B2 (en) | 2020-11-11 | 2020-11-11 | Using portrait images in augmented reality components |
| PCT/US2021/058818 WO2022103862A1 (en) | 2020-11-11 | 2021-11-10 | Using portrait images in augmented reality components |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116438574A true CN116438574A (zh) | 2023-07-14 |
Family
ID=78822301
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202180075901.5A Pending CN116438574A (zh) | 2020-11-11 | 2021-11-10 | 在增强现实组件中使用肖像图像 |
Country Status (5)
| Country | Link |
|---|---|
| US (3) | US11354872B2 (zh) |
| EP (1) | EP4244817A1 (zh) |
| KR (1) | KR20230104676A (zh) |
| CN (1) | CN116438574A (zh) |
| WO (1) | WO2022103862A1 (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12322061B2 (en) | 2020-11-11 | 2025-06-03 | Snap Inc. | Using portrait images in augmented reality components |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12094243B2 (en) * | 2020-05-19 | 2024-09-17 | Board Of Regents, The University Of Texas System | Method and apparatus for discreet person identification on pocket-size offline mobile platform with augmented reality feedback with real-time training capability for usage by universal users |
| US11575626B2 (en) * | 2020-06-10 | 2023-02-07 | Snap Inc. | Bidirectional bridge for web view |
| US12494056B2 (en) | 2021-09-30 | 2025-12-09 | Lemon Inc. | Social networking based on asset items |
| US11763496B2 (en) * | 2021-09-30 | 2023-09-19 | Lemon Inc. | Social networking based on asset items |
| US20230325975A1 (en) * | 2023-04-25 | 2023-10-12 | Lemon Inc. | Augmentation and layer freezing for neural network model training |
| US12047337B1 (en) * | 2023-07-03 | 2024-07-23 | Snap Inc. | Generating media content items during user interaction |
| US12548272B2 (en) * | 2024-04-10 | 2026-02-10 | Lashify, Inc. | Systems and methods for using augmented reality to enhance an application of artificial lash extensions |
| US12198289B1 (en) | 2024-04-10 | 2025-01-14 | Lashify, Inc. | Systems and methods for using augmented reality to preview false eyelashes |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2958487A1 (fr) | 2010-04-06 | 2011-10-07 | Alcatel Lucent | Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video |
| JP5602618B2 (ja) * | 2010-06-10 | 2014-10-08 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 |
| JP5738569B2 (ja) * | 2010-10-15 | 2015-06-24 | 任天堂株式会社 | 画像処理プログラム、装置、システムおよび方法 |
| JP2014509758A (ja) * | 2011-02-28 | 2014-04-21 | フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド | リアルタイムの仮想反射 |
| US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
| US10223838B2 (en) * | 2013-03-15 | 2019-03-05 | Derek A. Devries | Method and system of mobile-device control with a plurality of fixed-gradient focused digital cameras |
| US10055895B2 (en) * | 2016-01-29 | 2018-08-21 | Snap Inc. | Local augmented reality persistent sticker objects |
| US10217261B2 (en) * | 2016-02-18 | 2019-02-26 | Pinscreen, Inc. | Deep learning-based facial animation for head-mounted display |
| US20180204599A1 (en) * | 2016-03-01 | 2018-07-19 | Meograph, Inc. | Mobile device video personalization |
| US10645092B1 (en) * | 2019-01-03 | 2020-05-05 | Truly Social Games Llc | Control and/or verification of interactions of an augmented reality deployment |
| US11354872B2 (en) | 2020-11-11 | 2022-06-07 | Snap Inc. | Using portrait images in augmented reality components |
-
2020
- 2020-11-11 US US16/949,700 patent/US11354872B2/en active Active
-
2021
- 2021-11-10 CN CN202180075901.5A patent/CN116438574A/zh active Pending
- 2021-11-10 WO PCT/US2021/058818 patent/WO2022103862A1/en not_active Ceased
- 2021-11-10 EP EP21820395.8A patent/EP4244817A1/en active Pending
- 2021-11-10 KR KR1020237019096A patent/KR20230104676A/ko not_active Ceased
-
2022
- 2022-05-25 US US17/804,008 patent/US11869164B2/en active Active
-
2024
- 2024-01-04 US US18/404,575 patent/US12322061B2/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12322061B2 (en) | 2020-11-11 | 2025-06-03 | Snap Inc. | Using portrait images in augmented reality components |
Also Published As
| Publication number | Publication date |
|---|---|
| US11869164B2 (en) | 2024-01-09 |
| US20240153227A1 (en) | 2024-05-09 |
| KR20230104676A (ko) | 2023-07-10 |
| US11354872B2 (en) | 2022-06-07 |
| EP4244817A1 (en) | 2023-09-20 |
| US20220148276A1 (en) | 2022-05-12 |
| US20220292794A1 (en) | 2022-09-15 |
| WO2022103862A1 (en) | 2022-05-19 |
| US12322061B2 (en) | 2025-06-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12125147B2 (en) | Face animation synthesis | |
| KR102868780B1 (ko) | 특징있는 콘텐츠 컬렉션 인터페이스 | |
| KR102894830B1 (ko) | 증강 현실 컴포넌트들에 대한 딥 링크 | |
| US12322061B2 (en) | Using portrait images in augmented reality components | |
| KR102905191B1 (ko) | 웹 뷰를 위한 양방향 브리지 | |
| US12073193B2 (en) | Software development kit engagement monitor | |
| CN116458150A (zh) | 屏幕记录摄像装置模式 | |
| CN116235500B (zh) | 生成用于分享到外部应用的媒体内容项的方法及系统 | |
| CN117561719A (zh) | 取景器环形闪光灯 | |
| KR102785812B1 (ko) | 적응형 전방 플래시 뷰 | |
| CN117597690B (zh) | 用于可定制媒体的混合搜索系统 | |
| KR20250033276A (ko) | 사용자 입력에 기초한 요소들 숨기기 | |
| CN116235194A (zh) | 媒体内容传输和管理 | |
| CN116349220A (zh) | 实时视频编辑 | |
| CN119563156A (zh) | 跨多个窗口管理内容 | |
| CN119522437A (zh) | 基于浏览器焦点遮蔽元素 | |
| CN116710895A (zh) | 用于增强现实组件的身体ui | |
| KR20230124703A (ko) | 증강 현실 컴포넌트들을 위한 신체 ui |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |