CN109200586A - 基于增强现实的游戏实现方法和装置 - Google Patents
基于增强现实的游戏实现方法和装置 Download PDFInfo
- Publication number
- CN109200586A CN109200586A CN201710517673.8A CN201710517673A CN109200586A CN 109200586 A CN109200586 A CN 109200586A CN 201710517673 A CN201710517673 A CN 201710517673A CN 109200586 A CN109200586 A CN 109200586A
- Authority
- CN
- China
- Prior art keywords
- user
- stage property
- game
- target user
- ontology
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000000694 effects Effects 0.000 claims abstract description 65
- 230000033001 locomotion Effects 0.000 claims abstract description 53
- 230000004044 response Effects 0.000 claims abstract description 20
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000013589 supplement Substances 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 6
- 210000003128 head Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种基于增强现实的游戏实现方法和装置。该实现方法通过第一摄像装置采集目标用户的图像;响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;识别本体用户的体感信息,以生成第一运动轨迹;将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;将本体用户的道具效果与目标用户的图像进行合成,以生成增强现实的游戏画面,并显示游戏画面。该方案采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
Description
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种基于增强现实的游戏实现方法和装置。
背景技术
AR(Augmented Reality,增强现实)是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息、声音、味道、触觉等)通过电脑等科学技术,模拟仿真后,把真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。增强现实技术,不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。在视觉化的增强现实中,用户利用头盔显示器,把真实世界与电脑图形多重合成在一起,便可以看到真实的世界围绕着它。AR是人们通过计算机对复杂数据进行可视化操作与交互的一种全新方式,与传统的人机界面以及流行的视窗操作相比,AR在技术思想上有了质的飞跃。
随着AR技术的快速发展,AR游戏也开始风靡起来,其能够借助现实环境把虚拟角色的相关信息显示出来,以实现AR游戏与现实环境中呈现的虚拟角色之间的互动。
发明内容
本发明实施例提供一种基于增强现实的游戏实现方法和装置,可以增加游戏的趣味性。
本发明实施例提供了一种基于增强现实的游戏实现方法,包括:
通过第一摄像装置采集目标用户的图像;
响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;
识别本体用户的体感信息,以生成第一运动轨迹;
将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;
将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面,并显示所述游戏画面。
在一些实施例中,所述方法还包括:
通过第二摄像装置采集本体用户的图像;
获取目标用户的道具效果;
将所述目标用户的道具效果与所述本体用户的图像进行合成,以生成增强现实的补充画面,并与所述游戏画面一同进行显示。
在一些实施例中,在获取目标用户的道具效果之前,所述方法还包括:
响应于目标用户的道具选择指令,从道具数据库中选取第二虚拟道具模型;
识别目标用户的体感信息,以生成对应的第二运动轨迹;
将第二虚拟道具模型按照第二运动轨迹进行移动,以生成目标用户的道具效果。
在一些实施例中,通过第一摄像装置采集目标用户的图像之后,响应于本体用户的道具指令之前,所述方法还包括:
确定所述目标用户的人体模型数据;
根据所述人体模型数据进行三维建模,以生成三维人体模型;
从服饰数据库中获取与所述三维人体模型匹配的虚拟服饰;
将所述虚拟服饰与所述目标用户的图像进行合成,以得到目标用户的复合图像;
所述将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面的步骤,进一步包括:
将所述本体用户的道具效果与所述目标用户的复合图像进行合成,以生成虚拟现实的游戏画面。
在一些实施例中,在通过第一摄像装置采集目标用户的图像之前,所述方法还包括:
对道具模型进行扫描,获取所述道具模型的色彩信息和深度信息;
基于所述道具模型的色彩信息和所述深度信息生成虚拟道具模型,以建立道具数据库。
在一些实施例中,所述方法还包括:
等待操作令牌;
当获取到所述操作令牌后,识别本体用户的体感信息;
当生成本体用户的道具效果后,释放所述操作令牌。
相应地,本发明实施例还提供一种基于增强现实的游戏实现装置,包括:
图像获取模块,用于通过第一摄像装置采集目标用户的图像;
选择模块,用于响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;
识别模块,用于识别本体用户的体感信息,以生成第一运动轨迹;
效果生成模块,用于将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;
画面合成模块,用于将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面,并显示所述游戏画面。
在一些实施例中,所述装置还包括:
确定模块,用于在通过第一摄像装置采集目标用户的图像之后,响应于本体用户的道具指令之前,确定所述目标用户的人体模型数据;
建模模块,用于根据所述人体模型数据进行三维建模,以生成三维人体模型;
服饰获取模块,用于从服饰数据库中获取与所述三维人体模型匹配的虚拟服饰;
图像合成模块,用于将所述虚拟服饰与所述目标用户的图像进行合成,以得到目标用户的复合图像;
所述画面合成模块,进一步用于:
将所述本体用户的道具效果与所述目标用户的复合图像进行合成,以生成虚拟现实的游戏画面。
在一些实施例中,所述装置还包括:
扫描模块,用于在通过第一摄像装置采集目标用户的图像之前,对道具模型进行扫描,获取所述道具模型的色彩信息和深度信息;
构建模块,用于基于所述道具模型的色彩信息和所述深度信息生成虚拟道具模型,以建立道具数据库。
在一些实施例中,所述装置还包括:
控制模块,用于等待操作令牌;当获取到所述操作令牌后,识别本体用户的体感信息;当生成本体用户的道具效果后,释放所述操作令牌。
本发明实施例提供的基于增强现实的游戏实现方法和装置,采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于增强现实的游戏实现方法的一种流程示意图。
图2是本发明实施例提供的基于增强现实的游戏实现方法的另一种流程示意图。
图3是本发明实施例提供的基于增强现实的游戏实现系统的一种应用场景示意图。
图4是本发明实施例提供的基于增强现实的游戏实现装置的一种结构示意图。
图5是本发明实施例提供的基于增强现实的游戏实现装置的另一种结构示意图。
图6是本发明实施例提供的基于增强现实的游戏实现装置的另一种结构示意图
图7是本发明实施例提供的基于增强现实的游戏实现装置的另一种结构示意图
图8是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书以及上述附图中的术语“第一”、“第二”、“第三”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应当理解,这样描述的对象在适当情况下可以互换。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。
在本专利文档中,下文论述的附图以及用来描述本发明公开的原理的各实施例仅用于说明,而不应解释为限制本发明公开的范围。所属领域的技术人员将理解,本发明的原理可在任何适当布置的系统中实施。将详细说明示例性实施方式,在附图中示出了这些实施方式的实例。此外,将参考附图详细描述根据示例性实施例的终端。附图中的相同附图标号指代相同的元件。
本发明说明书中使用的术语仅用来描述特定实施方式,而并不意图显示本发明的概念。除非上下文中有明确不同的意义,否则,以单数形式使用的表达涵盖复数形式的表达。在本发明说明书中,应理解,诸如“包括”、“具有”以及“含有”等术语意图说明存在本发明说明书中揭示的特征、数字、步骤、动作或其组合的可能性,而并不意图排除可存在或可添加一个或多个其他特征、数字、步骤、动作或其组合的可能性。附图中的相同参考标号指代相同部分。
本发明实施例提供一种基于增强现实的游戏实现方法和装置。以下将分别进行详细说明。
在一优选实施例中,提供一种基于增强现实的游戏实现方法,如图1所示,流程可以如下:
101、通过第一摄像装置采集目标用户的图像。
在一些实施例中,第一摄像装置的摄像头的视角可与穿戴AR设备的本体用户视角相同,第一摄像装置具体可集成在本体用户佩戴的AR头显中。
其中,第一摄像装置包括有至少一个摄像头。摄像头具有视频摄像/传播和静态图像捕捉等基本功能,它是借由镜头采集图像后,由摄像头内的感光组件电路及控制组件对图像进行处理并转换成电脑所能识别的数字信号,然后借由并行端口或USB(UniversalSerial Bus,通用串行总线)连接输入到电脑后由软件再进行图像还原。
本实施例中,第一摄像装置所采用的摄像头可为数字摄像头。数字摄像头可以将采集图像而产生的模型信号转换成数字信号,进而将其储存在平板电脑、计算机等带有存储介质的智能终端中。数字摄像头可以直接捕捉影像,然后通过串、并口或者USB接口传到计算机里。
在一些实施例中,为了提升获取到图像的质量,该第一摄像装置可采用模拟摄像头。模拟摄像头可和视频采集卡或者USB视频采集卡配套使用,很方便的跟电脑连接使用。
102、响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型。
本发明实施例中,需要预先建立道具数据库。也即,在通过第一摄像装置采集目标用户的图像之前,该方法还包括:
对道具模型进行扫描,获取道具模型的色彩信息和深度信息;
基于道具模型的色彩信息和深度信息生成虚拟道具模型,以建立道具数据库。
具体地,可基于获取的色彩信息和深度信息进行3D(three-dimennsional,即三维图形)建模,以生成虚拟道具模型,从而建立道具数据库。其中,3D建模,即通过三维制作软件在虚拟三维空间构建出具有三维数据的模型。
具体实施时,可通过摄像头获取道具模型的全景色彩图像和全景深度图像,将全景深度图像中的每一个像素点与全景色彩图像中的每一个像素点进行匹配,以得到道具模型的色彩-深度图像。然后,将色彩-深度图像中每一个像素点按照第一旋转角度和/或第二旋转角度建模,以构建目标对象的3D模型图像。
本实施例中,道具数据库中的虚拟道具模型具体可包括武器,可分为防御类和攻击类,如刀、枪、剑、戟、矛、盾、盔、甲、棒、枪械、手雷、火箭筒、枪榴弹等等,对此不作具体限定。此外,还可包括有消耗品,如食物、药品、打造原料、合成原料、宠物口粮等。
实际应用中,用户可通过手势操控、语音操控或体感操控中的任一方式,触发道具选择指令,以从道具数据库中选取第一虚拟道具模型。具体实施时,可以列表的形式向用户展示道具模型数据库中的虚拟道具模型,预览或选定时,可通过三维视觉显示设备展示该虚拟道具模型。
103、识别本体用户的体感信息,以生成第一运动轨迹。
具体地,可通过摄像装置、以及穿戴人体感应设备以识别用户体感信息,如数据手套、数据衣等外设。
比如,可以通过识别用户手势生成第一运动轨迹。首先,采集用户动态手势的视频图像,随后对视频图像中的每一帧图像进行手势和背景的分割。从分割得到的所有图像中,找出动态手势的指尖运动轨迹,并根据动态手势的指尖运动轨迹构建动态手势特征向量,动态手势特征向量中的每一分量为相邻两帧图像中指尖连线构成的方向向量,将动态手势特征向量送入支持向量机,由支持向量机中的分类器进行手势识别,获得动态手势的最优分类解,以识别用户手势。
在此之前,可基于用户不同的体感信息,设置不同的运动轨迹,并建立体感信息与运动轨迹的对应关系,以建立轨迹数据库。应用过程中,在成功识别体感信息时,将体感信息与数据库中预设体感信息进行匹配,根据对应关系获取相应的预设运动轨迹,并将其作为第一运动轨迹。
在一些实施例中,可从体感信息中提取体感特征,将提取的体感特征量化处理,得到相应的量化数据。然后,通过预设的轨迹算法,输入量化数据,以输出对应的第一运动轨迹。
104、将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果。
在一些实施例中,为进一步渲染道具效果,可在游戏时添加适当特效,如光效和音效。比如,进行枪战游戏时,可在发射的子弹尾部添加火红色光效;在子弹射出时刻为其匹配“嘣”的音效,在空间运动过程中,为其匹配“咻”的音效;在目标用户成功被射击时,匹配受伤的音效,如“啊”。
105、将本体用户的道具效果与目标用户的图像进行合成,以生成增强现实的游戏画面,并显示该游戏画面。
具体地,在虚拟道具模型沿第一运动轨迹运动的过程中,显示虚拟道具模型及其携带的特效、以及目标用户的图像,并向主体用户展示。当本体用户利用虚拟道具模型向目标用户发起攻击后,道具效果消失,并可对虚拟道具模型进行回收。
由于游戏是相互的,因此,在一些实施例中,玩家除了可发起攻击外,还需接收其他游戏玩家的攻击。也即,该方法还可包括:
通过第二摄像装置采集本体用户的图像;
获取目标用户的道具效果;
将目标用户的道具效果与本体用户的图像进行合成,以生成增强现实的补充画面,并与上述游戏画面一同进行显示。
具体地,本体用户在向目标用户发起攻击的同时,目标用户也可向本体用户发起攻击。同样地,第二摄像装置包括有至少一个摄像头。在一些实施例中,第二摄像装置的摄像头的视角可与穿戴AR设备的目标用户视角相同,第二摄像装置具体可集成在目标用户佩戴的AR头显中。
在一些实施例中,在获取目标用户的道具效果之前,该方法还包括:
响应于目标用户的道具选择指令,从道具数据库中选取第二虚拟道具模型;
识别目标用户的体感信息,以生成对应的第二运动轨迹;
将第二虚拟道具模型按照第二运动轨迹进行移动,以生成目标用户的道具效果。
实际应用中,目标用户可通过手势操控、语音操控或体感操控中的任一方式,触发道具选择指令,以从道具数据库中选取第一虚拟道具模型。具体实施方式可参考上述对本体用户的描述,对此不再赘述。
由上可知,本发明实施例提供了一种基于增强现实的游戏实现方法,通过第一摄像装置采集目标用户的图像;响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;识别本体用户的体感信息,以生成第一运动轨迹;将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;将本体用户的道具效果与目标用户的图像进行合成,以生成增强现实的游戏画面,并显示游戏画面。该方案采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
在本发明又一实施例中,还提供另一基于增强现实的游戏实现方法。如图2所示,流程可以如下:
201、通过第一摄像装置采集目标用户的图像。
在一些实施例中,第一摄像装置的摄像头的视角可与穿戴AR设备的本体用户视角相同,第一摄像装置具体可集成在本体用户佩戴的AR头显中。
202、根据该图像为目标用户匹配对应的虚拟服饰,以生成目标用户的复合图像。
本实施例中,为了使游戏画面更加更加逼真,可为目标用户匹配对应的虚拟服饰,再将虚拟服饰与人物图像结合显示。也即,步骤“根据该图像为目标用户匹配对应的虚拟服饰,以生成目标用户的复合图像”可以包括以下流程:
根据该图像确定目标用户的人体模型数据;
根据人体模型数据进行三维建模,以生成三维人体模型;
从服饰数据库中获取与三维人体模型匹配的虚拟服饰;
将所述虚拟服饰与目标用户的图像进行合成,以得到目标用户的复合图像。
具体地,需预先多种服饰的三维模型,以形成服饰数据库。该服饰数据库中可包括:服装(适用于男士、女士和/或男女通用的服装)、饰品(头饰、面饰、手饰等)。对目标人物进行实时的3D建模,从服饰数据库中选取与三维人体模型匹配的虚拟服饰进行合成显示。
在一些实施方式中,可利用人识别、人脸追踪等技术定位人物,以将虚拟服饰与之融合。具体实施时,可根据三维人体模型灵活地将服饰进行缩放,以趋向服饰与人物的无缝隙融合,让画面更加真实。
203、响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型。
本发明实施例中,需要预先建立道具数据库。也即,在通过第一摄像装置采集目标用户的图像之前,该方法还包括:
在通过第一摄像装置采集目标用户的图像之前,该方法还包括:
对道具模型进行扫描,获取道具模型的色彩信息和深度信息;
基于道具模型的色彩信息和深度信息生成虚拟道具模型,以建立道具数据库。
具体地,可基于获取的色彩信息和深度信息进行3D建模,以生成虚拟道具模型,从而建立道具数据库。
204、判断是否持有操作令牌;若是,执行步骤205;若否,执行步骤209。
其中,操作令牌可以是从一个节点发送到另一个节点的标志信息,自由获得令牌的节点才有权发送信息包。
在本实施例中,当需要执行有效的游戏攻击操作时,首先要等待操作令牌的到来。当检测到一个经过他的令牌为空令牌时,即可以“帧”为单位发送信息,并将令牌置为忙,以持有该操作令牌。当且仅当持有该操作令牌时向其他游戏玩家发起的攻击操作才为有效,否则即使发起了攻击,也将被判定无效攻击。
205、识别本体用户的体感信息,以生成第一运动轨迹。
具体地,可通过摄像装置、以及穿戴人体感应设备以识别用户体感信息,如数据手套、数据衣等外设。
在此之前,可基于用户不同的体感信息,设置不同的运动轨迹,并建立体感信息与运动轨迹的对应关系,以建立轨迹数据库。应用过程中,在成功识别体感信息时,将体感信息与数据库中预设体感信息进行匹配,根据对应关系获取相应的预设运动轨迹,并将其作为第一运动轨迹。
在一些实施例中,可从体感信息中提取体感特征,将提取的体感特征量化处理,得到相应的量化数据。然后,通过预设的轨迹算法,输入量化数据,以输出对应的第一运动轨迹。
206、将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果。
在一些实施例中,为进一步渲染道具效果,可在游戏时添加适当特效,如光效和音效或者其他特效等。
207、将本体用户的道具效果与目标用户的复合图像进行合成,以生成虚拟现实的游戏画面,并显示游戏画面。
具体地,在虚拟道具模型沿第一运动轨迹运动的过程中,显示虚拟道具模型及其携带的特效、以及目标用户的图像,并向主体用户展示。当本体用户利用虚拟道具模型向目标用户发起攻击后,道具效果消失,并可对虚拟道具模型进行回收。
由于游戏是相互的,因此,在一些实施例中,玩家除了可发起攻击外,还需接收其他游戏玩家的攻击。也即,该方法还可包括:
通过第二摄像装置采集本体用户的图像;
获取目标用户的道具效果;
将目标用户的道具效果与本体用户的图像进行合成,以生成增强现实的补充画面,并与上述游戏画面一同进行显示。
具体地,本体用户在向目标用户发起攻击的同时,目标用户也可向本体用户发起攻击。同样地,第二摄像装置包括有至少一个摄像头。在一些实施例中,第二摄像装置的摄像头的视角可与穿戴AR设备的目标用户视角相同,第二摄像装置具体可集成在目标用户佩戴的AR头显中。
在一些实施例中,在获取目标用户的道具效果之前,该方法还包括:
响应于目标用户的道具选择指令,从道具数据库中选取第二虚拟道具模型;
识别目标用户的体感信息,以生成对应的第二运动轨迹;
将第二虚拟道具模型按照第二运动轨迹进行移动,以生成目标用户的道具效果。
实际应用中,目标用户可通过手势操控、语音操控或体感操控中的任一方式,触发道具选择指令,以从道具数据库中选取第一虚拟道具模型。具体实施方式可参考上述对本体用户的描述,对此不再赘述。
208、释放操作令牌。
当生成本体用户的道具效果后,释放操作令牌,随后执行步骤209。
209、等待操作令牌。
具体地,当判定当前未持有操作令牌时,则等待操作令牌,直至获取到操作令牌,方可执行下一步操作。
由上可知,本发明实施例提供了一种基于增强现实的游戏实现方法,通过采集目标用户的图像,并为目标用户匹配对应的虚拟服饰,生成目标用户的复合图像,然后响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;在持有操作令牌的情况下,识别本体用户的体感信息,以生成第一运动轨迹;将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;将本体用户的道具效果与目标用户的复合图像进行合成,以生成虚拟现实的游戏画面,并显示游戏画面。该方案采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
参考图3,本发明又一实施例提供一种基于增强现实的游戏实现系统。如图,该基于增强现实的游戏实现系统包括:AR穿戴设备31、服务器32以及控制设备33。
其中,AR穿戴设备31,具体可包括AR头显、手柄等。AR头显中可设置有摄像头。该摄像头可用于采集现实环境图像和其他游戏玩家的图像信息。通过该AR头显31用户可看到现实场景、现实人物,以及虚拟道具模型、虚拟服饰等。
服务器32具体可以为数据服务器、网络服务器等网络设备。该服务器34可用于提供虚拟道具模型、虚拟服饰等。
控制设备33可以包括计算机、智能手机、平板电脑等具有运算处理功能的智能设备。
在本实施例中,用户通过佩戴AR穿戴设备31(如AR头显、手柄、数据手套、数据手环等)进入游戏。当控制设备33通过AR头显中设置的摄像头获取到其他游戏玩家的图像时,从服务器32中获取相应的虚拟服饰,并将其他玩家的图像与该虚拟服饰合成,并发送给AR头显进行显示复合图像。用户通过AR穿戴设备31触发道具选择指令,控制设备33响应于用户的道具选择指令,从服务器32获取虚拟道具模型。然后,识别用户的体感信息,生成相应的运动轨迹,将虚拟道具按照该运动轨迹移动,生成相应的道具效果。最后,将生成的道具效果与其他游戏玩家的复合图像进行合成,以生成增强现实的游戏画面,并显示游戏画面。
由上可知,该方案采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
在本发明又一实施例中,还提供一种基于增强现实的游戏实现装置。如图4所示,该基于增强现实的游戏实现装置4000可以包括图像获取模块401、选择模块402、识别模块403、效果生成模块404、以及合成模块405,其中:
图像获取模块401,用于通过第一摄像装置采集目标用户的图像;
选择模块402,用于响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;
识别模块403,用于识别本体用户的体感信息,以生成第一运动轨迹;
效果生成模块404,用于将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;
合成模块405,用于将本体用户的道具效果与目标用户的图像进行合成,以生成增强现实的游戏画面,并显示该游戏画面。
参考图5,在一些实施例中,该装置4000还可包括:
确定模块406,用于在通过第一摄像装置采集目标用户的图像之后,响应于本体用户的道具指令之前,确定目标用户的人体模型数据;
建模模块407,用于根据人体模型数据进行三维建模,以生成三维人体模型;
服饰获取模块408,用于从服饰数据库中获取与三维人体模型匹配的虚拟服饰;
图像合成模块409,用于将虚拟服饰与所述目标用户的图像进行合成,以得到目标用户的复合图像;
则,画面合成模块405用于:
将本体用户的道具效果与目标用户的复合图像进行合成,以生成虚拟现实的游戏画面。
在一些实施例中,参考图6,该装置4000还可包括:
扫描模块410,用于在通过第一摄像装置采集目标用户的图像之前,对道具模型进行扫描,获取道具模型的色彩信息和深度信息;
构建模块411,用于基于道具模型的色彩信息和深度信息生成虚拟道具模型,以建立道具数据库。
如图7所示,在一些实施例中,该装置4000还可包括:
控制模块412,用于等待操作令牌;当获取到操作令牌后,控制识别模块403识别本体用户的体感信息;当效果生成模块404生成本体用户的道具效果后,释放操作令牌。
由上可知,本发明实施例提供了一种基于增强现实的游戏实现装置,通过图像获取模块401获取目标用户的图像,选择模块402响应于本体用户的道具选择指令从道具数据库中选取虚拟道具模型,然后,识别模块403识别本体用户的体感信息,以生成相应的运动轨迹,效果生成模块404将虚拟道具模型按照该运动轨迹进行移动,生成本体用户的道具效果;最后,合成模块405将本体用户的道具效果与目标用户的图像进行合成,最终生成并显示增强现实的游戏画面。该方案采用增强现实技术,虚实结合,丰富了人机交互的方式,提升了游戏的趣味性,相对于传统的游戏玩法,可脱离固定位置而自由走动,降低游戏设备对用户眼睛造成的伤害。
相应地,本发明实施例还提供一种服务器500,如图8所示,该服务器500可以包括一个或者一个以上处理核心的处理器501、一个或一个以上计算机可读存储介质的存储器502、通讯单元503、电源504、输入单元505、以及显示单元506等部件。本领域技术人员可以理解,图6中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器501是该服务器500的控制中心,利用各种接口和线路连接整个服务器500的各个部分,通过运行或执行存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行服务器500的各种功能和处理数据,从而对服务器500进行整体监控。可选的,处理器501可包括一个或多个处理核心;优选的,处理器501可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器501中。
存储器502可用于存储软件程序以及模块。处理器501通过运行存储在存储器502的软件程序以及模块,从而执行各种功能应用以及数据处理。本实施例中,存储器502可存储虚拟道具模型、虚拟服饰等。
通讯单元503可用于收发信息过程中,信号的接收和发送,特别地,通讯单元503接收终端发送的信号,并将该数据获取请求交由一个或者一个以上处理器501处理。同时,通讯单元503将处理器501发出的反馈信号发送给终端。
服务器500还包括给各个部件供电的电源504(比如电池)。优选的,电源可以通过电源管理系统与处理器501逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源504还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该服务器500还可包括输入单元505,该输入单元505可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该服务器500还可包括显示单元506,该显示单元506可用于显示由用户输入的信息或提供给用户的信息以及服务器500的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元508可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。
具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块的具体实施可参见前面的方法实施例,在此不再赘述。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等
在描述本发明的概念的过程中使用了术语“一”和“所述”以及类似的词语(尤其是在所附的权利要求书中),应该将这些术语解释为既涵盖单数又涵盖复数。此外,除非本文中另有说明,否则在本文中叙述数值范围时仅仅是通过快捷方法来指代属于相关范围的每个独立的值,而每个独立的值都并入本说明书中,就像这些值在本文中单独进行了陈述一样。另外,除非本文中另有指明或上下文有明确的相反提示,否则本文中所述的所有方法的步骤都可以按任何适当次序加以执行。本发明的改变并不限于描述的步骤顺序。除非另外主张,否则使用本文中所提供的任何以及所有实例或示例性语言(例如,“例如”)都仅仅为了更好地说明本发明的概念,而并非对本发明的概念的范围加以限制。在不脱离精神和范围的情况下,所属领域的技术人员将易于明白多种修改和适应。
以上对本发明实施例所提供的一种基于增强现实的游戏实现方法和装置进行了详细介绍。应理解,本文所述的示例性实施方式应仅被认为是描述性的,用于帮助理解本发明的方法及其核心思想,而并不用于限制本发明。在每个示例性实施方式中对特征或方面的描述通常应被视作适用于其他示例性实施例中的类似特征或方面。尽管参考示例性实施例描述了本发明,但可建议所属领域的技术人员进行各种变化和更改。本发明意图涵盖所附权利要求书的范围内的这些变化和更改。
Claims (10)
1.一种基于增强现实的游戏实现方法,其特征在于,包括:
通过第一摄像装置采集目标用户的图像;
响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;
识别本体用户的体感信息,以生成第一运动轨迹;
将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;
将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面,并显示所述游戏画面。
2.如权利要求1所述的基于增强现实的游戏实现方法,其特征在于,所述方法还包括:
通过第二摄像装置采集本体用户的图像;
获取目标用户的道具效果;
将所述目标用户的道具效果与所述本体用户的图像进行合成,以生成增强现实的补充画面,并与所述游戏画面一同进行显示。
3.如权利要求2所述的基于增强现实的游戏实现方法,其特征在于,在获取目标用户的道具效果之前,所述方法还包括:
响应于目标用户的道具选择指令,从道具数据库中选取第二虚拟道具模型;
识别目标用户的体感信息,以生成对应的第二运动轨迹;
将第二虚拟道具模型按照第二运动轨迹进行移动,以生成目标用户的道具效果。
4.如权利要求1所述的基于增强现实的游戏实现方法,其特征在于,通过第一摄像装置采集目标用户的图像之后,响应于本体用户的道具指令之前,所述方法还包括:
确定所述目标用户的人体模型数据;
根据所述人体模型数据进行三维建模,以生成三维人体模型;
从服饰数据库中获取与所述三维人体模型匹配的虚拟服饰;
将所述虚拟服饰与所述目标用户的图像进行合成,以得到目标用户的复合图像;
所述将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面的步骤,进一步包括:
将所述本体用户的道具效果与所述目标用户的复合图像进行合成,以生成虚拟现实的游戏画面。
5.如权利要求1所述的基于增强现实的游戏实现方法,其特征在于,在通过第一摄像装置采集目标用户的图像之前,所述方法还包括:
对道具模型进行扫描,获取所述道具模型的色彩信息和深度信息;
基于所述道具模型的色彩信息和所述深度信息生成虚拟道具模型,以建立道具数据库。
6.如权利要求1所述的基于增强现实的游戏方法,其特征在于,所述方法还包括:
等待操作令牌;
当获取到所述操作令牌后,识别本体用户的体感信息;
当生成本体用户的道具效果后,释放所述操作令牌。
7.一种基于增强现实的游戏实现装置,其特征在于,包括:
图像获取模块,用于通过第一摄像装置采集目标用户的图像;
选择模块,用于响应于本体用户的道具选择指令,从道具数据库中选取第一虚拟道具模型;
识别模块,用于识别本体用户的体感信息,以生成第一运动轨迹;
效果生成模块,用于将第一虚拟道具模型按照第一运动轨迹进行移动,以生成本体用户的道具效果;
画面合成模块,用于将所述本体用户的道具效果与所述目标用户的图像进行合成,以生成增强现实的游戏画面,并显示所述游戏画面。
8.如权利要求7所述的基于增强现实的游戏实现装置,其特征在于,所述装置还包括:
确定模块,用于在通过第一摄像装置采集目标用户的图像之后,响应于本体用户的道具指令之前,确定所述目标用户的人体模型数据;
建模模块,用于根据所述人体模型数据进行三维建模,以生成三维人体模型;
服饰获取模块,用于从服饰数据库中获取与所述三维人体模型匹配的虚拟服饰;
图像合成模块,用于将所述虚拟服饰与所述目标用户的图像进行合成,以得到目标用户的复合图像;
所述画面合成模块,进一步用于:
将所述本体用户的道具效果与所述目标用户的复合图像进行合成,以生成虚拟现实的游戏画面。
9.如权利要求7所述的基于增强现实的游戏实现装置,其特征在于,所述装置还包括:
扫描模块,用于在通过第一摄像装置采集目标用户的图像之前,对道具模型进行扫描,获取所述道具模型的色彩信息和深度信息;
构建模块,用于基于所述道具模型的色彩信息和所述深度信息生成虚拟道具模型,以建立道具数据库。
10.如权利要求7所述的基于增强现实的游戏实现装置,其特征在于,所述装置还包括:
控制模块,用于等待操作令牌;当获取到所述操作令牌后,控制识别模块识别本体用户的体感信息;当效果生成模块生成本体用户的道具效果后,释放所述操作令牌。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710517673.8A CN109200586A (zh) | 2017-06-29 | 2017-06-29 | 基于增强现实的游戏实现方法和装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710517673.8A CN109200586A (zh) | 2017-06-29 | 2017-06-29 | 基于增强现实的游戏实现方法和装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN109200586A true CN109200586A (zh) | 2019-01-15 |
Family
ID=64976675
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201710517673.8A Pending CN109200586A (zh) | 2017-06-29 | 2017-06-29 | 基于增强现实的游戏实现方法和装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN109200586A (zh) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112102344A (zh) * | 2020-09-11 | 2020-12-18 | 深圳大学 | 一种基于图像处理的手眼协调测试系统及方法 |
| CN115019401A (zh) * | 2022-08-05 | 2022-09-06 | 上海英立视电子有限公司 | 一种基于图像匹配的道具生成方法及系统 |
| CN115657857A (zh) * | 2022-11-11 | 2023-01-31 | 北京字跳网络技术有限公司 | 一种信息处理方法及装置 |
| WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1117074A2 (en) * | 2000-01-13 | 2001-07-18 | Mixed Reality Systems Laboratory Inc. | Augmented reality presentation apparatus and method, and storage medium |
| CN102156810A (zh) * | 2011-03-30 | 2011-08-17 | 北京触角科技有限公司 | 增强现实实时虚拟试衣系统及方法 |
| CN106390457A (zh) * | 2016-10-10 | 2017-02-15 | 南京炫佳网络科技有限公司 | 电视ar游戏系统及显示方法 |
-
2017
- 2017-06-29 CN CN201710517673.8A patent/CN109200586A/zh active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1117074A2 (en) * | 2000-01-13 | 2001-07-18 | Mixed Reality Systems Laboratory Inc. | Augmented reality presentation apparatus and method, and storage medium |
| CN102156810A (zh) * | 2011-03-30 | 2011-08-17 | 北京触角科技有限公司 | 增强现实实时虚拟试衣系统及方法 |
| CN106390457A (zh) * | 2016-10-10 | 2017-02-15 | 南京炫佳网络科技有限公司 | 电视ar游戏系统及显示方法 |
Non-Patent Citations (2)
| Title |
|---|
| CHENG KAI "KARBYP" SIM: "日本初创公司的增强现实游戏Hado可让您在现实生活中投掷火球,旨在作为下一代运动", 《HTTPS://WWW.EVENTHUBS.COM/NEWS/2015/APR/17/》 * |
| ROBERT MCGREGOR: "来自日本的增强现实战斗:HADO", 《HTTPS://M.YOUTUBE.COM/WATCH?V=RGAZCIFBTBG》 * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112102344A (zh) * | 2020-09-11 | 2020-12-18 | 深圳大学 | 一种基于图像处理的手眼协调测试系统及方法 |
| CN112102344B (zh) * | 2020-09-11 | 2023-07-14 | 深圳大学 | 一种基于图像处理的手眼协调测试系统及方法 |
| WO2023030106A1 (zh) * | 2021-08-30 | 2023-03-09 | 北京字跳网络技术有限公司 | 对象显示方法、装置、电子设备及存储介质 |
| US12243143B2 (en) | 2021-08-30 | 2025-03-04 | Beijing Zitiao Network Technology Co., Ltd. | Method, apparatus, electronic device and storage medium for displaying a movement and a preset animation of a target object |
| CN115019401A (zh) * | 2022-08-05 | 2022-09-06 | 上海英立视电子有限公司 | 一种基于图像匹配的道具生成方法及系统 |
| CN115019401B (zh) * | 2022-08-05 | 2022-11-11 | 上海英立视电子有限公司 | 一种基于图像匹配的道具生成方法及系统 |
| CN115657857A (zh) * | 2022-11-11 | 2023-01-31 | 北京字跳网络技术有限公司 | 一种信息处理方法及装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11481943B2 (en) | Information processing apparatus, information processing method, and program | |
| JP6276882B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| CN108717733B (zh) | 虚拟环境的视角切换方法、设备及存储介质 | |
| EP4248413A1 (en) | Multiple device sensor input based avatar | |
| CN110147231A (zh) | 组合特效生成方法、装置及存储介质 | |
| KR101998852B1 (ko) | 증강현실 시스템 및 그 구현방법 | |
| CN111640202B (zh) | 一种ar场景特效生成的方法及装置 | |
| CN111158469A (zh) | 视角切换方法、装置、终端设备及存储介质 | |
| CN109603151A (zh) | 虚拟角色的皮肤显示方法、装置及设备 | |
| CN111640200B (zh) | 一种ar场景特效生成的方法及装置 | |
| WO2017137948A1 (en) | Producing realistic body movement using body images | |
| KR20150103723A (ko) | 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스 | |
| CN109420336A (zh) | 基于增强现实的游戏实现方法和装置 | |
| CN108416832B (zh) | 媒体信息的显示方法、装置和存储介质 | |
| CN106161939A (zh) | 一种照片拍摄方法及终端 | |
| CN111627117B (zh) | 画像展示特效的调整方法、装置、电子设备及存储介质 | |
| US20220355188A1 (en) | Game program, game method, and terminal device | |
| US20190302880A1 (en) | Device for influencing virtual objects of augmented reality | |
| CN109200586A (zh) | 基于增强现实的游戏实现方法和装置 | |
| CN116943191A (zh) | 基于故事场景的人机互动方法、装置、设备及介质 | |
| CN108090968B (zh) | 增强现实ar的实现方法、装置和计算机可读存储介质 | |
| CN114049468A (zh) | 一种展示方法、装置、设备及存储介质 | |
| JP2018089228A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| CN110420464B (zh) | 虚拟宠物形象参数的确定方法、装置及可读存储介质 | |
| CN108537149B (zh) | 图像处理方法、装置、存储介质及电子设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190115 |
|
| RJ01 | Rejection of invention patent application after publication |