CN111353404B - 一种人脸识别方法、装置及设备 - Google Patents
一种人脸识别方法、装置及设备 Download PDFInfo
- Publication number
- CN111353404B CN111353404B CN202010111826.0A CN202010111826A CN111353404B CN 111353404 B CN111353404 B CN 111353404B CN 202010111826 A CN202010111826 A CN 202010111826A CN 111353404 B CN111353404 B CN 111353404B
- Authority
- CN
- China
- Prior art keywords
- face
- eye area
- close
- image information
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例公开了一种人脸识别方法、装置及设备。方案包括:获取待识别的人脸图像信息;对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种人脸识别方法、装置及设备。
背景技术
随着深度学习技术的发展,人脸识别算法也日益成熟并在各个生活领域取得大规模应用,例如安防、支付、认证等。一些线上支付平台根据人脸识别技术拓展了刷脸登陆、刷脸支付和刷脸实名认证等业务场景。在这些业务场景中,人脸识别技术已经成为认证用户身份的主要手段之一,因此,人脸识别的准确率越来越重要。
随着业务的发展与人脸识别影响力的扩大,攻击者也逐渐注意到这个领域并开始尝试使用各种伪造的假人脸(比如手机屏幕显示人脸照片,彩色打印人脸图片,制作3D人脸面具)来冒充活体人脸来骗过人脸识别系统,从而达到窃取用户钱财或者账号信息的目的。而现有的人脸识别系统对于上述假人脸的识别率比较低,不能满足应用需求。
需要提供一种识别准确率更高的人脸识别方案。
发明内容
有鉴于此,本申请实施例提供了一种人脸识别方法、装置及设备,用于提高针对挖眼攻击的人脸识别的准确率。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种人脸识别方法,包括:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
本说明书实施例提供的一种人脸识别装置,包括:
人脸图像信息获取模块,用于获取待识别的人脸图像信息;
眼部区域特写图确定模块,用于对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
第一判断模块,用于基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
人脸检测确定模块,用于当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
本说明书实施例提供的一种人脸识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
本说明书实施例提供的一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过获取待识别的人脸图像信息;对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。上述方案通过对眼部区域特写图进行图像分析,确定人脸图像信息是否只对应同一个实体,来确定是否存在挖眼攻击,从而提高针对挖眼攻击的人脸识别的准确率。
附图说明
此处所说明的附图用来提供对本说明书实施例的进一步理解,构成本说明书实施例的一部分,本说明书实施例的示意性实施例及其说明用于解释本说明书实施例,并不构成对本说明书实施例的不当限定。在附图中:
图1为本说明书实施例提供的一种人脸识别方法的实施例一的流程示意图;
图2a为人脸关键点检测示意图;
图2b为眼部区域特写示意图;
图2c为眼部边缘检测示意图;
图3为本说明书实施例提供的左右眼轮廓对称性检测示意图;
图4为本说明书实施例提供的全局位置对称性检测示意图;
图5为本说明书实施例提供的一种人脸识别方法的实施例二的流程示意图;
图6为本说明书实施例提供的对应于图1的一种人脸识别装置的结构示意图;
图7为本说明书实施例提供的对应于图1的一种人脸识别设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
随着业务的发展与人脸识别影响力的扩大,攻击者也逐渐注意到这个领域并开始尝试使用各种伪造的假人脸(比如手机屏幕显示人脸照片,彩色打印人脸图片,制作3D人脸面具)来冒充活体人脸来骗过人脸识别系统,从而达到窃取用户钱财或者账号信息的目的。
人脸活体识别是使用技术手段识别当前使用扫脸操作的用户是正常的活体自然人,还是假冒当前用户身份的非活体攻击,如照片、高清打印、手机屏幕、面具攻击等。目前较大的人脸识别系统中,都考虑到了这种欺诈风险,并设计和部署了相应的人脸活体检测识别算法来防御假脸的攻击。常见的活体防攻击算法包括交互式的眨眼检测、随机双动作等,以及无交互的炫彩活体和静默活体等,它们分别对常规的攻击比如照片、高清打印、手机屏幕、面具攻击等具有不同的防御能力,一般会根据业务场景的特点选择使用。但是,面具攻击中有一种称为挖眼攻击的高级攻击手段——攻击者将被攻击者的人脸图像打印(纸质打印或者3D打印)成面具,将面具的眼部挖空然后戴在自己头上,从而令自己的眼睛可以露出,然后戴着这种露眼面具来攻击基于人脸识别的刷脸登录或支付系统。
在现有的活体检测方法中:
基于随机动作的活体识别方法是通过系统随机挑选动作(比如眨眼/抬头/低头/摇头/张嘴等等)要求用户现场完成,并使用视觉算法判断用户是否做到,以此来进行活体识别,其随机性能有效提升攻击成本,防止攻击者事前准备。但是,眨眼检测和随机双动作(比如抬头/低头/摇头/张嘴等等)检测,只对静态的攻击方式,如照片、高清打印、手机屏幕、面具攻击等有效,但是不会对眼部进行专门分析,因此无法防范挖眼攻击。而且,张嘴这个动作也可以被黑客利用‘挖眼’类似的方式来‘挖嘴’,从而得以骗过活体识别系统。
基于口型(唇形)识别的活体识别方法通过要求用户现场读一段话,并使用视觉算法判断用户读话时的口型(唇形)是否符合要求,以此来进行活体识别。但是,口型(唇形)识别检测类似于随机双动作中的‘张嘴’动作,因此同样无法防范挖眼攻击,而且可以被攻击者利用‘挖眼’类似的方式来‘挖嘴’,从而得以骗过活体识别系统。
炫彩活体检测算法通过在刷脸时,控制手机屏幕显示特定的彩色光序列并主动投射到目标人脸上,通过人脸区域在不同色差光照下外观变化的区别来识别是否是活体人脸,它是一种主动光投射下的目标物体材质检测算法。但是,炫彩活体有一定几率检测到材质细腻度不高的3D打印面具,但是对高级仿皮肤材质3D打印的面具无效。而且,其主动光目标投射区域是整个人脸,因此对挖眼这种局部细小变化捕捉能力不强。
静默活体检测算法,又可以称为无交互活体检测算法,这种算法只通过用户刷脸时的单张图像或视频来判断是否是活体人脸,整个过程中无用户交互要求。由于其目标区域是整个人脸,因此对挖眼这种局部细小变化捕捉能力不强,无法识别出挖眼攻击。
挖眼检测模型从整个人脸区域中抠出眼部区域,并聚焦在这一区域使用深度学习方法训练二分类模型来识别是否挖眼。缺点包括以下两点:1)因为输入区域往往面积较小,信息不够充足,细节容易丢失;2)深度学习需要很多样本,而挖眼攻击的真实样本很难获取,样本多样性也不高,因此数据驱动发挥不了全部潜力。综合看来,挖眼检测模型的挖眼攻击的识别准确度不是很高。
另外,虹膜是一种变化轻微的生物特征,所以可以运用于生物识别。虹膜识别可以间接防御挖眼攻击,但是虹膜识别存在一定的限制:1)需要特殊的虹膜图像采集摄像头,目前手机等移动终端上都不会配备如此高端的设备;2)需要有一个留底的虹膜图像,才能在识别阶段通过将现场采集的图片与留底图片做比对的方式判断是不是通一个人。但是这个留底图片本身的采集也可能被篡改攻击。因此,虹膜识别无法应用到活体人脸的检测上,即使应用到活体人脸的夹持说过,也存在一定风险。
综上,挖眼攻击可以突破眨眼检测这种专门基于眼部动作检测的防攻击手段,同时如果面具本身仿真程度高,也可以突破静默活体、炫彩活体和脸部随机动作(如点头摇头)的防攻击手段。因此,挖眼攻击的防范难度高,威胁性大,因此亟需一种快速而准确的识别挖眼攻击的方案。
针对上述问题,本说明书实施例提出了一种通过多维度防范人脸挖眼攻击的方法,配合眼部区域分析的方法,来解决挖眼攻击容易突破活体检测的问题。上述方法包括3个方面,具体为:1)眼部区域纹路分析;(2)PS篡改痕迹检测,使用图像的显著性(SaliencyDetection)来检测PS区域;(3)眼睛对称性检测。待识别的人脸图像只要不符合上述任意一项,均表示存在挖眼攻击的风险。
以下结合附图,详细说明本申请各实施例提供的技术方案。
实施例一
图1为本说明书实施例提供的一种人脸识别方法的实施例一的流程示意图。从程序角度而言,流程的执行主体可以为搭载于应用服务器的程序或应用客户端。从设备的角度而言,图1的执行主体可以是任何需要进行人脸识别验证的移动终端。
如图1所示,该流程可以包括以下步骤:
步骤102:获取待识别的人脸图像信息。
为了获取人脸图像信息,可以采用人脸检测算法分析输入的图片内容,判断图片中是否出现人脸,如果人脸出现,则拍摄人脸出现的位置区域的图像。
为了获得清晰的人脸图像信息,可以限定人脸图像的采集终端与人脸的距离不大于设定距离,例如10cm。
步骤104:对所述人脸图像信息进行关键点检测,并截取眼部区域特写图。
对人脸进行关键点检测可以理解为使用视觉算法标定出人脸上的关键位置点,如眼睛眼球位置,鼻尖位置和嘴角位置等。
然后,以眼睛眼球位置为基准,获取眼部区域特写图。眼部区域特写图可以理解为主要以眼部为特征的图像,且眼部图像的细节比较清晰。为了获得符合标准的图像,可以获取多张待识别人脸的图像,从中筛选出符合要求的图像,还可以专门拍摄一张眼部特征的图像。
步骤106:基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果。
由于挖眼攻击是攻击者佩戴他人的面具,但是眼睛部位是自己的,由于眼睛和其他部分属于不同的实体,那么在配合的时候就会有一些不匹配的状况出现。例如,攻击者的眼睛在整个面具人脸的比例存在异常,攻击者的眼部纹路与面具上的眼部纹路不匹配,或者由于佩戴不合理导致的大小眼问题等等。上述问题可以通过预设算法对眼部区域特写图进行分析来确定,如果出现上述问题,就说明眼睛和人脸其他部位属于两个不同的实体。
步骤108:当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
当第一判断结果表示所述人脸图像信息可能对应多个实体时,就说明可能存在挖眼攻击的风险,因此,人脸图像信息不能通过验证,此时可以在移动终端的界面上提示“人脸信息未通过验证”的信息,或者还可以采取一些其他防控措施,如锁定对应的账户,等等。
图1中的方法,通过获取待识别的人脸图像信息;对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。上述方法通过对眼部区域特写图进行图像分析,确定人脸图像信息是否对应同一个实体,来确定是否存在挖眼攻击,从而提高针对挖眼攻击的人脸识别的准确率。
基于图1的方法,本说明书实施例还提供了该方法的一些具体实施方式,下面进行说明。
由于高度仿真的3D打印面具的材质是固体,因此无法对其形状进行改变,那么面具佩戴者的皮肤与面具不可能做到完全贴合,这样就会导致面具上挖空的眼洞附近和面具佩戴者的皮肤不在一个平面上,那么,挖眼区域就会因为攻击者自己的人眼与面具上的空洞叠加后出现环绕纹路过多的现象。因此,基于这种情况拍摄得到的眼部区域特写图中的眼部纹路就会比正常人的眼部纹路多。本说明书实施例基于这一现象提出了一种环眼纹路分析算法,来确定眼部纹路是否增多,从而判断是否存在挖眼攻击。
基于上述分析,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体可以包括:
对所述眼部区域特写图进行边缘检测,得到眼部边缘检测图;
在所述眼部边缘检测图上,以人眼瞳孔上的关键点为中心向四周进行设定长度的采样,计算边缘像素点的总数量;
判断所述边缘像素点的总数量是否超过预设数量。
如图3所示,环眼纹路分析算法,分以下几个步骤:
a)先进行人脸关键点检测(如图2a所示),并扣取出眼部区域特写图(如图2b所示)。
b)对眼部区域特写图进行边缘检测,得到眼部边缘检测图。眼部边缘检测图可以理解为眼部纹路图,如图2c所示。
c)以人眼瞳孔上的关键点为中心,在边缘检测结果图上向四周8个方向(上、下、左、右、左上、右上、左下、右下)进行预设长度的采样,然后计算各个方向上遇到的边缘像素点个数。其中,预设长度可以为20个像素距离,也可以根据实际情况进行设定。
d)统计上述8个方向的边缘像素点的总数量,判断是否超过预设数量,如果超过,则判断存在挖眼攻击;否则判断不存在挖眼攻击。需要说明的是,此处的预设数量与预设长度有一定的内在联系,其中,预设长度越长,预设数量越大。
另外,因为3D面具制作不佳或者攻击者佩戴面具不熟练的原因,在一些情况下也可以出现攻击者面具佩戴不当的情况,其中一个现象就是眼睛区域会出现比较奇怪的变形,导致左右眼不对称。基于此现象,本说明书实施例还提供了左右眼对称性检测来识别挖眼攻击。
左右眼对称性检测算法从两个方面进行对称性检测:眼睛区域与整个人脸的协同性,即全局位置对称性,以及左右眼的眼部轮廓对称性两个方面来检查是否存在由于佩戴挖眼面具带来的变形,如图3所示。
一、眼部轮廓对称性检测:对左右眼的眼底区域(眼底区域可以理解为瞳孔和眼白区域,不包括眼睛外围皮肤)进行图像分割,分别得到左右眼的眼底区域,正常情况下,这两个眼底区域从形状上要求对称。具体操作步骤可以是将左眼底区域进行翻转后,和右眼底区域一起作为输入,然后使用基于形状的匹配算法来进行比较,判断是否对称。
基于上述原理,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体可以包括:
对所述眼部区域特写图中的眼底区域进行图像分割,分别得到左眼区域和右眼区域;
判断所述左眼区域和所述右眼区域的轮廓是否对称。
其中,需要说明的是,造成左眼和右眼的轮廓不一致的原因可以包括:对面具的佩戴不合理,佩戴偏左或者偏右,这样就导致左眼和右眼在面具的挖洞区域显露的面积不一样,左眼或者右眼的部分会有一些遮挡,这样就会造成左眼和右眼的轮廓不一致。那么基于眼部轮廓对称性检测就可以确定左眼区域和右眼区域的轮廓不一致,因此,可以判断存在挖眼攻击的风险。
基于形状的匹配算法通常包括以下几个环节:首先,用一定的方法对待匹配的目标对象进行描述,提取出相应的特征信息,然后找出特征信息之间的对应关系,进而用对应关系找到一组变换,使得目标图像与匹配图像的形状进行相互转换。
其中,特征信息基于轮廓的描述方法可以包括以下几种:边界描述法、形状上下文描述法、傅里叶描述子、小波描述子和曲率尺度空间。
以形状上下文描述法为例,其匹配算法采用形状上下文算法,该算法统计两个点集中每一个点的上下文信息,并且对比两个点集中每个点之间的上下文信息是否近似,得到一个最近似的一组排列,即可找到第一个点集的每一个点对应第二个点集的点。
形状上下文算法可以分为三步:
1)计算左眼区域和右眼区域两个点集中的每个点的上下文信息。
2)计算两点集每两个点之间的cost值,即开销值。
3)使用匈牙利算法统计出总体cost值最低的一组点集对应关系。
形状上下文算法有很大的优点,能够很大限度的在点集匹配的过程中使用点的上下文信息,这是对对应点的查找非常有帮助的信息。并且它对非刚性匹配具有很好的鲁棒性。它不考虑点集的坐标位置,不是坐标相关的匹配算法。
二、全局位置对称性检测:通过关键点检测可以计算出双眼瞳孔上的关键点连线方向,两个嘴角上的关键点的连线方向,以及鼻梁的方向,详见图4。全局位置对称性检测要求瞳孔连线方向与嘴角连线方向要平行,而瞳孔连线方向与鼻梁方向要垂直。
基于上述标准,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体可以包括:
计算双眼瞳孔上的关键点连线的第一方向、两个嘴角上的关键点连线的第二方向和鼻梁所在的第三方向;
判断是否所述第一方向与所述第二方向平行,所述第一方向与所述第三方向垂直同时成立。
需要注意的是,这里的平行和垂直都不是按照数学上的严格定义来确定的,只要第一方向与第二方向之间的角度在预设范围之内就可以,同理,需要保证第一方向与第三方向之间的角度与90度的差值在预设范围之内就可以。
另外,由于攻击者自己的人眼与面具上的空洞叠加后会破坏此区域外观一致性的现象,“在面具上挖出人眼空洞后,再替换上攻击者的人眼”这一做法,对面具整体而言其实是一种篡改,因此,可以采用一些检测篡改的算法来检测挖眼攻击,具体可以采用以下方法:
基于图像一致性算法计算所述眼部区域特写图的一致性数值;
判断所述一致性数值是否超过第一预设阈值。
在这里,图像一致性算法可以理解为眼部区域特写图中的各个元素之间的互相匹配程度,可以根据专业算法提取所述眼部区域特写图的特征信息,然后根据上下文联系计算各个特征信息之间的匹配关系,并用数据表示出来,得到一致性数值。当一致性数据超过预设阈值时,就可以确定图像没有被篡改,也就是说不存在挖眼攻击,如果一致性数值没有超过预设阈值,就说明图像可能发生了篡改,有可能存在挖眼攻击。
可选的,所述基于图像一致性算法计算所述眼部区域特写图的一致性数值,具体可以包括:
确定所述眼部区域特写图的主特征和局部特征;
计算所述主特征与所述局部特征的差值;
判断所述差值是否超过第二预设阈值。
在看到篡改图像时,人的分辨过程如下:
(1)寻找这幅图像主特征。
(2)发现和主特征不一致的局部特征,就可能是异常特征。
基于上述分析,可以先确定眼部区域特写图的主特征和局部特征,具体计算方法可以根据自行设置,然后设定衡量主特征和局部特征的差异的算法。例如,可以以图像的均值来作为眼部区域特写图的主特征。
当然,还可以将眼部区域特写图输入到一个检测篡改痕迹的深度神经网络模型中,然后根据输出结果确定该眼部区域特写图是否被篡改。
实施例二
图5为本说明书实施例提供的一种人脸识别方法的实施例二的流程示意图。如图5所示,所述方法可以包括以下步骤:
步骤502:正常距离拍摄人脸图。
步骤504:近距离拍摄眼部图片。移动终端会专门提示用户在刷完脸后,将手机拿到人眼前约10cm的地方,并拍摄一张近距离的眼部图片。这么做的目的是为了捕捉到更多眼部的细节,供算法进行处理。
步骤506:环眼纹路分析:针对挖眼区域因为攻击者自己的人眼与面具上的空洞叠加后会出现环绕纹路过多的现象,专门设计了纹路分析算法处理识别,从深度域对挖眼攻击进行分析识别。先做边缘检测,然后分析从眼中心到周边区域的波折度。
步骤508:眼周一致性检测:针对挖眼区域因为攻击者自己的人眼与面具上的空洞叠加后会破坏此区域外观一致性的现象,提出使用眼周一致性检测算法来进行鉴别,从值域对挖眼攻击进行分析识别。具体的,眼周一致性检测可以通过图像的显著性(SaliencyDetection)算法来实现。
步骤510:左右眼对称性检测:观察到可能因为面具制作不佳或者攻击者佩戴面具不熟练的原因,在一些情况下也可以观察到攻击者面具佩戴不当的情况。其中一个现象就是眼睛区域会出现比较奇怪的变形,导致左右眼不对称。基于此特点可以设计专门的眼睛对称性检测算法来鉴别,从几何学角度对挖眼攻击进行分析识别。
步骤512:结果融合:这里采用的融合策略是“取或”的逻辑,即步骤508、步骤508和步骤510中,只要有其中一个环节认为是挖眼攻击,即总体上认为是挖眼攻击。
上述实施例提出了一种多维度防御挖眼攻击的方法,分别采用不同算法从值域、深度域与几何域3个维度对挖眼攻击进行了分析识别,并将识别结果进行融合。此处提出的所有算法,均对挖眼攻击真实样本的数量不做要求,是很好的对挖眼攻击进行冷启动防御的方法。如果和现有的基于样本驱动的深度学习算法结合起来使用,会形成效果特别好的“冷启动+数据回流+算法效果提升”的业务迭代闭环(即初期使用本方案方法,上线后通过数据回流为样本驱动的深度学习算法累积样本,逐步提升其效果)。
上述实施例均是在检测人脸图像是否存在挖眼攻击,本说明书实施例还提供了一种人脸识别方法,除了能够识别挖眼攻击,还可以完成其他活体检测。
在本说明书的一个或者多个实施例中,在所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体之前,所述方法还可以包括:
获取基于提示信息采集的动作视频信息;
当所述第一判断结果为是时,判断所述动作视频信息是否符合所述提示信息对应的预设标准,若是,确定所述人脸图像信息对应的人脸通过检测。
在判断人脸图像信息只对应一个实体后,可以排除挖眼攻击,然后再根据动作视频信息判断是否为活体,以确定刷脸用户是正常的活体自然人,还是假冒当前用户身份的非活体攻击(如照片、高清打印、手机屏幕、面具攻击等)。
活体人脸识别,可以采用基于随机动作的活体识别,随机挑选动作(比如眨眼/抬头/低头/摇头/张嘴等等)要求用户现场完成,并使用视觉算法判断用户是否做到。以此来进行活体识别,其随机性能有效提升攻击成本,防止攻击者事前准备。
活体人脸识别还可以采用口型(唇形)识别,如要求用户现场读一段话,并使用视觉算法判断用户读话时的口型(唇形)是否符合要求,以此来进行活体识别。
上述步骤可以确定使用扫脸操作的为单个活体自然人。
在所述获取待识别的人脸图像信息之后,所述方法还可以包括:
调取账户信息对应的预设人脸图像信息;
判断所述人脸图像信息与所述预设人脸图像信息是否一致,得到第二判断结果;
当所述第一判断结果和所述第二判断结果均为是时,确定所述人脸图像信息对应的人脸通过检测。
通过将拍摄的人脸图像信息与预设人脸图像信息进行对比,如果一致,就说明该人脸图像信息是所述账户信息对应的使用用户。
同理,上述实施例还可以采用活体人脸识别来确定刷脸用户是正常的活体自然人,还是假冒当前用户身份的非活体攻击,如果排除了非活体攻击,就可以确定采用刷脸识别的用户为账户信息的合法使用者。
基于同样的思路,本说明书实施例还提供了上述方法对应的装置。图6为本说明书实施例提供的对应于图1的一种人脸识别装置的结构示意图。如图6所示,该装置可以包括:
人脸图像信息获取模块601,用于获取待识别的人脸图像信息;
眼部区域特写图确定模块602,用于对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
第一判断模块603,用于基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
人脸检测确定模块604,用于当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
图6的装置,通过获取待识别的人脸图像信息;对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。上述装置通过对眼部区域特写图进行图像分析,确定人脸图像信息是否对应同一个实体,来确定是否存在挖眼攻击,从而提高针对挖眼攻击的人脸识别的准确率。
可选的,所述第一判断模块603,具体可以包括:
眼部边缘检测图确定单元,用于对所述眼部区域特写图进行边缘检测,得到眼部边缘检测图;
边缘像素点的总数量计算单元,用于在所述眼部边缘检测图上,以人眼瞳孔上的关键点为中心向四周进行设定长度的采样,计算边缘像素点的总数量;
第一判断单元,用于判断所述边缘像素点的总数量是否超过预设数量。
可选的,所述第一判断模块603,具体可以包括:
图像分割单元,用于对所述眼部区域特写图中的眼底区域进行图像分割,分别得到左眼区域和右眼区域;
第二判断单元,用于判断所述左眼区域和所述右眼区域的轮廓是否对称。
可选的,所述第一判断模块603,具体可以包括:
方向计算单元,用于计算双眼瞳孔上的关键点连线的第一方向、两个嘴角上的关键点连线的第二方向和鼻梁所在的第三方向;
第三判断单元,用于判断是否所述第一方向与所述第二方向平行,所述第一方向与所述第三方向垂直同时成立。
可选的,所述第一判断模块603,具体可以包括:
一致性数值确定单元,用于基于图像一致性算法计算所述眼部区域特写图的一致性数值;
第四判断单元,用于判断所述一致性数值是否超过第一预设阈值。
可选的,所述一致性数值确定单元,具体可以包括:
主特征和局部特征确定子单元,用于确定所述眼部区域特写图的主特征和局部特征;
差值计算子单元,用于计算所述主特征与所述局部特征的差值;
判断子单元,用于判断所述差值是否超过第二预设阈值。
可选的,所述装置还可以包括:
动作视频信息获取模块,用于获取基于提示信息采集的动作视频信息;
第一确定模块,用于当所述第一判断结果为是时,判断所述动作视频信息是否符合所述提示信息对应的预设标准,若是,确定所述人脸图像信息对应的人脸通过检测。
可选的,所述装置还可以包括:
预设人脸图像信息调取模块,用于调取账户信息对应的预设人脸图像信息;
第二判断模块,用于判断所述人脸图像信息与所述预设人脸图像信息是否一致,得到第二判断结果;
第二确定模块,用于当所述第一判断结果和所述第二判断结果均为是时,确定所述人脸图像信息对应的人脸通过检测。
基于同样的思路,本说明书实施例还提供了上述方法对应的设备。
图7为本说明书实施例提供的对应于图1的一种人脸识别设备的结构示意图。如图7所示,设备700可以包括:
至少一个处理器710;以及,
与所述至少一个处理器通信连接的存储器730;其中,
所述存储器730存储有可被所述至少一个处理器710执行的指令720,所述指令被所述至少一个处理器710执行,以使所述至少一个处理器710能够:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
基于同样的思路,本说明书实施例还提供了一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种人脸识别方法,包括:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
所述基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,具体包括:
确定所述眼部区域特写图的主特征和局部特征;所述主特征为所述眼部区域特写图的均值;
计算所述主特征与所述局部特征的差值;
判断所述差值是否超过第二预设阈值;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
2.如权利要求1所述的方法,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体包括:
对所述眼部区域特写图进行边缘检测,得到眼部边缘检测图;
在所述眼部边缘检测图上,以人眼瞳孔上的关键点为中心向四周进行设定长度的采样,计算边缘像素点的总数量;
判断所述边缘像素点的总数量是否超过预设数量。
3.如权利要求1所述的方法,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体包括:
对所述眼部区域特写图中的眼底区域进行图像分割,分别得到左眼区域和右眼区域;
判断所述左眼区域和所述右眼区域的轮廓是否对称。
4.如权利要求1所述的方法,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体包括:
计算双眼瞳孔上的关键点连线的第一方向、两个嘴角上的关键点连线的第二方向和鼻梁所在的第三方向;
判断是否所述第一方向与所述第二方向平行,所述第一方向与所述第三方向垂直同时成立。
5.如权利要求1所述的方法,所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体,具体包括:
基于图像一致性算法计算所述眼部区域特写图的一致性数值;
判断所述一致性数值是否超过第一预设阈值。
6.如权利要求1所述的方法,在所述基于所述眼部区域特写图判断所述人脸图像信息是否只对应同一个实体之前,所述方法还包括:
获取基于提示信息采集的动作视频信息;
当所述第一判断结果为是时,判断所述动作视频信息是否符合所述提示信息对应的预设标准,若是,确定所述人脸图像信息对应的人脸通过检测。
7.如权利要求6所述的方法,在所述获取待识别的人脸图像信息之后,所述方法还包括:
调取账户信息对应的预设人脸图像信息;
判断所述人脸图像信息与所述预设人脸图像信息是否一致,得到第二判断结果;
当所述第一判断结果和所述第二判断结果均为是时,确定所述人脸图像信息对应的人脸通过检测。
8.一种人脸识别装置,包括:
人脸图像信息获取模块,用于获取待识别的人脸图像信息;
眼部区域特写图确定模块,用于对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
第一判断模块,用于基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
所述基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,具体包括:
确定所述眼部区域特写图的主特征和局部特征;所述主特征为所述眼部区域特写图的均值;
计算所述主特征与所述局部特征的差值;
判断所述差值是否超过第二预设阈值;
人脸检测确定模块,用于当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
9.如权利要求8所述的装置,所述第一判断模块,具体包括:
眼部边缘检测图确定单元,用于对所述眼部区域特写图进行边缘检测,得到眼部边缘检测图;
边缘像素点的总数量计算单元,用于在所述眼部边缘检测图上,以人眼瞳孔上的关键点为中心向四周进行设定长度的采样,计算边缘像素点的总数量;
第一判断单元,用于判断所述边缘像素点的总数量是否超过预设数量。
10.如权利要求8所述的装置,所述第一判断模块,具体包括:
图像分割单元,用于对所述眼部区域特写图中的眼底区域进行图像分割,分别得到左眼区域和右眼区域;
第二判断单元,用于判断所述左眼区域和所述右眼区域的轮廓是否对称。
11.如权利要求8所述的装置,所述第一判断模块,具体包括:
方向计算单元,用于计算双眼瞳孔上的关键点连线的第一方向、两个嘴角上的关键点连线的第二方向和鼻梁所在的第三方向;
第三判断单元,用于判断是否所述第一方向与所述第二方向平行,所述第一方向与所述第三方向垂直同时成立。
12.如权利要求8所述的装置,所述第一判断模块,具体包括:
一致性数值确定单元,用于基于图像一致性算法计算所述眼部区域特写图的一致性数值;
第四判断单元,用于判断所述一致性数值是否超过第一预设阈值。
13.一种人脸识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待识别的人脸图像信息;
对所述人脸图像信息进行关键点检测,并截取眼部区域特写图;
基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,得到第一判断结果;
所述基于所述眼部区域特写图确定出的眼睛与人脸其他部分的匹配状况判断所述人脸图像信息是否只对应同一个实体,具体包括:
确定所述眼部区域特写图的主特征和局部特征;所述主特征为所述眼部区域特写图的均值;
计算所述主特征与所述局部特征的差值;
判断所述差值是否超过第二预设阈值;
当所述第一判断结果为否时,确定所述人脸图像信息对应的人脸未通过检测。
14.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现权利要求1至7中任一项所述的人脸识别方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010111826.0A CN111353404B (zh) | 2020-02-24 | 2020-02-24 | 一种人脸识别方法、装置及设备 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010111826.0A CN111353404B (zh) | 2020-02-24 | 2020-02-24 | 一种人脸识别方法、装置及设备 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111353404A CN111353404A (zh) | 2020-06-30 |
| CN111353404B true CN111353404B (zh) | 2023-12-01 |
Family
ID=71192361
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010111826.0A Active CN111353404B (zh) | 2020-02-24 | 2020-02-24 | 一种人脸识别方法、装置及设备 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111353404B (zh) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112199299B (zh) * | 2020-07-13 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 一种生物识别设备的测试方法、装置、设备及系统 |
| CN112200120B (zh) * | 2020-10-23 | 2023-06-30 | 支付宝(杭州)信息技术有限公司 | 一种身份识别方法、活体识别方法、装置及电子设备 |
| CN112906571B (zh) * | 2021-02-20 | 2023-09-05 | 成都新希望金融信息有限公司 | 活体识别方法、装置及电子设备 |
| JP7473078B2 (ja) | 2021-03-30 | 2024-04-23 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
| CN113627233B (zh) * | 2021-06-17 | 2024-08-13 | 中国科学院自动化研究所 | 基于视觉语义信息的人脸伪造检测方法和装置 |
| CN113486847A (zh) * | 2021-07-27 | 2021-10-08 | 中国银行股份有限公司 | 基于眼球追踪的活体检测方法及装置 |
| CN114550274A (zh) * | 2022-03-16 | 2022-05-27 | 北京人人云图信息技术有限公司 | 一种基于面具人脸检测的人脸欺诈识别方法 |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000163592A (ja) * | 1998-11-26 | 2000-06-16 | Victor Co Of Japan Ltd | 顔画像認識方法 |
| US8254647B1 (en) * | 2012-04-16 | 2012-08-28 | Google Inc. | Facial image quality assessment |
| CN104504717A (zh) * | 2014-12-31 | 2015-04-08 | 北京奇艺世纪科技有限公司 | 一种图像信息检测方法及装置 |
| CN107871103A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸认证方法和装置 |
| WO2019033572A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
| CN109543635A (zh) * | 2018-11-29 | 2019-03-29 | 北京旷视科技有限公司 | 活体检测方法、装置、系统、解锁方法、终端及存储介质 |
| CN109583348A (zh) * | 2018-11-22 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 一种人脸识别方法、装置、设备及系统 |
| CN109784302A (zh) * | 2019-01-28 | 2019-05-21 | 深圳风豹互联网科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
| CN110472582A (zh) * | 2019-08-16 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 基于眼部识别的3d人脸识别方法、装置和终端 |
| CN110728215A (zh) * | 2019-09-26 | 2020-01-24 | 杭州艾芯智能科技有限公司 | 基于红外图像的人脸活体检测方法、装置 |
-
2020
- 2020-02-24 CN CN202010111826.0A patent/CN111353404B/zh active Active
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000163592A (ja) * | 1998-11-26 | 2000-06-16 | Victor Co Of Japan Ltd | 顔画像認識方法 |
| US8254647B1 (en) * | 2012-04-16 | 2012-08-28 | Google Inc. | Facial image quality assessment |
| CN104504717A (zh) * | 2014-12-31 | 2015-04-08 | 北京奇艺世纪科技有限公司 | 一种图像信息检测方法及装置 |
| CN107871103A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 一种人脸认证方法和装置 |
| WO2019033572A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
| CN109583348A (zh) * | 2018-11-22 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 一种人脸识别方法、装置、设备及系统 |
| CN109543635A (zh) * | 2018-11-29 | 2019-03-29 | 北京旷视科技有限公司 | 活体检测方法、装置、系统、解锁方法、终端及存储介质 |
| CN109784302A (zh) * | 2019-01-28 | 2019-05-21 | 深圳风豹互联网科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
| CN110472582A (zh) * | 2019-08-16 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 基于眼部识别的3d人脸识别方法、装置和终端 |
| CN110728215A (zh) * | 2019-09-26 | 2020-01-24 | 杭州艾芯智能科技有限公司 | 基于红外图像的人脸活体检测方法、装置 |
Non-Patent Citations (5)
| Title |
|---|
| G.Hemalatha.A Study of Techniques for Facial Detection and Expression Classification.《International Journal of Computer Science & Engineering Survey》.2014,第5卷(第2期),第27-37页. * |
| 伍杰华 等.一种基于灰度图像的人脸检测及眼睛定位算法.《计算机与数字工程》.2009,第37卷(第01期),第118-120页. * |
| 刁琦 等.Gabor小波变换与图像分块的人脸识别算法研究.《信息技术》.2016,第2016年卷(第12期),第36-38+43页. * |
| 陈忠 等.列车司机疲劳驾驶监测中的人脸定位方法研究.《铁道科学与工程学报》.2019,第16卷(第12期),第3134-3142页. * |
| 高健豪 等.一种带遮挡的人脸特征快速提取算法.《信息技术与信息化》.2019,第2019年卷(第12期),第104-107页. * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111353404A (zh) | 2020-06-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111353404B (zh) | 一种人脸识别方法、装置及设备 | |
| Xu et al. | Virtual u: Defeating face liveness detection by building virtual models from your public photos | |
| JP6878572B2 (ja) | 顔認識に基づいた認証 | |
| ES2983650T3 (es) | Autenticar una identidad de una persona | |
| CN105117695B (zh) | 活体检测设备和活体检测方法 | |
| TWI687832B (zh) | 生物識別系統及用於生物識別之電腦實施方法 | |
| KR101356358B1 (ko) | 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법 | |
| Hadid | Face biometrics under spoofing attacks: Vulnerabilities, countermeasures, open issues, and research directions | |
| KR101309889B1 (ko) | 바이오메트릭 인증을 위한 텍스처 특징 | |
| US9058519B2 (en) | System and method for passive live person verification using real-time eye reflection | |
| WO2016084072A1 (en) | Anti-spoofing system and methods useful in conjunction therewith | |
| KR20140001163A (ko) | 얼굴 인식 기술 | |
| CN111860394A (zh) | 一种基于姿态估计和动作检测的动作活体识别方法 | |
| CN107844742B (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
| CN113614731A (zh) | 使用软生物特征的认证验证 | |
| CN106339676A (zh) | 一种人脸认证及人脸识别方法 | |
| CN107992845A (zh) | 一种面部识别辨伪方法及装置、计算机设备 | |
| KR102643277B1 (ko) | 얼굴인식을 이용한 비밀번호 입력 방법 및 시스템 | |
| CN115359539A (zh) | 办公场所信息安全检测方法、装置、设备和存储介质 | |
| Suhr et al. | Recognizability assessment of facial images for automated teller machine applications | |
| Ortega et al. | Dynamic facial presentation attack detection for automated border control systems | |
| CN111259757B (zh) | 一种基于图像的活体识别方法、装置及设备 | |
| CN111723636B (zh) | 利用视动反应的欺骗检测 | |
| US11507646B1 (en) | User authentication using video analysis | |
| Narkar et al. | Swap It Like Its Hot: Segmentation-based spoof attacks on eye-tracking images |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant | ||
| TR01 | Transfer of patent right |
Effective date of registration: 20241113 Address after: 128 Meizhi Road, Singapore, Guohao Times City # 20-01189773 Patentee after: Ant Shield Co.,Ltd. Country or region after: Singapore Address before: 45-01 Anson Building, 8 Shanton Avenue, Singapore 068811 Patentee before: Alipay laboratories (Singapore) Ltd. Country or region before: Singapore |
|
| TR01 | Transfer of patent right |