HK1221795B - 身份认证方法、装置、终端及服务器 - Google Patents
身份认证方法、装置、终端及服务器 Download PDFInfo
- Publication number
- HK1221795B HK1221795B HK16109898.6A HK16109898A HK1221795B HK 1221795 B HK1221795 B HK 1221795B HK 16109898 A HK16109898 A HK 16109898A HK 1221795 B HK1221795 B HK 1221795B
- Authority
- HK
- Hong Kong
- Prior art keywords
- information
- user
- facial
- prompt
- voice
- Prior art date
Links
Description
技术领域
本申请涉及通信技术领域,尤其涉及身份认证方法、装置、终端及服务器。
背景技术
随着智能终端的发展和网络应用的开发,用户通过终端上安装的各种应用客户端可以对各种网络应用进行访问,例如,社交类即时通信应用,购物类应用等。在访问过程中,往往需要对用户进行身份认证,以便在身份认证通过后,允许用户使用各种应用功能。
现有技术中,在进行身份认证时,往往需要用户在认证界面输入认证密码,服务器验证输入的认证密码与用户注册时的认证密码一致时,确认用户通过身份认证。但是,认证密码往往是数字和字母的简单组合,容易被恶意第三方窃取。因此,现有身份认证方式的可靠性较差,容易造成用户信息被盗取,导致认证的安全性不高。
发明内容
本申请提供身份认证方法、装置、终端及服务器,以解决现有技术中身份认证方式可靠性较差且安全性不高的问题。
根据本申请实施例的第一方面,提供一种身份认证方法,所述方法包括:
在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;
通过识别所述用户呈现的人脸姿态,获得所述人脸动态认证提示信息的姿态识别信息;
将所述姿态识别信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
根据本申请实施例的第二方面,提供一种身份认证方法,所述方法包括:
在用户进行身份认证时,向终端发送人脸动态认证提示信息;
接收所述终端发送的姿态识别信息,所述姿态识别信息为所述终端通过识别所述用户根据所述人脸动态认证提示信息呈现的人脸姿态,获得的姿态识别信息;
当验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
根据本申请实施例的第三方面,提供一种身份认证装置,所述装置包括:
接收单元,用于在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;
识别单元,用于通过识别所述用户呈现的人脸姿态,获得所述人脸动态认证提示信息的姿态识别信息;
发送单元,用于将所述姿态识别信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
根据本申请实施例的第四方面,提供一种身份认证装置,所述装置包括:
发送单元,用于在用户进行身份认证时,向终端发送人脸动态认证提示信息;
接收单元,用于接收所述终端发送的姿态识别信息,所述姿态识别信息为所述终端通过识别所述用户根据所述人脸动态认证提示信息呈现的人脸姿态,获得的姿态识别信息;
确定单元,用于当验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
根据本申请实施例的第五方面,提供一种终端,包括:
处理器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为:
在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;
通过识别所述用户呈现的人脸姿态,获得所述人脸动态认证提示信息的姿态识别信息;
将所述姿态识别信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
根据本申请实施例的第六方面,提供一种服务器,包括:
处理器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为:
在用户进行身份认证时,向终端发送人脸动态认证提示信息;
接收所述终端发送的姿态识别信息,所述姿态识别信息为所述终端通过识别所述用户根据所述人脸动态认证提示信息呈现的人脸姿态,获得的姿态识别信息;
当验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
本申请实施例中在对用户进行身份认证时,服务器向终端发送动态认证提示信息,终端通过识别用户呈现的人脸姿态,获得人脸动态认证提示信息的姿态识别信息,并发送至服务器,服务器在验证姿态识别信息与人脸动态认证提示信息一致时,确定用户通过身份认证。应用本申请实施例,通过人脸动态认证方式可以对用户身份进行高安全性认证,相较于现有采用认证密码进行认证的方式,认证信息不会被恶意第三方窃取,提高了认证的可靠性,并且通过人脸动态认证可以识别用户为活体用户,从而进一步提高身份认证的准确性,降低认证过程中存在的安全隐患。
附图说明
图1为本申请实施例的身份认证场景示意图;
图2A为本申请身份认证方法的一个实施例流程图;
图2B为本申请身份认证方法的另一个实施例流程图;
图3A为本申请身份认证方法的另一个实施例流程图;
图3B为本申请实施例中人脸认证过程中的人头姿态示意图;
图4A为本申请身份认证方法的另一个实施例流程图;
图4B和图4C为本申请实施例中面部关键点示意图;
图5为本申请身份认证装置所在设备的一种硬件结构图;
图6为本申请身份认证装置的一个实施例框图;
图7为本申请身份认证装置的另一个实施例框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
在基于互联网通信的场景中,用户可以通过所持终端上安装的各种应用客户端实现对各种网络应用的访问,在访问过程中,用户往往需要进行身份认证,但是现有技术中通常采用认证密码对用户身份进行认证,认证密码通常是数字和字母的简单组合,容易被恶意第三方窃取,因此现有身份认证方式可靠性较差,安全性不高。基于此,参见图1,为本申请实施例实现身份认证的应用场景示意图:用户通过所持终端与服务器之间交互,完成对用户的身份认证,终端与服务器之间的通信可以基于网络完成,该网络包括各种无线网络或有线网络,对此本申请实施例不进行限制。其中,终端可以具体为手机、平板电脑、个人计算机等。在图1示出的应用场景中,服务器上可以设置两个数据库,分别为人脸特征信息数据库和人脸动态认证提示信息数据库。
在人脸注册阶段,终端可以获取注册用户的人脸特征信息并发送至服务器,由服务器将该注册用户的人脸特征信息保存至人脸特征信息数据库。在身份认证阶段,可以首先进行人脸认证,此时用户将获取的人脸特征信息发送至服务器,服务器验证该人脸特征信息与人脸特征信息数据中保存的该用户的人脸特征信息匹配时,可以初步确定当前进行身份认证的为用户本人;然后进行人脸动态认证,此时服务器可以向用户返回从人脸动态认证提示信息数据库中获取的人脸动态认证提示信息,在终端识别用户呈现的人脸姿态从而获得该人脸动态认证提示信息的姿态识别信息并发送至服务器,服务器验证该姿态识别信息与人脸动态认证提示信息一致时,可知当前认证用户为活体用户,从而最终确定用户通过身份认证。为了描述方便,本申请实施例中可以将人脸注册阶段获取的用户的人脸特征信息称为第二人脸特征信息,将人脸认证阶段获取的用户的人脸特征信息称为第一人脸特征信息。下面对本申请实施例进行详细说明。
参见图2A,为本申请身份认证方法的一个实施例的流程图,该实施例从实现身份认证的终端侧进行描述:
步骤201:在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息。
本申请实施例中,服务器可以从人脸动态认证提示信息数据中随机提取人脸动态认证提示信息返回给终端,该人脸动态认证提示信息可以包括至少一种下述信息:表情动作提示信息,例如,闭眼、张嘴、转头等;语音读取提示信息,例如,支付20元等。
可选的,在接收服务器发送的人脸动态认证提示信息之前,终端可以先获取用户的人脸特征信息,将该身份认证时获取的人脸特征信息作为用户的第一人脸信息,向服务器发送用户的第一人脸特征信息后,服务器在验证该第一人脸特征信息与已保存的所述的第二人脸特征信息匹配时向终端发送该人脸动态认证提示信息。
其中,在获取用户的人脸特征信息时,终端可以启动其上集成的摄像设备,例如摄像头,对用户的人脸进行检测,在检测到人脸时,对用户进行人脸跟踪,在人脸跟踪过程中按照预设时间间隔获取人脸图像,对于获取的每个人脸图像,判断该人脸图像是否满足预设的特征提取条件,若满足特征提取条件,则从该人脸图像中提取该用户的人脸特征信息。
其中,服务器接收到用户的第一人脸特征信息后,可以根据该用户的用户名查找人脸特征信息数据库,获得与该用户名对应的第二人脸特征信息,然后采用预设的比较方式比较第一人脸特征信息和第二人脸特征信息,如果特征比较值在预设的相似度范围内,则可以确定第一人脸特征信息与第二人脸特征信息匹配,在确定第一人脸特征信息与第二人脸特征信息匹配后,可以确定用户通过人脸认证,此时服务器向终端发送人脸动态认证提示信息。
步骤202:通过识别用户呈现的人脸姿态,获得人脸动态认证提示信息的姿态识别信息。
本申请实施例中,当终端接收到人脸动态认证提示信息后,在身份认证界面显示该人脸动态认证提示信息,用户可以据此信息呈现相应的人脸姿态,而终端在识别人脸姿态时,可以对用户进行人脸跟踪,获得人脸跟踪信息,该人脸跟踪信息可以包括面部关键点位置信息和人头姿态信息中的至少一种信息,然后终端通过分析人脸跟踪信息获得用户的姿态识别信息。例如,通过面部关键点位置信息可以获知用户按照表情动作提示信息是否闭眼、张嘴,或者在读取语音读取提示信息时用户的嘴型(每个词的发音与嘴型有对应关系,通过嘴型可以确定用户的姿态识别信息);通过人头姿态信息可以获知用户是否转头、低头等。
步骤203:将姿态识别信息发送至服务器,以使服务器在验证姿态识别信息与人脸动态认证提示信息一致时,确定用户通过身份认证。
对服务器来说,同一时间可能需要对多个用户进行身份认证,如果对不同用户发送了不同的动态认证提示信息,则步骤201中,服务器可以将人脸动态认证提示信息发送至终端后,记录该用户的用户名与人脸动态认证提示信息的对应关系;本步骤中,终端将姿态识别信息发送至服务器后,服务器根据用户的用户名获取到对应的人脸动态认证提示信息,验证该姿态识别信息与人脸动态认证提示信息一致时,说明用户为活体用户,此时确定用户通过身份认证。
另外,如果步骤201中人脸动态认证提示信息为语音读取提示信息,则终端除了获取用户的嘴型外,也可以获得用户的音频信息,通过语音识别该音频信息获得用户读取的语音信息,以便服务器比对该语音信息与语音读取提示信息是否一致,在一致时确定用户通过身份认证。
参见图2B,为本申请身份认证方法的另一个实施例的流程图,该实施例从实现身份认证的服务器侧进行描述:
步骤211:在用户进行身份认证时,向终端发送人脸动态认证提示信息。
步骤212:接收终端发送的姿态识别信息,该姿态识别信息为终端通过识别用户根据人脸动态认证提示信息呈现的人脸姿态,获得的姿态识别信息。
步骤213:当验证姿态识别信息与人脸动态认证提示信息一致时,确定用户通过身份认证。
需要说明的是,上述图2B示出的身份认证过程与图2A示出的身份认证过程的区别仅在于执行主体的不同,即图2A从终端侧进行描述,而图2B从服务器侧进行描述,因此图2B实施例中的相关实现过程可以参见前述图2A中的描述,在此不再赘述。
由上述实施例可见,该实施例通过人脸动态认证方式可以对用户身份进行高安全性认证,相较于现有采用认证密码进行认证的方式,认证信息不会被恶意第三方窃取,提高了认证的可靠性,并且通过人脸动态认证可以识别用户为活体用户,从而进一步提高身份认证的准确性,降低认证过程中存在的安全隐患。
参见图3A,为本申请身份认证方法的另一个实施例,该实施例详细示出了人脸注册的过程:
步骤301:用户通过终端向服务器注册。
步骤302:终端检测到用户的人脸时,对用户进行人脸跟踪。
通常终端上都集成有摄像设备,例如摄像头,本实施例可以默认设置在用户注册时,自动启动摄像设备对用户人脸进行检测,通常用户可以手持终端将摄像设备对准自己的正脸。当通过摄像设备检测到人脸时,终端可以通过人脸跟踪算法对用户进行人脸跟踪,需要说明的是,本申请实施例可以采用各种现有的人脸跟踪算法,在此不再赘述。
步骤303:终端在人脸跟踪过程中按照预设时间间隔获取人脸图像。
在人脸跟踪过程中,终端通过摄像设备按照预设时间间隔获取人脸图像,设置时间间隔是为了避免提取到大致相同的人脸图像,例如,预设时间间隔可以为3秒。
步骤304:判断人脸图像的清晰度是否满足预设的清晰度阈值,若是,则执行步骤305;否则,结束当前流程。
对于步骤303获取的人脸图像,可以先对其清晰度进行判断,以便排除清晰度不足的人脸图像。此时终端可以调取预先设置的模糊判断函数,判断该人脸图像的清晰度是否满足清晰度阈值,其中,模糊判断函数可以采用现有图像识别处理技术中的模糊判断函数,对此本申请实施例不进行限制。对于满足清晰度阈值的人脸图像,执行步骤305,对于不满足清晰度阈值的人脸图像,直接丢弃,然后返回步骤303。
步骤305:终端从人脸图像中提取人头姿态信息。
在步骤304中判断出获取的人脸图像为清晰的人脸图像后,终端从人脸图像中提取人头姿态信息。如图3B所示,为本申请实施例中的人头姿态示意图:本实施例中的人头姿态信息可以包括至少一个下述角度:低仰头角度、侧脸角度和偏头角度。
步骤306:终端判断人头姿态信息包含的每个角度是否在预设的角度范围内,若是,则执行步骤307;否则,结束当前流程。
本申请实施例中,通过人头姿态信息可以判断出人脸图像是否为用户的正脸图像,此时终端可以判断人头姿态信息中包含的每个角度是否在预设的角度范围内,例如,该预设的角度范围为0度至10度。对于判断结果为是的人头姿态信息对应的人脸图像,执行步骤307;对于判断结果为否的人头姿态信息对应的人脸图像,直接丢弃,然后返回步骤303。
步骤307:终端从人脸图像中提取用户的人脸特征信息。
本申请实施例可以采用LBP(Linear Back Projection,线性反投影)特征提取算法,从人脸图像中提取人脸特征向量值作为用户的人脸特征信息。当然,本申请实施例不限制进行人脸特征提取的具体算法,任何现有图像处理技术中采用的人脸特征提取算法都可适用于本申请实施例,例如,加窗傅立叶变换gabor特征提取算法等。
为了保证后续身份认证阶段人脸认证的准确度,在人脸注册阶段,对于同一注册用户,可以从多个人脸图像中提取该用户的人脸特征信息,该多个人脸图像的数量可以预先设置,例如5个,相应的,按照设置的人脸图像的数量,可以循环执行前述步骤303至步骤307,以便获取到满足该预设数量的人脸图像,并从中提取出人脸特征信息。
步骤308:终端将人脸特征信息发送至服务器。
步骤309:服务器保存注册用户的用户名与该人脸特征的对应关系,结束当前流程。
本实施例中,服务器接收到终端发送的人脸特征信息后,可以在人脸特征信息数据库中保存注册用户的用户名与人脸特征的对应关系,当接收到多个人脸特征信息时,则相应保存该用户名与多个人脸特征信息的对应关系。
参见图4A,为本申请身份认证方法的另一个实施例,该实施例基于图3所示人脸注册过程,详细描述了对用户进行身份认证的过程:
步骤401:开始对用户进行身份认证。
步骤402:终端获取用户的第一人脸特征信息。
在身份认证过程中,终端获取用户的人脸特征信息的方式与前述图3示出的人脸注册过程中获取人脸特征信息的方式一致,具体与图3示出的步骤302至步骤307一致,在此不再赘述。
本步骤中,终端可以获取到至少一个第一人脸特征信息。
步骤403:终端向服务器发送用户的第一人脸特征信息。
步骤404:服务器验证第一人脸特征信息与已保存的用户的第二人脸特征信息是否匹配,若是,则执行步骤405;否则结束当前流程。
本申请实施例中,服务器接收到用户的第一人脸特征信息后,可以根据该用户的用户名查找人脸特征信息数据库,获得与该用户名对应的第二人脸特征信息,然后采用预设的比较方式比较第一人脸特征信息和第二人脸特征信息,如果特征比较值在预设的相似度范围内,则可以确定第一人脸特征信息与第二人脸特征信息匹配。
假设本申请实施例中人脸特征信息为通过LBP算法提取出的人脸特征向量:
在一个例子中,可以采用欧式距离比较方式比较第一人脸特征信息和第二人脸特征,此时计算第二人脸特征向量与第一人脸特征向量的差值的平方和,如果该平方和小于预设阈值,则可以确定进行身份认证的为用户本人;
在另一个例子中,可以采用余弦距离比较方式比较第一人脸特征信息和第二人脸特征,假设第一人脸特征向量为V1,第二人脸特征向量为V2,则可以计算如下公式值:V2*V1/(|V1|*|V2|),如果该公式值大于预设阈值,则可以确定进行身份认证的为用户本人。
步骤405:服务器向终端发送人脸动态认证提示信息。
当服务器验证第一人脸特征信息与第二人脸特征信息匹配时,确定进行身份认证的为用户本人,此时开始进行人脸动态认证过程。服务器可以从人脸动态认证提示信息数据库中随机抽取一个人脸动态认证提示信息。
本实施例中人脸动态认证提示信息可以包括表情动作提示信息或者语音读取提示信息。对于表情动作提示信息,其所提示的动作通常是用户便于通过面部姿态呈现的动作,例如,张嘴、闭眼、转头等;对于语音读取提示信息,该信息通常比较短,以便于用户在认证时读取,且便于终端识别用户读取时的面部姿态。
步骤406:终端通过对用户进行人脸跟踪,获得人脸跟踪信息。
终端在接收到人脸动态认证提示信息后,可以在认证界面输出人脸动态认证提示信息,用户可以据此信息呈现相应的人脸姿态,在呈现过程中,由终端通过人脸跟踪算法获取用户的人脸跟踪信息。其中,人脸跟踪信息可以包括至少一种下述信息:面部关键点位置信息、人头姿态信息。
步骤407:终端分析人脸跟踪信息获得用户的姿态识别信息。
在一个例子中,假设人脸动态认证提示信息为“张嘴”,则用户相应做出张嘴的动作,终端通过对用户进行人脸跟踪可以获得面部关键点位置信息,具体为嘴部的关键点位置信息,参见图4B和图4C,为本申请实施例中面部关键点位置信息示意图:其中,图4B为正常状态下提取到的用户嘴部关键点位置信息,图4C为用户呈现“张嘴”姿态后提取到的用户嘴部关键点位置信息,通过比较图4B和图4C提取到的关键点位置信息,即比较嘴部上下两个关键点位置的坐标距离就可以获得用户的姿态识别信息为“张嘴”。
在另一个例子中,假设人脸动态认证提示信息为“转头”,则用户相应做出转头的动作,终端通过对用户进行人脸跟踪可以获得人头姿态信息,具体可以如图3B中示出的三个角,如果三个角的角度值满足“转头”所定义的角度值范围,则可获取用户的姿态识别信息为“转头”。
步骤408:终端将姿态识别信息发送至服务器。
步骤409:服务器验证姿态识别信息与人脸动态认证提示信息是否一致,若是,则执行步骤410;否则,结束当前流程。
步骤410:服务器确定用户通过身份认证,结束当前流程。
由上述实施例可见,该实施例将人脸认证与动态认证相结合对用户身份进行高安全性认证,其中通过人脸认证可以初步验证是否为用户本人,相较于现有采用认证密码进行认证的方式,认证信息不易被恶意第三方窃取,提高了认证的可靠性,并且在确认为用户本人的基础上,通过人脸动态认证可以识别用户为活体用户,从而进一步提高身份认证的准确性,降低认证过程中存在的安全隐患。
与本申请身份认证方法的实施例相对应,本申请还提供了身份认证装置、终端及服务器的实施例。
本申请身份认证装置的实施例可以分别应用在终端和服务器上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图5所示,为本申请身份认证装置所在设备的一种硬件结构图,除了图5所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的设备通常根据该设备的实际功能,还可以包括其他硬件,如对于终端来说,可能包括摄像头、触摸屏子、通信组件等,对于服务器来说,可能包括负责处理报文的转发芯片等等。
参见图6,为本申请身份认证装置的一个实施例框图,该身份认证装置可以应用在终端上,该装置包括:接收单元610、识别单元620和发送单元630。
其中,接收单元610,用于在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;
识别单元620,用于通过识别所述用户呈现的人脸姿态,获得所述人脸动态认证提示信息的姿态识别信息;
发送单元630,用于将所述姿态识别信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
在一个可选的实现方式中:
所述识别单元620可以包括(图6中未示出):
人脸信息获得子单元,用于在所述用户根据所述人脸动态认证提示信息呈现人脸姿态时,通过对所述用户进行人脸跟踪,获得人脸跟踪信息;
人脸信息分析子单元,用于分析所述人脸跟踪信息获得所述用户的姿态识别信息。
其中,所述人脸信息分析子单元,可以具体用于当所述人脸跟踪信息为面部关键点位置信息时,通过分析所述面部关键点位置信息获得所述用户的表情姿态识别信息,当所述人脸跟踪信息为人头姿态信息时,通过分析所述人头姿态信息获得所述用户的头部转动识别信息。
其中,所述人脸动态认证提示信息可以包括至少一种下述信息:表情动作提示信息、语音读取提示信息。
在另一个可选的实现方式中:
所述装置还可以包括(图6中未示出):
获取单元,用于获取所述用户的人脸特征信息,将所述身份认证时获取的人脸特征信息作为所述用户的第一人脸特征信息;
所述发送单元630,还可以用于向服务器发送所述用户的第一人脸特征信息,以使所述服务器在验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息匹配时发送所述人脸动态认证提示信息。
可选的,所述获取单元,还可以用于在所述用户进行注册时,获取所述用户的人脸特征信息,将所述注册时获取的人脸特征信息作为所述用户的第二人脸特征信息;所述发送单元630,还可以用于将所述第二人脸特征信息发送至所述服务器,以使所述服务器保存所述用户的用户名与所述第二人脸特征的对应关系。
可选的,所述获取单元可以包括:人脸跟踪子单元,用于在检测到所述用户的人脸时,对所述用户进行人脸跟踪;图像获取子单元,用于在所述人脸跟踪过程中按照预设时间间隔获取人脸图像;条件判断子单元,用于判断所述人脸图像是否满足预设的特征提取条件;特征提取子单元,用于若满足所述特征提取条件,则从所述人脸图像中提取所述用户的人脸特征信息。
其中,所述条件判断子单元可以进一步包括:
清晰度判断模块,用于判断所述人脸图像的清晰度是否满足预设的清晰度阈值;
姿态信息提取模块,用于若满足所述清晰度阈值,则从所述人脸图像中提取人头姿态信息,所述人头姿态信息包括至少一个下述角度:低仰头角度、侧脸角度和偏头角度;
角度判断模块,用于判断所述人头姿态信息包含的每个角度是否在预设的角度范围内;
判断确定模块,用于若在预设的角度范围内,则确定所述人脸图像满足所述特征提取条件。
其中,所述特征提取子单元,可以具体用于采用预设特征提取算法,从所述人脸图像中提取人脸特征向量值作为所述用户的人脸特征信息;其中,所述预设特征提取算法可以包括:线性反投影LBP特征提取算法、或加窗傅立叶变换gabor特征提取算法等。
参见图7,为本申请身份认证装置的另一个实施例框图,该身份认证装置可以应用在服务器上,该装置包括:发送单元710、接收单元720和确定单元730。
其中,发送单元710,用于在用户进行身份认证时,向终端发送人脸动态认证提示信息;
接收单元720,用于接收所述终端发送的姿态识别信息,所述姿态识别信息为所述终端通过识别所述用户根据所述人脸动态认证提示信息呈现的人脸姿态,获得的姿态识别信息;
确定单元730,用于当验证所述姿态识别信息与所述人脸动态认证提示信息一致时,确定所述用户通过身份认证。
在一个可选的实现方式中:
所述接收单元720,还可以用于接收所述终端发送的所述用户的第一人脸特征信息;
所述装置还可以包括(图7中未示出):验证单元,用于验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息是否匹配;
所述发送单元710,可以具体用于在匹配时,向终端发送人脸动态认证提示信息。
可选的,所述接收单元720,还可以用于在所述用户进行注册时,接收所述终端发送的所述用户的第二人脸特征信息;所述装置还可以包括(图7中未示出):保存单元,用于保存所述用户的用户名与所述第二人脸特征信息的对应关系。
可选的,所述验证单元可以包括:特征查找子单元,用于根据所述用户的用户名查找所述对应关系,获得与所述用户名对应的第二人脸特征信息;特征比较子单元,用于按照预设的比较方式比较所述第一人脸特征信息和所述第二人脸特征信息;匹配确定子单元,用于如果特征比较值在预设的相似度范围内,则确定所述第一人脸特征信息与所述第二人脸特征信息匹配。其中,所述特征比较子单元可以采用的预设的比较方式包括:欧式距离比较方式、或余弦距离比较方式。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
由上述实施例可见,在对用户进行身份认证时,通过人脸动态认证方式可以对用户身份进行高安全性认证,相较于现有采用认证密码进行认证的方式,认证信息不会被恶意第三方窃取,提高了认证的可靠性,并且通过人脸动态认证可以识别用户为活体用户,从而进一步提高身份认证的准确性,降低认证过程中存在的安全隐患。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (24)
1.一种身份认证方法,其特征在于,所述方法包括:
在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
通过识别所述用户呈现的人脸姿态,获得所述表情动作提示信息的姿态识别信息;
通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
将所述姿态识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述表情动作提示信息一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证;
其中,当所述人脸动态认证提示信息为语音读取提示信息时,通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获取所述语音读取提示信息的嘴型识别信息;
通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
将所述嘴型识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
2.根据权利要求1所述的方法,其特征在于,所述通过识别所述用户呈现的人脸姿态,获得所述表情动作提示信息的姿态识别信息,包括:
在所述用户根据所述表情动作提示信息呈现人脸姿态时,通过对所述用户进行人脸跟踪,获得人脸跟踪信息;
分析所述人脸跟踪信息获得所述用户的姿态识别信息。
3.根据权利要求2所述的方法,其特征在于,所述分析所述人脸跟踪信息获得所述用户的姿态识别信息,包括:
当所述人脸跟踪信息为面部关键点位置信息时,通过分析所述面部关键点位置信息获得所述用户的表情姿态识别信息;
当所述人脸跟踪信息为人头姿态信息时,通过分析所述人头姿态信息获得所述用户的头部转动识别信息。
4.根据权利要求1所述的方法,其特征在于,所述接收所述服务器发送的人脸动态认证提示信息之前,所述方法还包括:
获取所述用户的人脸特征信息,将所述身份认证时获取的人脸特征信息作为所述用户的第一人脸特征信息;
向服务器发送所述用户的第一人脸特征信息,以使所述服务器在验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息匹配时发送所述人脸动态认证提示信息。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在所述用户进行注册时,获取所述用户的人脸特征信息,将所述注册时获取的人脸特征信息作为所述用户的第二人脸特征信息;
将所述第二人脸特征信息发送至所述服务器,以使所述服务器保存所述用户的用户名与所述第二人脸特征的对应关系。
6.根据权利要求4或5所述的方法,其特征在于,所述获取所述用户的人脸特征信息,包括:
在检测到所述用户的人脸时,对所述用户进行人脸跟踪;
在所述人脸跟踪过程中按照预设时间间隔获取人脸图像;
判断所述人脸图像是否满足预设的特征提取条件;
若满足所述特征提取条件,则从所述人脸图像中提取所述用户的人脸特征信息。
7.根据权利要求6所述的方法,其特征在于,所述判断所述人脸图像是否满足预设的特征提取条件,包括:
判断所述人脸图像的清晰度是否满足预设的清晰度阈值;
若满足所述清晰度阈值,则从所述人脸图像中提取人头姿态信息,所述人头姿态信息包括至少一个下述角度:低仰头角度、侧脸角度和偏头角度;
判断所述人头姿态信息包含的每个角度是否在预设的角度范围内;
若在预设的角度范围内,则确定所述人脸图像满足所述特征提取条件。
8.一种身份认证方法,其特征在于,所述方法包括:
在用户进行身份认证时,向终端发送人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
接收所述终端发送的姿态识别信息和语音信息,所述姿态识别信息为所述终端通过识别所述用户根据所述表情动作提示信息呈现的人脸姿态,获得的姿态识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
当验证所述姿态识别信息与所述表情动作提示信息一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证;
其中,当所述人脸动态认证提示信息为语音读取提示信息时,接收所述终端发送的嘴型识别信息和语音信息,所述嘴型识别信息为所述终端通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获得的嘴型识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
当验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
9.根据权利要求8所述的方法,其特征在于,向终端发送人脸动态认证提示信息之前,所述方法还包括:
接收所述终端发送的所述用户的第一人脸特征信息;
验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息是否匹配;
若匹配,则执行所述向终端发送人脸动态认证提示信息。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
在所述用户进行注册时,接收所述终端发送的所述用户的第二人脸特征信息;
保存所述用户的用户名与所述第二人脸特征信息的对应关系。
11.根据权利要求10所述的方法,其特征在于,所述验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息是否匹配,包括:
根据所述用户的用户名查找所述对应关系,获得与所述用户名对应的第二人脸特征信息;
采用预设的比较方式比较所述第一人脸特征信息和所述第二人脸特征信息;
如果特征比较值在预设的相似度范围内,则确定所述第一人脸特征信息与所述第二人脸特征信息匹配。
12.一种身份认证装置,其特征在于,所述装置包括:
接收单元,用于在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
识别单元,用于通过识别所述用户呈现的人脸姿态,获得所述表情动作提示信息的姿态识别信息,通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
发送单元,用于将所述姿态识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述表情动作提示信息一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证
其中,在所述人脸动态认证提示信息为语音读取提示信息时,所述识别单元用于通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获取所述语音读取提示信息的嘴型识别信息,通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
所述发送单元用于将所述嘴型识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
13.根据权利要求12所述的装置,其特征在于,所述识别单元包括:
人脸信息获得子单元,用于在所述用户根据所述表情动作提示信息呈现人脸姿态时,通过对所述用户进行人脸跟踪,获得人脸跟踪信息;
人脸信息分析子单元,用于分析所述人脸跟踪信息获得所述用户的姿态识别信息。
14.根据权利要求13所述的装置,其特征在于,
所述人脸信息分析子单元,具体用于当所述人脸跟踪信息为面部关键点位置信息时,通过分析所述面部关键点位置信息获得所述用户的表情姿态识别信息,当所述人脸跟踪信息为人头姿态信息时,通过分析所述人头姿态信息获得所述用户的头部转动识别信息。
15.根据权利要求12所述的装置,其特征在于,所述装置还包括:
获取单元,用于获取所述用户的人脸特征信息,将所述身份认证时获取的人脸特征信息作为所述用户的第一人脸特征信息;
所述发送单元,还用于向服务器发送所述用户的第一人脸特征信息,以使所述服务器在验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息匹配时发送所述人脸动态认证提示信息。
16.根据权利要求15所述的装置,其特征在于,
所述获取单元,还用于在所述用户进行注册时,获取所述用户的人脸特征信息,将所述注册时获取的人脸特征信息作为所述用户的第二人脸特征信息;
所述发送单元,还用于将所述第二人脸特征信息发送至所述服务器,以使所述服务器保存所述用户的用户名与所述第二人脸特征的对应关系。
17.根据权利要求15或16所述的装置,其特征在于,所述获取单元包括:
人脸跟踪子单元,用于在检测到所述用户的人脸时,对所述用户进行人脸跟踪;
图像获取子单元,用于在所述人脸跟踪过程中按照预设时间间隔获取人脸图像;
条件判断子单元,用于判断所述人脸图像是否满足预设的特征提取条件;
特征提取子单元,用于若满足所述特征提取条件,则从所述人脸图像中提取所述用户的人脸特征信息。
18.根据权利要求17所述的装置,其特征在于,所述条件判断子单元包括:
清晰度判断模块,用于判断所述人脸图像的清晰度是否满足预设的清晰度阈值;
姿态信息提取模块,用于若满足所述清晰度阈值,则从所述人脸图像中提取人头姿态信息,所述人头姿态信息包括至少一个下述角度:低仰头角度、侧脸角度和偏头角度;
角度判断模块,用于判断所述人头姿态信息包含的每个角度是否在预设的角度范围内;
判断确定模块,用于若在预设的角度范围内,则确定所述人脸图像满足所述特征提取条件。
19.一种身份认证装置,其特征在于,所述装置包括:
发送单元,用于在用户进行身份认证时,向终端发送人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
接收单元,用于接收所述终端发送的姿态识别信息和语音信息,所述姿态识别信息为所述终端通过识别所述用户根据所述表情动作提示信息呈现的人脸姿态,获得的姿态识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
确定单元,用于当验证所述姿态识别信息与所述表情动作提示信息一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证;
其中,当所述人脸动态认证提示信息为语音读取提示信息时,所述接收单元用于接收所述终端发送的嘴型识别信息和语音信息,所述嘴型识别信息为所述终端通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获得的嘴型识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
所述确定单元用于当验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
20.根据权利要求19所述的装置,其特征在于,
所述接收单元,还用于接收所述终端发送的所述用户的第一人脸特征信息;
所述装置还包括:
验证单元,用于验证所述第一人脸特征信息与已保存的所述用户的第二人脸特征信息是否匹配;
所述发送单元,具体用于在匹配时,向终端发送人脸动态认证提示信息。
21.根据权利要求20所述的装置,其特征在于,
所述接收单元,还用于在所述用户进行注册时,接收所述终端发送的所述用户的第二人脸特征信息;
所述装置还包括:
保存单元,用于保存所述用户的用户名与所述第二人脸特征信息的对应关系。
22.根据权利要求21所述的装置,其特征在于,所述验证单元包括:
特征查找子单元,用于根据所述用户的用户名查找所述对应关系,获得与所述用户名对应的第二人脸特征信息;
特征比较子单元,用于按照预设的比较方式比较所述第一人脸特征信息和所述第二人脸特征信息;
匹配确定子单元,用于如果特征比较值在预设的相似度范围内,则确定所述第一人脸特征信息与所述第二人脸特征信息匹配。
23.一种终端,其特征在于,包括:
处理器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为:
在用户进行身份认证时,接收服务器发送的人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
通过识别所述用户呈现的人脸姿态,获得所述表情动作提示信息的姿态识别信息;
通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
将所述姿态识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述姿态识别信息与所述表情动作提示信息一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证;
其中,当所述人脸动态认证提示信息为语音读取提示信息时,通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获取所述语音读取提示信息的嘴型识别信息;
通过识别所述用户的音频信息,获取所述语音读取提示信息的语音信息;
将所述嘴型识别信息和语音信息发送至所述服务器,以使所述服务器在验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和在验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
24.一种服务器,其特征在于,包括:
处理器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为:
在用户进行身份认证时,向终端发送人脸动态认证提示信息;其中,所述人脸动态认证提示信息包括至少一种下述信息:表情动作提示信息、语音读取提示信息;
接收所述终端发送的姿态识别信息和语音信息,所述姿态识别信息为所述终端通过识别所述用户根据所述表情动作提示信息呈现的人脸姿态,获得的姿态识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
当验证所述姿态识别信息与所述表情动作提示信息一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证;
其中,当所述人脸动态认证提示信息为语音读取提示信息时,接收所述终端发送的嘴型识别信息和语音信息,所述嘴型识别信息为所述终端通过识别所述用户读取所述语音读取提示信息时每个词的发音对应的嘴型姿态,获得的嘴型识别信息,所述语音信息为所述终端通过识别所述用户根据所述语音读取提示信息发出的音频信息获取得的语音信息;
当验证所述嘴型识别信息与所述语音读取提示信息的嘴型一致和验证所述语音信息与所述语音读取提示信息一致时,确定所述用户通过身份认证。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201410446657.0A CN105468950B (zh) | 2014-09-03 | 2014-09-03 | 身份认证方法、装置、终端及服务器 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| HK1221795A1 HK1221795A1 (zh) | 2017-06-09 |
| HK1221795B true HK1221795B (zh) | 2021-04-01 |
Family
ID=
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105468950B (zh) | 身份认证方法、装置、终端及服务器 | |
| TWI578181B (zh) | 電子裝置、身份驗證系統及方法 | |
| US10135818B2 (en) | User biological feature authentication method and system | |
| CN108804884B (zh) | 身份认证的方法、装置及计算机存储介质 | |
| US9122913B2 (en) | Method for logging a user in to a mobile device | |
| US20190012450A1 (en) | Biometric-based authentication method, apparatus and system | |
| JP2018500634A (ja) | 本人認証方法および装置 | |
| WO2017198014A1 (zh) | 一种身份认证方法和装置 | |
| CN106778525A (zh) | 身份认证方法和装置 | |
| CN106603563A (zh) | 基于生物特征识别的信息安全实现方法和系统 | |
| BR112015017601B1 (pt) | Método de autenticação de utilizadores e aparelho baseado em dados de áudio e vídeo | |
| CN105005779A (zh) | 基于交互式动作的人脸验证防伪识别方法及系统 | |
| KR101724971B1 (ko) | 광각 카메라를 이용한 얼굴 인식 시스템 및 그를 이용한 얼굴 인식 방법 | |
| US20210243186A1 (en) | Systems and methods for providing data access based on physical proximity to device | |
| US10547610B1 (en) | Age adapted biometric authentication | |
| WO2018090471A1 (zh) | 一种指纹认证方法及装置 | |
| CN105407069B (zh) | 活体认证方法、装置、客户端设备及服务器 | |
| EP1792267A1 (en) | Feature extraction algorithm for automatic ear recognition | |
| WO2017041358A1 (zh) | 一种用户身份识别方法、装置和移动终端 | |
| CN107483423A (zh) | 一种用户登录验证方法 | |
| US11995167B2 (en) | Systems and methods for authenticating user identity using supplemental environment data | |
| HK1221795B (zh) | 身份认证方法、装置、终端及服务器 | |
| KR101718244B1 (ko) | 얼굴 인식을 위한 광각 영상 처리 장치 및 방법 | |
| CN104518877A (zh) | 身份认证系统及方法 | |
| HK1226206B (zh) | 活体认证方法、装置、客户端设备及服务器 |