[go: up one dir, main page]

CN111222374A - 测谎数据处理方法、装置、计算机设备和存储介质 - Google Patents

测谎数据处理方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN111222374A
CN111222374A CN201811420233.1A CN201811420233A CN111222374A CN 111222374 A CN111222374 A CN 111222374A CN 201811420233 A CN201811420233 A CN 201811420233A CN 111222374 A CN111222374 A CN 111222374A
Authority
CN
China
Prior art keywords
detection model
lie detection
pupil
lie
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811420233.1A
Other languages
English (en)
Inventor
袁智华
于永昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Huiruisitong Information Technology Co Ltd
Original Assignee
Guangzhou Huiruisitong Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Huiruisitong Information Technology Co Ltd filed Critical Guangzhou Huiruisitong Information Technology Co Ltd
Priority to CN201811420233.1A priority Critical patent/CN111222374A/zh
Publication of CN111222374A publication Critical patent/CN111222374A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请涉及一种测谎模型生成方法、装置、测谎方法、装置、计算机设备和存储介质,通过获取多张具有瞳孔特征的训练图像,构建初始测谎模型,将训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定分类结果,根据瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时更新初始测谎模型的参数,直至满足预设收敛条件,得到目标测谎模型,将待识别图像输测谎模型中,得到对应的识别结果。通过采集的图像数据进行瞳孔识别,训练测谎模型对瞳孔特征的识别能力,通过训练好的测谎模型能够准确的提取瞳孔特征,提高测谎的准确度。

Description

测谎数据处理方法、装置、计算机设备和存储介质
技术领域
本申请涉及图像处理领域,尤其涉及一种测谎模型生成方法、装置、测谎方法、装置、计算机设备和存储介质。
背景技术
测谎技术,目前被广泛用于反贪部门的刑事侦查,传统测谎方式利用心率测量、呼吸测量或者汗液测量等需要被测者佩戴大量设备,给被测者过大心理负担,另一种采用动作、表情识别,虽然对被测者心理负担影响较小,但无法避免伪装表情的干扰,导致测试结果不准确。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种测谎模型生成方法、装置、测谎方法、装置和计算机设备和存储介质。
一种测谎模型生成方法,包括:
获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签;
构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中;
通过初始测谎模型提取各张训练图像的瞳孔特征,根据所述瞳孔特征确定各张训练图像对应的用户标识的分类结果;
根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件;
当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
一种测谎模型生成装置,包括:
训练数据获取模块,用于获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签;
数据输入模块,用于构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中;
分类识别模块,用于通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果;
判断模块,用于根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件;
模型确定模块,用于当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签;
构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中;
通过初始测谎模型提取各张训练图像的瞳孔特征,根据所述瞳孔特征确定各张训练图像对应的用户标识的分类结果;
根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件;
当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签;
构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中;
通过初始测谎模型提取各张训练图像的瞳孔特征,根据所述瞳孔特征确定各张训练图像对应的用户标识的分类结果;
根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件;
当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
上述测谎模型生成方法、装置、计算机设备和存储介质,通过获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。通过采集的图像数据进行瞳孔识别,训练测谎模型对瞳孔特征的识别能力,能够准确的提取瞳孔特征,提高测谎的准确度。
一种测谎方法,包括:
获取包含瞳孔特征的的图像数据;
将图像数据输入上述测谎模型生成方法中生成的目标测谎模型中,通过测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
一种测谎装置,包括:
数据获取模块,用于获取包含瞳孔特征的的图像数据;
测谎模块,用于将图像数据输入目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取图像数据,图像数据中包含瞳孔特征;
将图像数据输入上述测谎模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取包含瞳孔特征的的图像数据;
将图像数据输入上述测谎模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
上述测谎方法、装置、计算机设备和存储介质,通过获取包含瞳孔特征的的图像数据,将图像数据输入上述测谎模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。通过生成的测谎模型进行测谎仅需要提取用户的瞳孔特征,避免伪装表情带来的干扰,提高测试的准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中测谎模型生成方法的应用场景图;
图2为一个实施例中测谎模型生成方法的流程示意图;
图3为一个实施例中判断步骤的流程示意图;
图4为一个实施例中分类识别步骤的流程示意图;
图5为另一个实施例中分类识别步骤的流程示意图;
图6为一个实施例中测谎方法的流程示意图;
图7为一个实施例中测谎模型生成装置的结构框图;
图8为一个实施例中判断模块的结构框图;
图9为一个实施例中分类识别模块的结构框图;
图10为另一个实施例中测谎模型生成装置的结构框图;
图11为一个实施例中测谎装置的结构框图;
图12为一个实施例中计算机设备的内部框架图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为一个实施例中测谎模型生成方法的应用环境图。参照图1,该测谎模型生成方法应用于测谎系统。该测谎系统包括终端110和服务器120。终端110和服务器120通过网络连接。服务器或终端获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。终端110具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
如图2所示,在一个实施例中,提供了一种测谎模型生成方法。本实施例主要以该方法应用于上述图1中的终端110(或服务器120)来举例说明。参照图2,该测谎模型生成方法具体包括如下步骤:
步骤S201,获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签。
具体地,用户标识是用于标识用户的标签数据,训练图像用拍摄设备拍摄的图片,其中训练图像中包含人物的瞳孔特征,每个训练图像都携带了标识图像的标签。标签是用于标识每张训练图像的数据,包括说谎标签和不说谎标签。
在一个实施例中,在获取包含多个用户标识的多张训练图像之前,还包括:对各张训练图像进行标记,得到各张训练图像的标签。如获取用户在回答设计的问题时的视频数据和对应的标签数据,将所述标签数据与所述视频数据对应。
在一个实施例中,在获取包含多个用户标识的多张训练图像之前,还包括:对各张训练图像进行预处理。其中预处理包括对图像进行裁剪、旋转、去燥、颜色空间变换等。对图像进行预处理能够避免噪声等带来的影响,从而影响识别的准确性。
步骤S202,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中。
步骤S203,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果。
具体地,初始测谎模型为未完成训练的模型。瞳孔特征是用于对人的瞳孔进行描述的数据,该数据包括瞳孔特征的形状特征、大小尺寸等信息。瞳孔是人眼睛内虹膜中心的小圆孔,为光线进入眼睛的通道。用户的心理过程,会伴随着瞳孔的变化,且不受人的意志控制,故可以采用用户的瞳孔特征作为用户是否说谎的判断指标。分类结果是指训练图像在经过初始测谎模型进行分类识别后得到的结果,包括说谎和不说谎两种结果。根据用户需求自定义构建初始测谎模型,将训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型对训练图像进行特征提取和分类,得到各张训练图像的分类结果,其中分类结构包括说谎和未说谎。瞳孔特征是人特有的特征,瞳孔的变化与人的生理活动变换过程一致,故通过瞳孔特征进行是否说谎的检测更为准确。
步骤S204,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件。
步骤S205,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
具体地,预设收敛条件为用户预先自定义设置的用户判断模型是否收敛的条件,根据预设收敛条件确定模型是否终止训练,当满足收敛条件时,停止训练,未满足时,继续训练。预设收敛条件可以包括瞳孔特征的准确度、分类结果和对应的标签判断分类的准确度等。
在一个实施例中,可以对瞳孔特征的准确度和根据分类结果和对应的标签得到分类的准确度单独进行评价,根据单独评价结果再进行综合参考,也可作为整体进行评价得到是否满足预设收敛条件的评价结果。根据瞳孔特征和分类识别结果对模型的确定模型的收敛条件,能够避免模型的过拟合和欠拟合。
当未满足预设收敛条件时,根据训练图像的瞳孔特征、分类结果和对应的标签调整初始测谎模型的模型参数,根据调整后的模型参数对训练图像再次进行训练,再次对初始测谎模型是否收敛进行判断,当未满足预设收敛条件时,重复上述参数调整、训练、判断的过程,直至判断结果为满足预设收敛条件时,结束初始测谎模型的训练,得到目标测谎模型。
在一个实施例中,初始测谎模型为支持向量机模型,采用支持向量机模型对训练数据进行训练,当未满足预设收敛条件时,根据训练图像的瞳孔特征、分类结果和对应的标签调整支持向量机模型的学习因子,再次对支持向量机模型是否收敛进行判断,当未满足预设收敛条件时,重复上述调整学习因子、训练、判断的过程,直至判断结果为满足预设收敛条件时,结束支持向量机模型的训练,得到目标测谎模型。
上述测谎模型生成方法,通过获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。通过对携带标签的图像进行训练,训练得到一个能够提取用户的瞳孔特征,并根据提取到的瞳孔特征进行测谎的目标测谎模型。通过对大量的携带标签的图片数据进行训练,能够更为精确的提取用户的瞳孔特征,从而根据提取的瞳孔特征准确的测试用户是否说谎,提高模型的准确性。
在一个实施例中,如图3所示,步骤S204,包括:
步骤S2041,获取初始测谎模型的损失函数,根据各张训练图像的瞳孔特征计算损失值。
步骤S2042,根据各张训练图像的分类结果和对应的标签统计初始测谎模型的识别正确率。
步骤S2043,当损失值满足预设损失条件,且识别正确率大于预设正确率时,确定初始测谎模型满足预设收敛条件。
具体地,损失函数是用于衡量初始测谎模型提取的特征的准确度的函数。将初始测谎模型提取的瞳孔特征带入损失函数中,计算瞳孔特征的损失值,自定义对各个瞳孔特征的损失值进行加权求和,得到整个模型的损失值。根据初始测谎模型对各张训练图像进行分类识别得到的分类结果与各张训练图像对应的标签的匹配度确定初始测谎模型的识别正确率,分类结果和对应的标签一致表示识别正确,反之表示识别失败,统计识别正确的训练图像的数量,根据统计的数量与训练图像的数量的比值得到识别正确率。根据模型的损失值和识别正确率确定是否满足预设收敛条件时,可以采用单独判断和联合判断的方式确定。
在一个实施例中,采用单独判断的原则进行判断,预设收敛条件包括损失条件和识别条件,当模型的损失值满足损失条件,且识别正确率满足识别条件时,初始测谎模型满足预设收敛条件,得到目标测谎模型。
在一个实施例中,采用联合判断的原则进行判断,将损失条件和识别条件作为整体,通过调整初始测谎模型的模型参数以使模型的损失值和识别正确率满足预设收敛条件。设置模型的损失函数和分类识别正确率共同来训练模型,能够避免模型的过拟合好欠拟合带来的模型对未训练的图像的适应性低下,提高模型对图像的适应性,从而提高测谎的准确率。
在一个实施例中,如图4所示,步骤S203,包括:
步骤S2031,对各张训练图像进行边缘检测,得到对应的边缘检测图像。
步骤S2032,采用霍夫变换检测边缘检测图像中的圆形区域,计算圆形区域的区域直径。
步骤S2033,从区域直径中获取瞳孔直径和对应的虹膜直径计算瞳孔直径和虹膜直径的比值。
步骤S2034,当比值满足预设比值时,各张训练图像对应的用户标识的分类结果为说谎。
具体地,边缘检测的目的是找到图像中亮度变化剧烈的像素点构成的集合,该集合可以用于描述轮廓。常见边缘检测算法包括Canny算法Roberts Cross算法、Prewitt算法、Sobel算法、Kirsch算法、罗盘算法、Marr-Hildreth算法、Laplacian算法等。通过边缘检测算法进行检测得到对应的边缘检测图像。在得到边缘检测图像后,采用霍夫变换检测边缘检测图像包含的圆形区域,并计算圆形区域的区域直径。其中霍夫变换是用于检测图像中几何形状的算法。从检测得到的圆形区域中确定瞳孔和瞳孔对应的虹膜,计算瞳孔的直径和对应的虹膜的直径,计算瞳孔直径和虹膜直径的比值。根据比值确定各张训练图像对应的用户标识的分类结果。
在根据比值确定各张训练图像对应的用户标识的分类结果时,可以根据比值的变化规律和比值是否满足预设比值确定,如当比值满足预设比值时,训练图像对应的分类结果为说谎,反之,则为未说谎。根据比值相对于根据单独的瞳孔直径或虹膜直径能够提高识别准确率。
在一个实施例中,如图5所示,上述测谎模型生成方法还包括:
步骤S301,计算标签为未说谎的多张训练图像中的瞳孔直径与虹膜直径的比值,对各个比值加权求和,得到预设比值。
具体地,计算同一用户标签为未说谎的多张训练图像的瞳孔直径与虹膜直径的比值,并对各张训练图像对应的比值进行加权求和,得到同一用户的预设比值。
在本实施例中,步骤S2034,包括:
步骤S2034a,从各个用户标识对应的多张训练图像的比值中选取最大的比值,计算最大的比值与所述预设比值的差异度,当差异度满足预设差异度时,各张训练图像对应的用户标识的分类结果为说谎。
具体地,从各个用户标识对应的多张训练图像的比重中选出最大的比值,计算该最大比值与预设比值的差异度,其中差异度可以通过计算两个比值之间的差值、比值等确定。根据差异度是否满足预设差异度确定各张训练图像对应的分类结果,满足预设差异度表示各张训练图像对应的分类结果为说谎,未满足,表示分类结果为未说谎。采用最大的比值作为确定用户是否说谎的标准,可以减少误差,从而提高判断的准确性。
在一个实施例中,上述测谎模型生成方法,还包括:
步骤S302,当各个用户标识对应的多张训练图像的比值的变换状态满足预设变换状态时,各张训练图像对应的用户标识的分类结果为说谎。。
具体地,获取各个用户标识在一段连续时间内的视频数据,对视频数据进行分帧处理,得到多张时间序列图像,计算时间序列图像的瞳孔与虹膜的比值,判断时间序列图像对应的比值的变化是否满足预设的变化规则,满足表示各张训练图像对应的分类结果为说谎。由于说话时比值会增大,则在一段时间内,用户从未说谎到说谎已经后续不在说谎的过程,比值的变化规则为由小变大,然后在变下的过程,若用户在其中一段时间的时间序列图像对应的比值满足上述变化规则时,表示用户说谎了,反之,未说慌。采用用户的瞳孔变化更能够准确的把握用户的心理过程,从而提高模型的检测准确率。
在一个实施例中,如图6所示,提供了一种测谎方法,包括:
步骤S401,获取图像数据,图像数据中包含瞳孔特征。
步骤S402,将图像数据输入上述测试模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取所述图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
具体地,获取拍摄设备拍摄的图像数据,该图像数据中包含瞳孔特征,将该图像数据输入到上述测试模型生成方法中生成的目标测谎模型中,通过目标测谎模型对图像数据进行特征提取和分类。特征的提取过程的分类过程与步骤S203中的处理过程一致,在此不再赘述。通过摄像头采集图像即可实现测谎,设备简单,且可以不引起被测者注意,不增加被测者心理负担,由于情绪变化导致的瞳孔变化无法人为控制,应用此原理测试提高了测试的准确度。
在一个实施例中,采用Canny算法对图像数据进行边缘检测。将图像从RGB图像转换为灰度图像,对灰度图像进行高斯滤波,得到平滑图像,降低与瞳孔特征无关的噪声对测试的影响。计算图像梯度,根据梯度计算图像边缘幅值与角度,对边缘进行细化,对边缘幅值进行非极大值抑制。采用双阈值进行边缘连接,双阈值包括第一阈值和第二阈值,第一阈值大于第二阈值,将低于第二阈值的边缘舍弃,高于第一阈值的边缘保留。与第一阈值的差值小于预设差异阈值的边缘保留,其余舍弃,得到最终的边缘。将保留的边缘设置为1,剩余的像素点置0得到二值化图像。
在一个实施例中,使用霍夫变换进行圆形的检测。圆的半径已知,可以在极坐标ρ-θ空间中通过霍夫变换求圆心。设之前得到的边缘上的每个像素点为圆心,以r为半径画圆,该圆经过圆心,把结果叠加,峰值点即为圆心。由于实际情况中不知道圆的半径,在ρ-θ-r空间进行求解,每个边缘点可以得到一个圆锥,寻找空间中的峰值点,峰值点为所要求的圆心坐标和半径的映射。
在一个具体的实施例中,上述测谎方法,包括:
获取模拟范围场景的视频数据,对模型常见数据进行分帧,得到各个用户标识对应的多张训练图像。模拟犯罪场景包括:一个小偷进入ABC实验室实施偷窃行为。在他进入实验室时,推开了抵着门的一把椅子,它翻箱倒柜从实验室里的一个抽屉中偷走了100元钱,然后悄悄地离开实验室。这个场景模拟中所设置的关键信息由三个:门口一把椅子;偷走的是钱;失窃金额现金数为100。在测谎实验中针对以上信息设置了三套问题:1、小偷进入实验室时,门口有一把椅子吗?2、小偷从实验室带走的是钱吗?3、失窃现金的数额是100元吗?
在一个实施例中,为了增加反应有效性和、满足原始反应值转化为标准分数条件和避免被试过于疲劳,每套问题由4个控制项问题和1个关键问题组成,连续出现两遍(一共30个有效问题),关键问题始终位于每一轮问题的中间,控制项问题顺序有变化。
角色设计:设置犯罪组(在测试前获得关键信息)和无辜组(在测试前不获取任何信息)。
在测试过程中使用摄像头采集包含被试者的面部表情的视频数据,对视频数据进行分帧,得到包含被试者的瞳孔特征的多张时间序列图像。由于不同人的瞳孔直径可能存在差异,所以选用瞳孔直径和虹膜直径的比作为特征来进行分析。首先测量当被试者较为平静时的瞳孔直径和虹膜直径比,然后再选取当被试者回答问题时一段时间内的视频,提取视频中的瞳孔直径和虹膜直径比。通过测量的数据分析发现,对于没有说谎的人瞳孔直径与虹膜直径比变化较小,而说谎的人的变化较大,设置一个变化阈值,如果变化大于变化阈值则可以认为被试者说谎了,反正,认为被测试者没有说谎。
将各个被测试中对应的训练图像输入初始测谎模型中,其中初始测谎模型为支持向量机。通过初始测谎模型计算各张训练图像中瞳孔直径与虹膜直径的比值,根据计算得到的比值确定各张图像的分类结果,当比值满足预设比值,分类结果的识别正确满足预设识别率时,模型收敛得到目标测谎模型。
通过目标测谎模型计算被试者较为平静时的多张训练图像的比值,计算多张训练图像的比值的平均值。计算同样的光线环境下被试者回答问题时的序列图像的比值,选取其中比值的最大值,将最大值与平均值进行对比,得到对应的对比结果,当对比结构大于变化阈值时,用户标识对应的用户的分类结果为说谎。
在一个实施例中,通过录制完被试者回答问题的视频数据之后,截取回答问题时的3s的视频。将每秒对应的视频数据进行分帧,选取其中的10帧,一共30帧的图像,计算图像中被试者瞳孔直径和虹膜直径的比值,根据比值确定被试者的分类结果。上述测谎方法采用支持向量机进行训练和测谎能够将图像数据的特征映射到高维空间中,实现线性可分,提高了测谎的准确度。
图2-6为一个实施例中测谎模型生成方法的流程示意图。应该理解的是,虽然图2-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种测谎模型生成装置200,包括:
训练数据获取模块201,用于获取包含多个用户标识的多张具有瞳孔特征的训练图像,所训练图像携带标签。
数据输入模块202,用于构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中。
分类识别模块203,用于通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果。
判断模块204,用于根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件。
模型确定模块205,用于当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
在一个实施例中,如图8所示,判断模块204包括:
损失值计算单元2041,用于获取初始测谎模型的损失函数,根据各张训练图像的瞳孔特征计算损失值。
识别正确率计算单元2042,用于根据各张训练图像的分类结果和对应的标签统计初始测谎模型的识别正确率。
判断单元2043,用于当损失值满足预设损失条件,且识别正确率大于预设正确率时,确定初始测谎模型满足预设收敛条件。
在一个实施例中,如图9所示,分类识别模块203包括:
边缘检测单元2031,用于对各张训练图像进行边缘检测,得到对应的边缘检测图像。
直径计算单元2032,采用霍夫变换检测边缘检测图像中的圆形区域,计算圆形区域的区域直径。
比值计算单元2033,用于从区域直径中获取瞳孔直径和对应的虹膜直径,计算瞳孔直径和虹膜直径的比值。
第一分类单元2034,用于当比值满足预设比值时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,如图10所示,上述测谎模型生成装置还包括:
预设比值计算单元301,用于计算标签为未说谎的多张训练图像中的瞳孔直径与虹膜直径的比值,对各个比值加权求和,得到预设比值。
第一分类单元2034还用于从各个用户标识对应的多张训练图像的比值中选取最大的比值,计算最大的比值与预设比值的差异度,当差异度满足预设差异度时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,分类识别模块203,还包括:
第二分类单元2035,用于当各个用户标识对应的多张训练图像的比值的变换状态满足预设变换状态时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,如图11所示,提供了一种测谎装置包括:
数据获取模块401,用于获取图像数据,图像数据中包含瞳孔特征。
测谎模块402,用于将图像数据输入上述测试模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取所述图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
图12示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的终端110(或服务器120)。如图12所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现测谎模型生成方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行测谎模型生成方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的测慌模型生成装置和测慌装置可以实现为一种计算机程序的形式,计算机程序可在如图12所示的计算机设备上运行。计算机设备的存储器中可存储组成该测谎模型生成装置和/或测谎装置的各个程序模块,比如,图7所示的训练数据获取模块201、数据输入模块202、分类识别模块203、判断模块204和模型确定模块205,图11所示的数据获取模块401和测谎模块402。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的测谎模型生成方法和/或测谎方法中的步骤。
例如,图12所示的计算机设备可以通过如图7所示的测谎模型生成装置中训练数据获取模块201执行获取包含多个用户标识的多张具有瞳孔特征的训练图像,所训练图像携带标签。计算机设备可通过数据输入模块202,用于构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中。计算机设备可通过分类识别模块203执行通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果。计算机设备可通过判断模块204执行根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件。计算机设备可通过模型确定模块205执行当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
在一个实施例中,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,包括:获取初始测谎模型的损失函数,根据各张训练图像的瞳孔特征计算损失值,根据各张训练图像的分类结果和对应的标签统计初始测谎模型的识别正确率,当损失值满足预设损失条件,且识别正确率大于预设正确率时,确定初始测谎模型满足预设收敛条件。
在一个实施例中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据各张训练图像的瞳孔特征确定各张训练图像对应的用户标识的分类结果,包括:对各张训练图像进行边缘检测,得到对应的边缘检测图像,采用霍夫变换检测边缘检测图像中的圆形区域,计算圆形区域的区域直径,从区域直径中获取瞳孔直径和对应的虹膜直径,计算瞳孔直径和对应的虹膜直径的比值,当比值满足预设比值时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,标签包括说谎和未说谎,计算机程序被处理器执行时还实现以下步骤:计算标签为未说谎的多张训练图像中的瞳孔直径与虹膜直径的比值,对各个比值加权求和,得到预设比值,当比值满足预设比值时,各张所述训练图像对应的用户标识的分类结果为说谎,包括:从各个用户标识对应的多张训练图像的比值中选取最大的比值,计算最大的比值与预设比值的差异度,当差异度满足预设差异度时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:当各个用户标识对应的多张训练图像的比值的变换状态满足预设变换状态时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取包含多个用户标识的多张具有瞳孔特征的训练图像,训练图像携带标签,构建初始测谎模型,将各张训练图像和对应的标签输入初始测谎模型中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据瞳孔特征确定各张训练图像对应的用户标识的分类结果,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,当未满足预设收敛条件时,更新初始测谎模型的模型参数,直至满足预设收敛条件,得到目标测谎模型。
在一个实施例中,根据各张训练图像的瞳孔特征、分类结果和对应的标签确定初始测谎模型是否满足预设收敛条件,包括:获取初始测谎模型的损失函数,根据各张训练图像的瞳孔特征计算损失值,根据各张训练图像的分类结果和对应的标签统计初始测谎模型的识别正确率,当损失值满足预设损失条件,且识别正确率大于预设正确率时,确定初始测谎模型满足预设收敛条件。
在一个实施例中,通过初始测谎模型提取各张训练图像的瞳孔特征,根据各张训练图像的瞳孔特征确定各张训练图像对应的用户标识的分类结果,包括:对各张训练图像进行边缘检测,得到对应的边缘检测图像,采用霍夫变换检测边缘检测图像中的圆形区域,计算圆形区域的区域直径,从区域直径中获取瞳孔直径和对应的虹膜直径,计算瞳孔直径和对应的虹膜直径的比值,当比值满足预设比值时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,标签包括说谎和未说谎,计算机程序被处理器执行时还实现以下步骤:计算标签为未说谎的多张训练图像中的瞳孔直径与虹膜直径的比值,对各个比值加权求和,得到预设比值,当比值满足预设比值时,各张所述训练图像对应的用户标识的分类结果为说谎,包括:从各个用户标识对应的多张训练图像的比值中选取最大的比值,计算最大的比值与预设比值的差异度,当差异度满足预设差异度时,各张训练图像对应的用户标识的分类结果为说谎。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:当各个用户标识对应的多张训练图像的比值的变换状态满足预设变换状态时,各张训练图像对应的用户标识的分类结果为说谎。
例如,图12所示的计算机设备可以通过如图11所示的测谎装置中的数据获取模块401,用于获取包含瞳孔特征的图像数据。计算机设备可通过测谎模块402执行将图像数据输入上述测试模型生成方法中生成的目标测谎模型中,通过目标测谎模型提取所述图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:获取包含瞳孔特征的图像数据,将图像数据输入目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取包含瞳孔特征的图像数据,将图像数据输入目标测谎模型中,通过目标测谎模型提取图像数据的瞳孔特征,根据瞳孔特征对图像数据进行分类,得到对应的测谎识别结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种测谎模型生成方法,所述方法包括:
获取包含多个用户标识的多张具有瞳孔特征的训练图像,所述训练图像携带标签;
构建初始测谎模型,将各张所述训练图像和对应的标签输入所述初始测谎模型中;
通过所述初始测谎模型提取各张所述训练图像的瞳孔特征,根据所述瞳孔特征确定各张所述训练图像对应的用户标识的分类结果;
根据各张所述训练图像的瞳孔特征、分类结果和对应的标签确定所述初始测谎模型是否满足预设收敛条件;
当未满足所述预设收敛条件时,更新所述初始测谎模型的模型参数,直至满足所述预设收敛条件,得到目标测谎模型。
2.根据权利要求1所述的方法,其特征在于,所述根据各张所述训练图像的瞳孔特征、分类结果和对应的标签确定所述初始测谎模型是否满足预设收敛条件,包括:
获取所述初始测谎模型的损失函数,根据各张所述训练图像的瞳孔特征计算损失值;
根据各张所述训练图像的分类结果和对应的标签统计所述初始测谎模型的识别正确率;
当所述损失值满足预设损失条件,且所述识别正确率大于预设正确率时,确定所述初始测谎模型满足预设收敛条件。
3.根据权利要求1所述的方法,其特征在于,所述通过所述初始测谎模型提取各张所述训练图像的瞳孔特征,根据各张所述训练图像的瞳孔特征确定各张所述训练图像对应的用户标识的分类结果,包括:
对各张所述训练图像进行边缘检测,得到对应的边缘检测图像;
采用霍夫变换检测所述边缘检测图像中的圆形区域,计算所述圆形区域的区域直径;
从所述区域直径中获取瞳孔直径和对应的虹膜直径,计算所述瞳孔直径和对应的虹膜直径的比值;
当所述比值满足预设比值时,各张所述训练图像对应的用户标识的分类结果为说谎。
4.根据权利要求3所述的方法,其特征在于,所述标签包括说谎和未说谎,所述方法还包括:
计算所述标签为未说谎的多张训练图像中的瞳孔直径与虹膜直径的比值,对各个所述比值加权求和,得到预设比值;
所述当所述比值满足预设比值时,各张所述训练图像对应的用户标识的分类结果为说谎,包括:
从各个用户标识对应的多张训练图像的比值中选取最大的比值,计算所述最大的比值与所述预设比值的差异度,当所述差异度满足预设差异度时,各张所述训练图像对应的用户标识的分类结果为说谎。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
当各个所述用户标识对应的多张训练图像的比值的变换状态满足预设变换状态时,各张所述训练图像对应的用户标识的分类结果为说谎。
6.一种基于权利要求1至权利要求5任意一项所述的测谎模型的测谎方法,其特征在于,所述方法包括:
获取图像数据,所述图像数据中包含瞳孔特征;
将所述图像数据输入所述目标测谎模型中,通过所述目标测谎模型提取所述瞳孔特征,根据所述瞳孔特征对所述图像数据进行分类,得到对应的测谎识别结果。
7.一种测谎模型生成装置,其特征在于,所述装置包括:
训练数据获取模块,用于获取包含多个用户标识的多张具有瞳孔特征的训练图像,所述训练图像携带标签;
数据输入模块,用于构建初始测谎模型,将各张所述训练图像和对应的标签输入所述初始测谎模型中;
分类识别模块,用于通过所述初始测谎模型提取各张所述训练图像的瞳孔特征,根据所述瞳孔特征确定各张所述训练图像对应的用户标识的分类结果;
判断模块,用于根据各张所述训练图像的瞳孔特征、分类结果和对应的标签确定所述初始测谎模型是否满足预设收敛条件;
模型确定模块,用于当未满足所述预设收敛条件时,更新所述初始测谎模型的模型参数,直至满足所述预设收敛条件,得到目标测谎模型。
8.一种基于权利要求7所述测谎模型生成装置构建的测谎装置,其特征在于,所述装置包括:
数据获取模块,用于获取包含瞳孔特征的图像数据;
测谎模块,用于将所述图像数据输入目标测谎模型中,通过所述目标测谎模型提取所述瞳孔特征,根据所述瞳孔特征对所述图像数据进行分类,得到对应的测谎识别结果。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
CN201811420233.1A 2018-11-26 2018-11-26 测谎数据处理方法、装置、计算机设备和存储介质 Pending CN111222374A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811420233.1A CN111222374A (zh) 2018-11-26 2018-11-26 测谎数据处理方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811420233.1A CN111222374A (zh) 2018-11-26 2018-11-26 测谎数据处理方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN111222374A true CN111222374A (zh) 2020-06-02

Family

ID=70805556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811420233.1A Pending CN111222374A (zh) 2018-11-26 2018-11-26 测谎数据处理方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN111222374A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723242A (zh) * 2021-08-20 2021-11-30 湖南全航信息通信有限公司 基于视频终端的视觉测谎方法、电子设备及介质
CN113729708A (zh) * 2021-09-10 2021-12-03 上海理工大学 一种基于眼动技术的谎言评判方法
CN115482198A (zh) * 2022-08-16 2022-12-16 万灵帮桥医疗器械(广州)有限责任公司 视力参数的检测方法、装置、计算机设备和存储介质
US20230052100A1 (en) * 2020-01-13 2023-02-16 Biotrillion, Inc. Systems And Methods For Optical Evaluation Of Pupillary Psychosensory Responses
WO2024218892A1 (ja) * 2023-04-19 2024-10-24 ファナック株式会社 機械学習方法、機械学習プログラムおよび機械学習装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202060785U (zh) * 2011-03-31 2011-12-07 上海天岸电子科技有限公司 人眼瞳孔测谎仪
CN202604845U (zh) * 2011-12-12 2012-12-19 张占强 基于tms320dm642平台的瞳孔测谎仪
CN103440510A (zh) * 2013-09-02 2013-12-11 大连理工大学 一种面部图像中特征点的定位方法
CN105160318A (zh) * 2015-08-31 2015-12-16 北京旷视科技有限公司 基于面部表情的测谎方法及系统
CN106667506A (zh) * 2016-12-21 2017-05-17 上海与德信息技术有限公司 一种基于皮肤电反应和瞳孔变化的测谎方法及装置
CN108197594A (zh) * 2018-01-23 2018-06-22 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202060785U (zh) * 2011-03-31 2011-12-07 上海天岸电子科技有限公司 人眼瞳孔测谎仪
CN202604845U (zh) * 2011-12-12 2012-12-19 张占强 基于tms320dm642平台的瞳孔测谎仪
CN103440510A (zh) * 2013-09-02 2013-12-11 大连理工大学 一种面部图像中特征点的定位方法
CN105160318A (zh) * 2015-08-31 2015-12-16 北京旷视科技有限公司 基于面部表情的测谎方法及系统
CN106667506A (zh) * 2016-12-21 2017-05-17 上海与德信息技术有限公司 一种基于皮肤电反应和瞳孔变化的测谎方法及装置
CN108197594A (zh) * 2018-01-23 2018-06-22 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230052100A1 (en) * 2020-01-13 2023-02-16 Biotrillion, Inc. Systems And Methods For Optical Evaluation Of Pupillary Psychosensory Responses
US12376773B2 (en) * 2020-01-13 2025-08-05 Biotrillion, Inc. Systems and methods for optical evaluation of pupillary psychosensory responses
CN113723242A (zh) * 2021-08-20 2021-11-30 湖南全航信息通信有限公司 基于视频终端的视觉测谎方法、电子设备及介质
CN113723242B (zh) * 2021-08-20 2024-04-26 湖南全航信息通信有限公司 基于视频终端的视觉测谎方法、电子设备及介质
CN113729708A (zh) * 2021-09-10 2021-12-03 上海理工大学 一种基于眼动技术的谎言评判方法
CN113729708B (zh) * 2021-09-10 2023-06-20 上海理工大学 一种基于眼动技术的谎言评判方法
CN115482198A (zh) * 2022-08-16 2022-12-16 万灵帮桥医疗器械(广州)有限责任公司 视力参数的检测方法、装置、计算机设备和存储介质
CN115482198B (zh) * 2022-08-16 2025-07-04 万灵帮桥医疗器械(广州)有限责任公司 视力参数的检测方法、装置、计算机设备和存储介质
WO2024218892A1 (ja) * 2023-04-19 2024-10-24 ファナック株式会社 機械学習方法、機械学習プログラムおよび機械学習装置

Similar Documents

Publication Publication Date Title
CN109359548B (zh) 多人脸识别监控方法及装置、电子设备及存储介质
US10948990B2 (en) Image classification by brain computer interface
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN111222374A (zh) 测谎数据处理方法、装置、计算机设备和存储介质
Miura et al. Feature extraction of finger vein patterns based on iterative line tracking and its application to personal identification
WO2020207423A1 (zh) 肤质检测方法、肤质等级分类方法及肤质检测装置
US9892315B2 (en) Systems and methods for detection of behavior correlated with outside distractions in examinations
Arigbabu et al. Integration of multiple soft biometrics for human identification
CN111222380B (zh) 一种活体检测方法、装置、及其识别模型训练方法
CN113139439A (zh) 一种基于人脸识别的在线学习专注度评价方法及装置
Błażek et al. An unorthodox view on the problem of tracking facial expressions
Villalobos-Castaldi et al. A new spontaneous pupillary oscillation-based verification system
Busey et al. Characterizing human expertise using computational metrics of feature diagnosticity in a pattern matching task
JP2025538276A (ja) 人工知能に基づく行動モニタリング方法、プログラム及び装置
CN110348385B (zh) 活体人脸识别方法和装置
CN104679967B (zh) 一种判断心理测试可靠性的方法
Odya et al. User authentication by eye movement features employing SVM and XGBoost classifiers
CN111598144A (zh) 图像识别模型的训练方法和装置
Yahiaoui et al. Markov Chains for unsupervised segmentation of degraded NIR iris images for person recognition
Chiu et al. A micro-control capture images technology for the finger vein recognition based on adaptive image segmentation
CN117036877A (zh) 一种人脸表情及姿态融合的情绪识别方法及系统
CN114764948B (zh) 活体检测方法、装置、设备及存储介质
KR102318051B1 (ko) 사용자 인증 시스템에서 여백을 포함한 얼굴영역 이미지를 이용한 라이브니스 검사방법
Rafiqi et al. Work-in-progress, pupilware-M: Cognitive load estimation using unmodified smartphone cameras
CN113506274A (zh) 基于视觉显著性差异图的用于人体认知状况的检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 510000 no.2-8, North Street, Nancun Town, Panyu District, Guangzhou City, Guangdong Province

Applicant after: Guangzhou huiruisitong Technology Co.,Ltd.

Address before: No.405, no.28-29, Jinyuan Road, Banqiao Village, Nancun Town, Panyu District, Guangzhou, Guangdong 510000

Applicant before: GUANGZHOU HUIRUI SITONG INFORMATION TECHNOLOGY Co.,Ltd.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200602