CN109522815B - 一种专注度评估方法、装置及电子设备 - Google Patents
一种专注度评估方法、装置及电子设备 Download PDFInfo
- Publication number
- CN109522815B CN109522815B CN201811259091.5A CN201811259091A CN109522815B CN 109522815 B CN109522815 B CN 109522815B CN 201811259091 A CN201811259091 A CN 201811259091A CN 109522815 B CN109522815 B CN 109522815B
- Authority
- CN
- China
- Prior art keywords
- concentration
- evaluation
- degree
- stage
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及教育技术领域,尤其涉及一种专注度评估方法、装置及电子设备。该方法包括:获取应用场景及评估对象的图像数据;根据所述图像数据获取专注度评估阶段和至少两个专注度参数;基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。该实施方式能够对人的专注度进行自动化监测,不需要增加额外的设备,提高了用户舒适度,降低了检测成本;另外,在进行专注度计算时,增加了专注度参数的个数,由此提高了所获得的专注度的准确率;最后,计算专注度时是同时考虑专注度评估阶段和专注度参数的,通过考虑不同阶段评估对象的表现会不同,从而增强了所获得的专注度的科学性和代表性。
Description
【技术领域】
本发明涉及教育技术领域,尤其涉及一种专注度评估方法、装置及电子设备。
【背景技术】
专注度是判别人工作和学习效率的有效方式,专注度评估在数字教学等领域中有着重要意义。例如,在课堂教学上,通过评估学生的专注度,能够帮助学生回顾自身在课堂上不认真的时期,以帮助学生反思问题所在,另外,还能让老师及时掌握学生的上课情况并相应地调整教学策略。
目前,评估专注度常用的方法包括:第一类、专家在线监测方法;第二类、通过可穿戴设备监测评估对象的眼睛视线、脑电波等数据,从而根据这些数据计算专注度。
然而,上述第一类方法缺乏自动化监测,容易受主观因素影响,所获得的专注度的准确率较低;上述第二类方法需要评估对象额外佩戴相关设备,影响其自由和舒适性,并且增加了检测成本。
【发明内容】
本发明要解决的技术问题是提供一种专注度评估方法、装置及电子设备,以解决相关技术在检测专注度时存在准确率低、舒适性差以及成本高的技术问题。
本发明实施例的一个方面,提供一种专注度评估方法,所述方法包括:
获取应用场景及评估对象的图像数据;
根据所述图像数据获取专注度评估阶段和至少两个专注度参数;
基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。
可选地,所述根据所述图像数据获取专注度评估阶段包括:
获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;
基于所述文本数据,提取与所述专注度评估阶段相关的关键词;
根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、练习阶段以及讨论阶段。
可选地,所述根据所述图像数据获取至少两个专注度参数包括:
根据所述图像数据提取人脸图像;
根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;
对所述人脸图像进行预处理;
根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
可选地,所述专注度参数包括抬头程度,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:
基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;
计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
可选地,所述基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估包括:
根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;
获取所述专注度评估阶段中的所述专注度参数对应的权重系数;
将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
本发明实施例的另一方面,提供一种专注度评估装置,所述装置包括:
第一数据获取模块,用于获取应用场景及评估对象的图像数据;
第二数据获取模块,用于根据所述图像数据获取专注度评估阶段和至少两个专注度参数;
专注度计算模块,用于基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。
可选地,所述第二数据获取模块具体用于:
获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;
基于所述文本数据,提取与所述专注度评估阶段相关的关键词;
根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、课堂练习阶段以及讨论阶段。
可选地,所述第二数据获取模块具体用于:
根据所述图像数据提取人脸图像;
根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;
对所述人脸图像进行预处理;
根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
可选地,所述专注度参数包括抬头程度,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:
基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;
计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
可选地,所述专注度计算模块包括:
参数关联单元,用于根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;
权重系数获取单元,用于获取所述专注度评估阶段中的所述专注度参数对应的权重系数;
专注度评估单元,用于将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
本发明实施例的又一方面,提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
在本发明实施例中,通过获取应用场景和评估对象的图像数据,根据该图像数据确定专注度评估阶段,并且获取至少两个专注度参数,从而根据确定的专注度评估阶段和获得的至少两个专注度参数计算评估对象的专注度。该实施方式能够对人的专注度进行自动化监测,不需要增加额外的设备,提高了用户舒适度,降低了检测成本;另外,在进行专注度计算时,增加了专注度参数的个数,由此提高了所获得的专注度的准确率;最后,计算专注度时是同时考虑专注度评估阶段和专注度参数的,通过考虑不同阶段评估对象的表现会不同,从而增强了所获得的专注度的科学性和代表性。
【附图说明】
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例提供的专注度评估方法的一种运行环境的示意图;
图2是本发明实施例提供的一种专注度评估方法的流程示意图;
图3是本发明实施例提供的一种专注度评估方法中根据所述图像数据获取专注度评估阶段的方法的流程示意图;
图4是本发明实施例提供的一种专注度评估方法中根据所述图像数据获取至少两个专注度参数的方法的流程示意图;
图5是本发明实施例提供的一种专注度评估方法中一种人脸图像的示意图;
图6是本发明实施例提供的一种专注度评估方法中基于所述专注度评估阶段和所述至少两个专注度参数进行专注度计算的方法的流程示意图;
图7是本发明实施例提供的一种专注度评估装置的结构示意图;
图8是本发明实施例提供的执行专注度评估方法的电子设备40的硬件结构示意图。
【具体实施方式】
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互组合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块的划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置示意图中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
为了方便读者更好地理解本发明,在对本发明的发明思想进行描述之前,先对本发明的运行环境进行描述,请参阅图1,图1是本发明实施例的一种运行环境示意图,运行环境包括图像采集单元10和控制处理单元20。
其中,图像采集单元10可以是摄像机、照相机、录像机等,其用于采集应用场景和评估对象的图像数据,并将采集到的图像数据发送至控制处理单元20。可以根据不同的应用场景来布置图像采集单元10,比如,当应用场景为课堂教学时,可以在教室的不同位置布置图像采集单元10,其数量和具体的位置根据当前的环境确定。此外,所述图像采集单元10可以以一定的频率或者模式采集图像数据。
控制处理单元20可以是任何合适类型的电子运算设备,比如多核中央处理器、计算机、服务器等。所述控制处理单元20可以接收一系列的图像信息,比如图像采集单元10采集的图像,根据采集的图像实现对当前应用场景中评估对象的专注度检测。具体地,例如,所述控制处理单元20获取应用场景和评估对象的图像数据,根据所述图像数据获取专注度评估阶段和至少两个专注度参数,基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。
图1中所述图像采集单元10与所述控制处理单元20独立设置,需要说明的是,所述图像采集单元10也可以集成设置于所述控制处理单元20中,图像采集单元10可以通过无线/有线通信方式与控制处理单元20之间建立通信连接。
需要说明的是,图1中仅示出了3个图像采集单元10和1个控制处理单元20,本领域技术人员可以理解的是,该专注度评估方法的应用环境还可以包括任意数量的图像采集单元10和控制处理单元20。
结合上述应用环境,如图2所示,进一步阐述本发明实施例提供的专注度评估方法的具体过程:
步骤11、获取应用场景及评估对象的图像数据;
其中,所述应用场景包括课堂教学、办公室会议、讲座以及在线视频学习等。所述评估对象即处于所述应用场景中的人,其包括学生、参会人员等。所述图像数据即所述应用场景对应的图像数据,其包括音频、视频、图片等。比如,当所述应用场景为课堂教学时,所述图像数据包括学生上课时的视频数据,该视频数据中包括学生的人脸图像、老师授课的音视频等;当所述应用场景为办公室会议时,所述图像数据包括开会时的视频数据,该视频数据中包括参会人员的人脸图像、主持会议人员的音视频等。
其中,可以通过摄像头采集所述图像数据,执行本方法的电子设备从所述摄像头获取所述图像数据。获取所述应用场景及评估对象的图像数据时可以是周期性的获取所述应用场景及评估对象的图像数据,该周期的大小可以由用户自定义设置,或者系统设置。
步骤12、根据所述图像数据获取专注度评估阶段和至少两个专注度参数;
在本实施例中,所述专注度评估阶段即所述应用场景的整个过程所对应的时期,其可以是所述应用场景的整个过程对应的一个时期,也可以是所述应用场景的整个过程对应的若干个时期。当其为所述应用场景的整个过程对应的若干个时期时,所述专注度评估阶段包括若干个,即所述应用场景的整个过程被划分为不同的几个阶段。
比如,当所述应用场景为课堂教学时,整个的课堂教学过程可以是一个专注度评估阶段;或者,根据教学阶段将整个的课堂教学过程划分为不同的时期,每个所述时期即对应一个专注度评估阶段。
在本实施例中,如图3所示,所述根据所述图像数据获取专注度评估阶段包括:
步骤201、获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;其中,可以从视频中提取音频数据,然后将音频数据转化成文本进行分析,音频数据转化成文本数据的具体过程可以参考相关技术中的记载。
步骤202、基于所述文本数据,提取与所述专注度评估阶段相关的关键词;其中,与所述专注度评估阶段相关的关键词具体可以是与所述应用场景相关的词语,通过这些词语能够区分出不同的阶段,比如,当所述应用场景为课堂教学时,这些词语包括“这节课主要介绍”、“回答问题”、“做练习”、“自由讨论”等等。
其中,执行上述步骤时可以周期性的来获取所述关键词,该周期的具体值可以根据不同的老师的上课习惯和/或不同课程的特点来确定,比如,该老师习惯在课堂的前5分钟提问复习上节课内容,中间的30分钟进行授课,最后的10分钟由学生自由讨论,那么所述关键词包括“回答问题”、“授课”、“自由讨论”,由此对应三个专注度评估阶段。
其中,周期性的获取所述关键词的好处在于,不用一直去轮询获取关键词,从而不用占用各种资源,比如内存、CPU、网络以及程序里面的变量等,从而降低了流量消耗,节约了资源。
步骤203、根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、练习阶段以及讨论阶段。
在本实施例中,获取到所述关键词后,可以将所述关键词转化成特征向量,然后使用预设的算法(比如支持向量机等分类算法)对所述特征向量进行分类,从而判别出所述关键词对应的专注度评估阶段。其中,具体可以将所述专注度评估阶段划分为讲授阶段、互动阶段、练习阶段以及讨论阶段。当然,在实际应用中所述专注度评估阶段可以不仅仅包括这几个阶段,还可以是其他更多的阶段,另外,专注度评估阶段也可以只是这几个阶段中的某一个阶段。例如,在当前的应用场景为课堂教学时,所述专注度评估阶段具体包括:老师讲课学生听课阶段、老师提问学生回答阶段、课堂练习阶段以及课堂讨论阶段。
其中,所述专注度参数即用于评估评估对象的专注度的参数。在本实施例中,首先对所述专注度参数进行定义,所述专注度参数包括情感状态和注意力状态两个方面,其中,情感状态主要是对评估对象的面部表情进行分析,比如将面部表情分为中立、笑脸、苦脸三类,其分别对应的专注度程度为高、中、低三种情况。注意力状态则可以通过不同的视觉线索来检测,其包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况等。例如,可以通过下述表1对所述专注度参数进行相关的定义。
表1
在上述表1中,所述抬头程度可以通过区间[0,1]中的数值表示,取值的大小反应抬头程度的高低,比如数值越大抬头越高等;所述嘴唇活动情况可以通过0和1表示,比如0表示说话,1表示沉默等;所述眼睛闭合程度可以通过区间[0,1]中的数值表示,取值的大小反应眼睛闭合程度的大小,比如,数值越大眼睛睁开的程度越大等;所述玩手机情况可以通过0和1表示,比如0表示没有玩手机,1表示玩手机等;所述面部表情可以通过数值0、1、2分别表示,比如0表示苦脸,1表示笑脸,2表示中立等。
具体的,如图4所示,所述根据所述图像数据获取至少两个专注度参数包括:
步骤301、根据所述图像数据提取人脸图像;
其中,可以从所述图像数据中的视频数据中每间隔一定时间进行提取一帧图像,然后应用人脸检测算法检测出图像中的人脸,所述人脸检测算法可以是多任务卷积神经网络(Multi-task Convolutional Neural Network,MTCNN)算法等。
步骤302、根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;
其中,根据人脸图像进行人脸识别的具体过程可以是,预先建立好人脸库,通过特征对比的方法来识别人脸的身份,或者采用深度学习的方法;来识别人脸的身份,比如,使用经过人脸库预先训练好的神经网络,如利用FaceNet等来进行人脸识别,具体的识别过程可以参考相关技术中的记载,在此不再赘述。
步骤303、对所述人脸图像进行预处理;所述预处理包括对人脸图像进行滤波处理,以去掉运动模糊和光照的影响,提高准确率。
步骤304、根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
其中,所述专注度参数包括抬头程度,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
其中,基于所述预处理后的人脸图像获取长度参数具体可以是,检测该人脸图像对应的三维的人脸关键点坐标,该人脸关键点坐标包括左、右眼以及嘴巴区域的中心坐标,根据左、右眼和嘴巴区域的中心坐标进行姿态矫正、对齐等,然后计算三维的正脸投影到二维平面的长度。例如,如图5所示,Len表示正脸长度,即从两只眼睛的中心到嘴巴区域的中心的长度,Len原始为所述评估对象在标准情况下(即正对着相机时的情况,此时正脸长度最大)的原始正脸长度。可以使用下述公式计算抬头程度,其中对于同一个评估对象,Len越长表示评估对象的抬头程度越高。
当所述专注度参数包括嘴唇活动情况时,基于所述预处理后的人脸图像获取所述嘴唇活动情况的过程可以是,根据嘴唇区域附近的像素值的大小以及标准差来判断嘴唇的活动情况。具体地,首先对预处理后的人脸图像使用基于边缘信息的检测方法检测出嘴唇区域,然后应用能量检测器和平均器来确定说话与沉默的帧位置,从而确定评估对象的嘴唇活动情况,可以采用1表示沉默,0表示说话。另外,由于大部分的虚警情况是由于嘴巴张开所导致,例如打哈欠等导致嘴巴张开而误判为说话,但这一情况仍然符合评估对象不专注的行为表现。
当所述专注度参数包括眼睛闭合程度时,基于所述预处理后的人脸图像获取所述眼睛闭合程度的过程可以是,首先使用人脸检测方法定位出人脸图像中眼睛的区域,然后使用自适应阈值直方图增强技术并且选择合适的阈值对眼睛区域进行虹膜区域分割,得到二值化的虹膜图像,接着根据分割结果,使用分割区域的连通分量,计算边界框的纵横比,从而确定眼睛的闭合程度。例如,同样请参阅图5,其中h表示眼睛的高度,w表示眼睛的宽度,那么,
当所述专注度参数包括玩手机情况时,基于所述预处理后的人脸图像获取玩手机情况的过程包括:由于检测玩手机情况的目标是在手机出现在画面上时,检测评估对象的手上或者预设区域内有没有手机,因此可以将包含手机的区域作为感兴趣区域(ROI),收集标记有ROI的图像作为正样本,没有ROI的图像作为负样本,建立数据库。在检测时,通过提取Haar特征,然后训练Viola&Jones级联分类器进行目标检测,或者输入图像,利用目前比较先进的Faster-RCNN网络来检测图像是否含有ROI,从而获取评估对象的玩手机情况。其中,具体的过程可以参考相关技术。
当所述专注度参数包括面部表情时,基于所述预处理后的人脸图像获取面部表情的过程包括:提取所述人脸图像中的纹理特征,比如LBP(Local Binary Pattern,局部二值模式)、HOG(Histogram of Oriented Gradient,方向梯度直方图)或者Gabor等特征,然后使用SVM(Support Vector Machine,支持向量机)或者LDA(Linear DiscriminantAnalysis,线性判别分析)等方法对表情特征进行分类。基于所述预处理后的人脸图像获取面部表情的过程还包括:将预处理后的人脸图像直接放进卷积神经网络模型进行训练,从而得到所属的表情类别。
需要说明的是,在本实施例中并不仅限于上述方法来检测抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况以及面部表情,还可以采用其他方法来检测这些专注度参数。
在其他一些实施例中,当所述专注度评估阶段包含多个时,在根据所述图像数据获取所述专注度评估阶段和所述至少两个专注度参数后,还可以基于不同的专注度评估阶段选择不同的专注度参数,从而根据选择的专注度参数对其对应的专注度评估阶段中所述评估对象的专注度进行评估。其中,根据所述专注度评估阶段选择不同的专注度参数具体包括,确定所述专注度评估阶段的主题关键词,根据所述主题关键词选择专注度参数。所述主题关键词可以从所述专注度评估阶段对应的名称中提取,比如,专注度评估阶段为“讲授阶段”,通过语义分析等方法确定主题关键词为“讲授”,分析“讲授”这一主题关键词的语义,从而得出评估对象的抬头程度的高低能够直接反应其专注度,因此确定专注度参数包括抬头程度,那么在“讲授阶段”时,用“抬头程度”来评估所述评估对象的专注度。再比如,在“互动阶段”时选择“嘴唇活动情况”来评估所述评估对象的专注度等。在这里,通过为不同的专注度评估阶段选择不同的专注度参数,从而能够提高专注度评估的准确性和科学性。
步骤13、基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。
其中,如图6所示,基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估包括:
步骤401、根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;
在本实施例中以时间为线索将相同时间段的专注度评估阶段和专注度参数关联起来,从而能够确定在当前这个专注度评估阶段获取到了哪些专注度参数。其中,所述时间具体可以是分别检测所述专注度评估阶段和所述专注度参数时对应的时间。
步骤402、获取所述专注度评估阶段中的所述专注度参数对应的权重系数;
其中,所述专注度参数对应的权重系数可以人为的自定义,也可以基于当前的应用场景定义所述权重系数,比如应用场景是课堂教学,并且教学状态是老师授课,那么可以定义抬头程度对应的权重系数最高,等。
步骤403、将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
具体地,所述专注度S为:
其中,xi表示提取到的专注度参数,αi表示该专注度参数对应的权重系数,n表示专注度参数的个数。
在不同的专注度评估阶段,评估对象的专注度不同,例如,下述表2以课堂教学为例,给出了学生在不同的专注度评估阶段的高专注度的表现形式。
表2
在相应的教学阶段,如果高专注度所对应的指标取值与原指标的意义相反,那么应先将指标数值置反,然后再代入上述专注度计算公式进行计算。
上述过程可以计算出每个专注度评估阶段中所述评估对象的专注度,从而可以对每个专注度评估阶段的评估对象的专注度进行评估、分析,帮助评估对象提升自身的专注度,特别是在课堂教学时,老师可以根据每个细分的阶段分析学生专注度低的原因,从而调整教学策略,提高学生参与度和注意力,改善学生的学习过程,提升教学质量。另外,还可以将每个专注度评估阶段对应的专注度进行求和运算,得到总的专注度,以此来评估评估对象在整个过程中的专注度情况。
本发明实施例提供了一种专注度评估方法,该方法通过获取应用场景的图像数据,根据该图像数据确定专注度评估阶段,并且获取至少两个专注度参数,从而根据确定的专注度评估阶段和获得的至少两个专注度参数计算专注度。该实施方式能够对人的专注度进行自动化监测,不需要增加额外的设备,提高了用户舒适度,降低了检测成本;另外,在进行专注度计算时,增加了专注度参数的个数,由此提高了所获得的专注度的准确率;最后,计算专注度时是同时考虑专注度评估阶段和专注度参数的,通过考虑不同阶段评估对象的表现会不同,从而增强了所获得的专注度的科学性和代表性。
请参阅图7,图7是本发明实施例提供的一种专注度评估装置的结构示意图。如图7所示,所述装置30包括第一数据获取模块31、第二数据获取模块32以及专注度计算模块33。
其中,第一数据获取模块31,用于获取应用场景及评估对象的图像数据;第二数据获取模块32,用于根据所述图像数据获取专注度评估阶段和至少两个专注度参数;专注度计算模块33,用于基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估。
其中,所述应用场景包括课堂教学、办公室会议、讲座以及在线视频学习。
在本实施例中,所述第二数据获取模块32具体用于:获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;基于所述文本数据,提取与所述专注度评估阶段相关的关键词;根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、练习阶段以及讨论阶段。所述第二数据获取模块32具体用于:根据所述图像数据提取人脸图像;根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;对所述人脸图像进行预处理;根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
其中,当所述专注度参数包括抬头程度时,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
在本实施例中,同样请参阅图7,所述专注度计算模块33包括参数关联单元331、权重系数获取单元332以及专注度评估单元333。参数关联单元331,用于根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;权重系数获取单元332,用于获取所述专注度评估阶段中的所述专注度参数对应的权重系数;专注度评估单元333,用于将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
在本实施例中,第一数据获取模块31将获取到的应用场景和评估对象的图像数据发送至第二数据获取模块32,第二数据模块32根据图像数据确定专注度评估阶段,并且获取至少两个专注度参数,专注度计算模块33从第二数据模块32获取所述专注度评估阶段和所述至少两个专注度参数,根据所述专注度评估阶段和所述至少两个专注度参数评估所述评估对象的专注度。
值得说明的是,上述装置内的模块、单元之间的信息交互、执行过程等内容,由于与本发明的方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本发明实施例提供了一种专注度评估装置,该装置通过获取应用场景和评估对象的图像数据,根据该图像数据确定专注度评估阶段,并且获取至少两个专注度参数,从而根据确定的专注度评估阶段和获得的至少两个专注度参数计算专注度。该实施方式能够对人的专注度进行自动化监测,不需要增加额外的设备,提高了用户舒适度,降低了检测成本;另外,在进行专注度计算时,增加了专注度参数的个数,由此提高了所获得的专注度的准确率;最后,计算专注度时是同时考虑专注度评估阶段和专注度参数的,通过考虑不同阶段评估对象的表现会不同,从而增强了所获得的专注度的科学性和代表性。
请参阅图8,图8是本发明实施例提供的执行专注度评估方法的电子设备40的硬件结构示意图,如图8所示,该电子设备40包括:
一个或多个处理器41以及存储器42,图8中以一个处理器41为例。
处理器41和存储器42可以通过总线或者其他方式连接,图8中以通过总线连接为例。
存储器42作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的专注度评估方法对应的程序指令/模块(例如,附图7所示的第一数据获取模块31、第二数据获取模块32以及专注度计算模块33)。处理器41通过运行存储在存储器42中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的专注度评估方法。
存储器42可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据专注度评估装置的使用所创建的数据等。此外,存储器42可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器42可选包括相对于处理器41远程设置的存储器,这些远程存储器可以通过网络连接至专注度评估装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器42中,当被所述一个或者多个处理器41执行时,执行上述任意方法实施例中的专注度评估方法,例如,执行以上描述的图2中的方法步骤11至步骤13,图3中的方法步骤201至步骤203,图4中的方法步骤301至步骤304,图6中的方法步骤401至步骤403,实现图7中的模块31-33,单元331-333的功能。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
本发明实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机、多媒体手机、功能性手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等。
(3)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(4)其他具有数据交互功能的电子装置。
本发明实施例提供了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被电子设备执行上述任意方法实施例中的专注度评估方法,例如,执行以上描述的图2中的方法步骤11至步骤13,图3中的方法步骤201至步骤203,图4中的方法步骤301至步骤304,图6中的方法步骤401至步骤403,实现图7中的模块31-33,单元331-333的功能。
本发明实施例提供了一种计算机程序产品,包括存储在非易失性计算机可读存储介质上的计算程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时时,使所述计算机执行上述任意方法实施例中的专注度评估方法,例如,执行以上描述的图2中的方法步骤11至步骤13,图3中的方法步骤201至步骤203,图4中的方法步骤301至步骤304,图6中的方法步骤401至步骤403,实现图7中的模块31-33,单元331-333的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件来实现。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种专注度评估方法,其特征在于,所述方法包括:
获取应用场景及评估对象的图像数据;
根据所述图像数据获取专注度评估阶段和至少两个专注度参数;
基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估;
所述基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估包括:
根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;
获取所述专注度评估阶段中的所述专注度参数对应的权重系数;
将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据获取专注度评估阶段包括:
获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;
基于所述文本数据,提取与所述专注度评估阶段相关的关键词;
根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、练习阶段以及讨论阶段。
3.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据获取至少两个专注度参数包括:
根据所述图像数据提取人脸图像;
根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;
对所述人脸图像进行预处理;
根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
4.根据权利要求3所述的方法,其特征在于,所述专注度参数包括抬头程度,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:
基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;
计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
5.一种专注度评估装置,其特征在于,所述装置包括:
第一数据获取模块,用于获取应用场景及评估对象的图像数据;
第二数据获取模块,用于根据所述图像数据获取专注度评估阶段和至少两个专注度参数;
专注度计算模块,用于基于所述专注度评估阶段和所述至少两个专注度参数对所述评估对象进行专注度评估;
所述专注度计算模块包括:
参数关联单元,用于根据时间关联所述专注度评估阶段和所述专注度参数,从而确定所述专注度评估阶段对应的专注度参数;
权重系数获取单元,用于获取所述专注度评估阶段中的所述专注度参数对应的权重系数;
专注度评估单元,用于将所述专注度参数和所述专注度参数对应的权重系数进行乘积求和运算,从而评估所述评估对象在所述专注度评估阶段对应的专注度。
6.根据权利要求5所述的装置,其特征在于,所述第二数据获取模块具体用于:
获取所述图像数据的音频数据,并且将所述音频数据转化成文本数据;
基于所述文本数据,提取与所述专注度评估阶段相关的关键词;
根据所述关键词和预设的算法确定所述关键词对应的专注度评估阶段,其中,所述专注度评估阶段包括讲授阶段、互动阶段、练习阶段以及讨论阶段。
7.根据权利要求5所述的装置,其特征在于,所述第二数据获取模块具体用于:
根据所述图像数据提取人脸图像;
根据所述人脸图像进行人脸识别,以确定所述评估对象的身份;
对所述人脸图像进行预处理;
根据所述预处理后的人脸图像,获取所述评估对象的专注度参数,其中,所述专注度参数包括抬头程度、嘴唇活动情况、眼睛闭合程度、玩手机情况、面部表情中的至少两种。
8.根据权利要求7所述的装置,其特征在于,所述专注度参数包括抬头程度,所述根据所述预处理后的人脸图像,获取所述评估对象的专注度参数包括:
基于所述预处理后的人脸图像获取长度参数,所述长度参数为所述人脸图像中两只眼睛的中心与嘴巴区域中心的长度;
计算所述长度参数和所述人脸图像的原始长度参数的百分比,所述百分比即所述评估对象的抬头程度,其中,所述人脸图像的原始长度为所述人脸图像对应的评估对象为正脸时两只眼睛的中心与嘴巴区域中心的长度。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至4任一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811259091.5A CN109522815B (zh) | 2018-10-26 | 2018-10-26 | 一种专注度评估方法、装置及电子设备 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811259091.5A CN109522815B (zh) | 2018-10-26 | 2018-10-26 | 一种专注度评估方法、装置及电子设备 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN109522815A CN109522815A (zh) | 2019-03-26 |
| CN109522815B true CN109522815B (zh) | 2021-01-15 |
Family
ID=65772587
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201811259091.5A Active CN109522815B (zh) | 2018-10-26 | 2018-10-26 | 一种专注度评估方法、装置及电子设备 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN109522815B (zh) |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110175501B (zh) * | 2019-03-28 | 2023-04-07 | 重庆电政信息科技有限公司 | 基于人脸识别的多人场景专注度识别方法 |
| CN112651303A (zh) * | 2019-04-02 | 2021-04-13 | 中国计量大学上虞高等研究院有限公司 | 学习注意力检测与预判系统 |
| CN110163100B (zh) * | 2019-04-17 | 2022-04-01 | 中国电子科技网络信息安全有限公司 | 一种防拍照显示器 |
| CN111860033A (zh) * | 2019-04-24 | 2020-10-30 | 北京三好互动教育科技有限公司 | 一种注意力识别方法和装置 |
| CN110148075A (zh) * | 2019-06-19 | 2019-08-20 | 重庆工商职业学院 | 一种基于人工智能的学习评价方法及装置 |
| CN110458113A (zh) * | 2019-08-14 | 2019-11-15 | 旭辉卓越健康信息科技有限公司 | 一种人脸非配合场景下的小人脸识别方法 |
| CN112418572A (zh) * | 2019-08-20 | 2021-02-26 | 成都易腾创想智能科技有限公司 | 一种基于表情分析技术的会议质量评估系统及方法 |
| CN110765987B (zh) * | 2019-11-27 | 2022-05-17 | 北京工业大学 | 创新行为特征的量化方法、装置和电子设备 |
| CN111160239A (zh) * | 2019-12-27 | 2020-05-15 | 中国联合网络通信集团有限公司 | 专注度评估方法和装置 |
| CN111144321B (zh) * | 2019-12-28 | 2023-06-09 | 北京如布科技有限公司 | 专注度检测方法、装置、设备和存储介质 |
| CN111179133B (zh) * | 2019-12-30 | 2020-09-25 | 智慧校园(广东)教育科技有限公司 | 一种智慧课堂交互系统 |
| CN111754368A (zh) * | 2020-01-17 | 2020-10-09 | 天津师范大学 | 一种高校教学评估方法及基于边缘智能的高校教学评估系统 |
| CN111091733B (zh) * | 2020-03-19 | 2020-06-30 | 浙江正元智慧科技股份有限公司 | 一种教师实时教学成果辅助检验系统 |
| CN113591515B (zh) * | 2020-04-30 | 2024-04-05 | 百度在线网络技术(北京)有限公司 | 专注度处理方法、装置及存储介质 |
| CN111970471B (zh) * | 2020-06-30 | 2024-06-11 | 视联动力信息技术股份有限公司 | 基于视频会议的参会人员评分方法、装置、设备及介质 |
| CN111914694A (zh) * | 2020-07-16 | 2020-11-10 | 哈尔滨工程大学 | 一种基于人脸识别听课质量检测方法 |
| CN114155566A (zh) * | 2020-09-04 | 2022-03-08 | 上海惠芽信息技术有限公司 | 播放内容的评估方法、系统及电子设备 |
| CN112116841A (zh) * | 2020-09-10 | 2020-12-22 | 广州大学 | 一种基于深度学习的个性化远程教育系统及方法 |
| CN112329643B (zh) * | 2020-11-06 | 2021-06-04 | 重庆第二师范学院 | 一种学习效率检测方法、系统、电子设备及介质 |
| CN112381001A (zh) * | 2020-11-16 | 2021-02-19 | 四川长虹电器股份有限公司 | 基于专注度的智能电视用户识别方法及装置 |
| CN112560638A (zh) * | 2020-12-11 | 2021-03-26 | 上海明略人工智能(集团)有限公司 | 基于人脸识别和行为检测的会场专注评估方法及系统 |
| CN113139439B (zh) * | 2021-04-06 | 2022-06-10 | 广州大学 | 一种基于人脸识别的在线学习专注度评价方法及装置 |
| CN113393160A (zh) * | 2021-07-09 | 2021-09-14 | 北京市博汇科技股份有限公司 | 一种课堂专注度分析方法、装置、电子设备及介质 |
| CN113783709B (zh) * | 2021-08-31 | 2024-03-19 | 重庆市易平方科技有限公司 | 基于会议系统的参会人员监测处理方法、装置、智能终端 |
| CN114120456B (zh) * | 2021-11-17 | 2025-09-30 | 湖北大学 | 一种学习专注力检测方法、计算机设备及可读介质 |
| CN114267072A (zh) * | 2021-12-27 | 2022-04-01 | 海信集团控股股份有限公司 | 电子设备及专注度确定方法 |
| CN116543446B (zh) * | 2023-05-11 | 2023-09-29 | 浙江优图教育科技有限公司 | 一种基于ai技术的线上学习专注度识别分析方法 |
| CN119380382A (zh) * | 2024-03-11 | 2025-01-28 | 重庆大学 | 一种基于深度神经网络的人群专注度实时评估方法 |
| CN118413627B (zh) * | 2024-04-29 | 2024-10-01 | 广州承道信息科技有限公司 | 基于云端数据库的视频会议远程交互系统 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
| CN105825189A (zh) * | 2016-03-21 | 2016-08-03 | 浙江工商大学 | 一种用于大学生到课率及上课专注度自动分析的装置 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102135983A (zh) * | 2011-01-17 | 2011-07-27 | 北京邮电大学 | 基于网络用户行为的群体划分方法和装置 |
| KR20170136160A (ko) * | 2016-06-01 | 2017-12-11 | 주식회사 아이브이티 | 시청자 몰입도 평가 시스템 |
| CN106128188A (zh) * | 2016-08-31 | 2016-11-16 | 华南理工大学 | 桌面教育专注度分析系统及其分析方法 |
| CN107918755A (zh) * | 2017-03-29 | 2018-04-17 | 广州思涵信息科技有限公司 | 一种基于人脸识别技术的实时专注度分析方法及系统 |
| CN108021893A (zh) * | 2017-12-07 | 2018-05-11 | 浙江工商大学 | 一种用于判断学生上课专注度的算法 |
-
2018
- 2018-10-26 CN CN201811259091.5A patent/CN109522815B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
| CN105825189A (zh) * | 2016-03-21 | 2016-08-03 | 浙江工商大学 | 一种用于大学生到课率及上课专注度自动分析的装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN109522815A (zh) | 2019-03-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109522815B (zh) | 一种专注度评估方法、装置及电子设备 | |
| CN107292271B (zh) | 学习监控方法、装置及电子设备 | |
| EP3916627A1 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
| CN110945522B (zh) | 一种学习状态的判断方法、装置及智能机器人 | |
| CN111046819B (zh) | 一种行为识别处理方法及装置 | |
| CN111898881B (zh) | 一种课堂教学质量评估方法、装置、设备及存储介质 | |
| CN112528777B (zh) | 一种用于课堂环境下的学生面部表情识别方法及系统 | |
| CN113139439B (zh) | 一种基于人脸识别的在线学习专注度评价方法及装置 | |
| CN113705510A (zh) | 目标识别跟踪的方法、装置、设备及存储介质 | |
| Verma et al. | Automated smart artificial intelligence-based proctoring system using deep learning: P. Verma etal. | |
| CN111523445A (zh) | 一种基于改进的Openpose模型和面部微表情的考试行为检测方法 | |
| Huang et al. | Research on learning state based on students’ attitude and emotion in class learning | |
| Gadkar et al. | Online examination auto-proctoring system | |
| CN118298360A (zh) | 学习者课堂学习状况监测分析方法、设备及存储介质 | |
| Iqbal et al. | Enhancing online exam security: Deep learning algorithms for cheating detection | |
| CN116682052B (zh) | 一种基于云服务的教学服务平台 | |
| CN116261009B (zh) | 智能转化影视受众的视频检测方法、装置、设备及介质 | |
| CN117409474A (zh) | 课堂行为表现分析方法、装置及设备 | |
| Gupta et al. | An adaptive system for predicting student attentiveness in online classrooms | |
| CN117315771A (zh) | 使用手机行为识别方法、装置、电子设备及存储介质 | |
| Li | Classroom learning behavior recognition method for English teaching students based on adaptive feature fusion | |
| Fauzi et al. | Development of active liveness detection system based on deep learning ActivenessNet to overcome face spoofing | |
| CN117011568A (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
| CN117523625A (zh) | 视频人物识别方法、装置、设备及存储介质 | |
| CN111461249A (zh) | 一种照片打分分析方法及系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| CB02 | Change of applicant information | ||
| CB02 | Change of applicant information |
Address after: Room 1005, Sanhang technology building, northwest Polytechnic University, Gaoxin South 9th Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Applicant after: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. Address before: Room 1005, Sanhang Science and Technology Building, Northwest Polytechnic University, Gaoxin Nanjiu Road, Yuehai Street, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. |
|
| GR01 | Patent grant | ||
| GR01 | Patent grant |