CN105809144A - 一种采用动作切分的手势识别系统和方法 - Google Patents
一种采用动作切分的手势识别系统和方法 Download PDFInfo
- Publication number
- CN105809144A CN105809144A CN201610177623.5A CN201610177623A CN105809144A CN 105809144 A CN105809144 A CN 105809144A CN 201610177623 A CN201610177623 A CN 201610177623A CN 105809144 A CN105809144 A CN 105809144A
- Authority
- CN
- China
- Prior art keywords
- gesture
- data
- module
- segmentation
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明请求保护一种采用动作切分的手势识别系统和方法,涉及机器视觉和人机交互领域,所述方法包括以下步骤:首先检测头部运动,并计算头部姿态变化;然后根据姿态估计信息发送切分信号并判断手势切分始末点,若信号表示主动手势动作切分则在此手势执行的时间间隔内捕捉手势视频帧序列,并对手势帧图像进行预处理和特征提取;若信号表示自动手势动作切分则实时采集视频帧序列并通过分析相邻手势间的运动变化规律自动分析切分点,进行动作切分,再由切分得到的有效元手势序列提取视觉无关特征,并经过具有消除时空差异的手势识别算法得到类型结果。本发明大大减少了连续手势的冗余信息和识别算法的计算开销,提高了手势识别的准确性和实时性。
Description
技术领域
本发明属于数字图像和人机交互领域,尤其是涉及一种采用动作切分的手势识别系统和方法。
背景技术
随着手机触摸操作和人体跟踪识别的发展,人们体会到了手势交互方式具有以人为中心的自然性,简洁性,和直接性等优势,基于人手智能输入的交互界面正在成为新的技术趋势,尤其是随着沉浸式虚拟现实新设备的兴起,各种交互方案被用来提高沉浸式体验,其中以手势交互最为简洁、直接、自然。
手势识别作为一种人机交互手段,已广泛应用于增强现实,虚拟现实,体感游戏等场景,对于这些应用场景,操作手势是随机嵌入在连续动作流当中的,目前许多基于视觉的手势识别系统都假设输入的各个动作间存在停顿或已经切分好的独立手势,而在实时场景下的应用研究相对较少。
公开号为CN102789568B的中国发明专利公开了一种基于深度信息的手势识别方法,通过在每个独立的人体区域上检测出手部轮廓信息,获取手部跟踪的运动轨迹,再利用隐马尔科夫模型对运动轨迹进行建模识别出手势,其在实时分析时限定轨迹长度以过滤手势轨迹。还有的方法是让用户在执行手势的时候通过点击按钮来切分手势的开始点和结束点。
手并非刚体,具有柔性,运动中的手具有形状多变等特点,同一个人的同一种动作在不同观察角度或观察时刻下,其形态和持续时间都会有较大差异,不同的人更难以重现一模一样的动作,因此采用何种手势特征描述对基于视觉手势识别的效果和普适性具有很大影响。目前,手势模型有基于表观的手势模型和基于3D模型的手势模型,公开号为CN102880865B的中国发明专利提供了一种基于肤色与形态特征的动态手势识别方法,其根据人的皮肤颜色在YCrCb颜色空间中的分布特征对图像作阈值切分处理,并用椭圆拟合获得人手肤色块,再标记色块的重心,进而根据重心移动判断手部的移动,达到识别目的。
综上所述,现有的手势识别交互方法存在以下缺点:(1)在实际应用条件下难以在复杂手势流中定位具有操作意义手势的开始和结束关键点;(2)同一种手势由于执行速度不同和动作幅度不同而不可避免地带有时空差异性,对识别的准确率和鲁棒性会造成很大影响。
发明内容
针对以上技术的不足,提出了一种可以提高手势识别的精度以及效率的采用动作切分的手势识别系统及方法。本发明的技术方案如下:一种采用动作切分的手势识别系统,其包括:数据接口模块,数据接口模块包括手势数据流接口组件和头部姿态数据流接口;用于获取并管理头部姿态和手部姿态的原始数据;
头部姿态估计模块,包括特征计算模块和姿态预定义模块,用于对头部姿态数据流接口发送来的原始数据用估计算法处理原始头部姿态数据并输出估计结果给动作分割模块;
动作分割模块,包含自动分割模块、主动分割模块及缓冲区,根据头部姿态估计模块的输出估计结果,采用切分算法对手势数据进行切分处理;
手势识别模块,用于对动作分割模块切分得到的手势序列进行手势识别。
进一步的,所述数据接口模块负责管理头部姿态数据流和手势视频帧数据流,手势采集设备包括深度摄像机或者数据手套,头部姿态采集设备包括深度摄像机或者头戴传感器,所述头部姿态采集设备具有可编程的应用程序接口并能够进行据采集工作。
进一步的,所述头部姿态估计模块所采用的特征描述为头部姿态角,头部姿态采集设备采集的数据经头部朝向向量计算后用来表达头部姿态的欧拉旋转角或面部朝向向量,头部或面部朝向ο(x,y,z)由以下公式求出:ο=z(α)·x(β)·z(γ)·P,其中z(α)表示头部绕参考坐标系z轴旋转α角度值,z(γ)表示头部绕参考坐标系z轴旋转γ角度值,x(β)表示头部绕参考坐标系x轴旋转β角度值,P(1,0,0)表示参考坐标系下的点。
进一步的,所述主动分割模块采用基于头部姿态判定的方式,头部姿态指预先定义的脸部朝向或者头部动作,以代表手势开始的头部姿态作为切分的起始点,以代表手势结束的头部姿态作为切分的结束点;所述自动分割模块采用基于空手势模型的模板匹配方法,根据手势运动变化的速率变化判断不同手势间动作的拐点;自动切分的相关参数有SPOTTING_START切分开始点阈值,SPOTTING_END切分结束点阈值,DURATION手势长度阈值,当某一时刻t的表征手部运动的速率α(t)>SPOTTING_START时标记切分起始点,当α(t)<SPOTTING_END时,标记切分结束点,将切分得到的手势序列长度L(g)与DURATION进行比较,如果切分的手势序列持续时间过短,则丢弃该序列。
进一步的,所述手势识别模块包括特征提取模块、分类模型模块、和匹配识别模块,特征提取模块用于对动作分割得到的数据进行特征提取和计算,分类模型模块用于建立手势分类模型,该模型对计算得到的特征进行训练学习,匹配识别模块用于根据手势输入特征和分类模型中学习到的特征进行匹配识别,该识别结果经量化输出映射为操作指令。
进一步的,所述手势识别模块的匹配识别模块采用采用离散HMM隐马尔科夫模型或者DTW动态时间规整分类算法进行处理并输出识别结果。
进一步的,所述特征提取模块采用将手势关节的局部四元数作为特征向量,计算步骤如下:先求出局部坐标系下的骨骼方向向量,再归一化;进而求出方向向量与三轴单位向量的夹角;得到三轴的夹角后,计算得到手势关节点特征的局部四元数表达。
一种基于所述系统的采用动作切分的手势识别方法,其包括以下步骤:
1)、首先选择一种数据的采集设备,并建立数据接口以提供实时的连续的手势数据源;2)、检测头部运动姿态即首势,并与预先定义的首势类型进行匹配;3)、如果检测到主动动作切分首势则根据开始切分首势信号调用数据接口采集手势数据,根据结束切分首势信号关闭数据接口停止采集数据;4)、如果检测到自动动作切分首势则调用数据接口开始采集数据,同时根据手部运动状态或空手势模型进行手势动作切分;5)、最后用识别算法对切分得到的手势序列进行手势识别。
进一步的,所述步骤4)自动切分的步骤包括:
将连续数据与抽象模板进行初步匹配,令Gt表示一段时长为t的输入手势,其本质是一个特征矩阵,行数为时间t内的采样数,每行为手势特征向量,该向量由所述四元数特征计算得到,模板库(g1,g2,…,gn)表示已知的n种抽象手势模板,S(Gt,gi)度量当前数据流和某种手势模板的相似性;当手部运动停止时,将手势序列Gt与模板(g1,g2,…,gn)特征进行比较,通过HillClimbing算法寻求局部最优解,如果在Gt中检测到已知的手势模板片段,则将其与该模板手势进行比较,若检测到相似点,则两者的相似性就会增加,直到出现相似性下降点即拐点就检测到动作片段的结束点,将其放入备选集中,对具有相似点的其它手势模板进行相同检测步骤,再取备选集中相似度量最大的片段作为切分的始末点,即可将输入手势转化为一组动作元序列。
本发明的优点及有益效果如下:
本发明使用用户无关和视觉无关特征作为手势的特征描述,使得不同的用户可以用相同的手势识别模型而不用额外训练新的手势模板库,通过与基于头部姿态估计的动作切分方法可以有效切分复杂手势序列,减少冗余数据,提高手势识别精度和效率。本发明提出的采用动作切分的手势识别方法和系统,可以提高手势识别的精度以及效率,能有效的解决实时场景下,连续动态手势的时空差异性问题和手势开始到结束间的手势切分问题。
附图说明
图1是本发明提供优选实施例手势识别系统结构框图;
图2为本发明所参考的头部姿态角模型和实施例示意图;
图3为本发明对应的头部姿态估计方法流程图;
图4为本发明动作切分方法中的主动切分方法流程图。
图5为本发明对动作切分方法中的自动切分方法流程图。
图6为本发明采用动作切分的手势识别方法流程图。
具体实施方式
以下结合附图,对本发明作进一步说明:
如图1所示一种采用动作切分的手势识别方法和系统,该系统主要包括:
A1~A14:A1是与数据采集设备相适应的数据接口模块、A2是头部姿态估计模块、A3是动作切分模块、A4是手势识别模块,其中,数据接口模块包含了头部姿态数据流接口组件A5和手势数据流接口组件A6,头部姿态估计模块包含了特征计算组件A7和姿态预定义模板组件A8,动作切分模块包含了自动切分组件A9和主动切分组件A10,其中的缓冲区A11用来存放元手势片段,手势识别模块中包含了手势特征提取组件A12、手势类型与操作指令映射组件A13、经过训练得到的分类模型组件A14。
以沉浸式虚拟现实场景为例,本发明的头部姿态角实施例示意图如图2b所示,头部姿态数据流接口对应的设备为包含惯性传感器的头戴显示器,此类产品在市面上已经有售,且基本都包含姿态角感应功能。头部姿态角模型示意图如图2a所示,头部坐标系相对参考坐标系的三个欧拉角关系反映了头部的姿态:头部坐标系与参考系水平面的夹角为俯仰角θ(pitch),当头部坐标系的正半轴位于过参考坐标系的原点的水平面之上时(抬头),俯仰角为正,否则为负。头部坐标系xb轴在水平面上的投影与参考坐标系xg轴之间的夹角为偏航角ψ(yaw),由xg轴逆时针旋转至头部xb的投影线时,偏航角为正,反之为负。头部坐标系zb轴与通过头部xb轴的铅垂面间的夹角为滚动角φ(roll),头部右歪脖子为正,反之为负。
头部姿态估计算法流程如图3所示。
B1~B3:以[0023]所述头戴传感器为例,B1为通过惯性传感器检测和捕捉头部姿态变化,并用构建的数据接口管理姿态角数据,B2为对所获取的姿态角数据进行特征提取,计算方法如下所示:
ο=z(α)·x(β)·z(γ)·P(1)
其中,ο(x,y,z)表示头部或脸部朝向向量,z(α)表示头部绕参考系z轴旋转α角度,z(γ)表示头部绕参考坐标系z轴旋转γ角度,x(β)表示头部绕x轴旋转β角度,用旋转矩阵表示:
其中,头部绕各轴的旋转角度α,β,γ可由头戴惯性传感器的数据接口获得,将式子(2)—(5)带入(1)式当中即可得到头部朝向向量ο,其用来表示的头部姿态特征。
B6~B5:根据预先定义的头部姿态向量集合Ο(νi)中的模板νi与实时提取的特征向量ο进行匹配,根据距离相似度原理判断ο的姿态类型并输出量化结果,最后根据当前姿态类型判定是否进入切分或者结束切分。
A16~A17:将sobel二次定位结果,输入SVM车牌判断模型,得到真正的车牌块,并输出。
B7:计时器用来记录发生切分姿态的时刻,统计器用来计算在阈值时段内的切分发生次数,通过这两块处理可以对切分信号进行扩充,即通过头部姿态变化或动作来产生切分依据。
动作切分是使手势识别可以有效运用到实时场景如沉浸式虚拟现实中的必要手段,不像实验条件下的孤立手势识别,实时条件更为复杂,是含有过度手势和非操作手势的连续数据流,本发明从有效性和实时性出发,设计了两种切分方法,主动切分法基于头部姿态估计,可以像手势一样发挥用户的主观能动性而又不干扰手的正常操作,其特点是以用户为中心,切分准确度高;自动切分是对主动切分的补充,用于处理有效手势即元手势左右为空手势或停顿明显的简单情况。
如图4所示为主动切分方法的实施流程图:
C1~C5:当连续手势流原始数据通过数据接口引入系统时,根据所述方法判定头部姿态以确定切分点,切分后的数据就是元手势,即有效手势的序列片段。具体来说就是当检测到切分始点信号即头部姿态时调用数据接口将数据当前开始的数据引入待处理数据缓冲区域当中,当检测到切分末端信号时则关闭相关接口,停止对缓冲区的数据引入,切分结束即可得到待处理元手势数据,该数据将被传递给特征提取模块做下一步处理,主动切分模块继续监听来自头部姿态估计模块的切分信号。
如图5所示为自动切分的方法流程图:
D1~D7:连续数据与抽象模板进行初步匹配,Gt表示一段时长为t的动态手势,模板库(g1,g2,…,gn)表示已知的n种抽象手势模板,S(Gt,gi)度量当前数据流和某种手势模板的相似性。当手部运动停止时,将整串数据与模板进行比较,一旦检测到相似点,则两者的相似性就会逐步增加,直到相似性下降出现拐点时就检测到动作片段的结束点,再取全局相似度量最大的串作为切分的始末点,即可将手势转化为一组动作元序列。
如图6所示为采用动作切分的手势识别方法流程图:
E1~E3以沉浸式虚拟现实场景为例,所采用的头部姿态输入设备为带有惯性传感器的可以检测头部姿态角的头戴显示器,手势输入设备是可以进行骨骼跟踪的深度摄像机,通过头部姿态数据接口实时检测头部姿态并将估计结果转化为切分信号,手势数据接口参考切分信号对手势进行主动切分,如执行手势时,用户望向手臂,产生头部旋转变化,则产生开始切分信号,当用户结束手势并同时回正头部时,则产生结束切分信号,此过程对应E9~E12如果用户不想采用主动方式则可以选择进入自动手势切分模式E8,该模式以运动拐点判断切分位置,参考切分点并调用数据接口引入元数据流到数据缓冲区。
E4~E5:将由[0031]获得的元数据进行手势预处理,再根据深度摄像机如Kinect跟踪骨骼得到的手势相关关节点数据进行特征提取计算,本实施例采用手势关节的局部四元数作为特征向量,计算方法如下:
(1)先求出局部坐标系下的骨骼方向向量,再单位化。
(2)再求出方向向量与三轴单位向量的夹角。
(3)得到三轴的夹角后,计算得到局部四元数q。
E6~E7:为了解决时空差异性引起的识别精度下降问题,本实施例采用动态时间规整DTW算法进行模型训练和匹配识别,可以很好的解决时间序列长度不相等的问题,具体过程为给定两条时间序列:R=<r1,r2,…,rm>和T=<t1,t2,…,tn>,DTW通过计算R和T之间的最优秀匹配φ=(φR,φT)使得匹配后对应元素的距离只和最小。对于最优匹配φ,φR=(φ1 R,φ2 R,…φK R),(1≤φi R≤m,1≤i≤K),并且φT=(φ1 T,φ2 T,…φK T),(1≤φi T≤n,1≤i≤K)。时间序列R和T之间的DTW距离定义如下:其中,d(i,j)表示R中第i个元素和T中第j个元素之间的距离,本实施例取d(i,j)=(Li+Lj)/2,其中Li和Lj表示元手势长度。最后通过基于距离的形似度度量来对手势进行分类,本实施例采用最近邻NN分类器进行分类。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (9)
1.一种采用动作切分的手势识别系统,其特征在于,包括:数据接口模块,数据接口模块包括手势数据流接口组件和头部姿态数据流接口;用于获取并管理头部姿态和手部姿态的原始数据;
头部姿态估计模块,包括特征计算模块和姿态预定义模块,用于对头部姿态数据流接口发送来的原始数据用估计算法处理原始头部姿态数据并输出估计结果给动作分割模块;
动作分割模块,包含自动分割模块、主动分割模块及缓冲区,根据头部姿态估计模块的输出估计结果,采用切分算法对手势数据进行切分处理;
手势识别模块,用于对动作分割模块切分得到的手势序列进行手势识别。
2.根据权利要求1所述的采用动作切分的手势识别系统,其特征在于,所述数据接口模块负责管理头部姿态数据流和手势视频帧数据流,手势采集设备包括深度摄像机或者数据手套,头部姿态采集设备包括深度摄像机或者头戴传感器,所述头部姿态采集设备具有可编程的应用程序接口并能够进行据采集工作。
3.根据权利要求1或2所述的采用动作切分的手势识别系统,其特征在于,所述头部姿态估计模块所采用的特征描述为头部姿态角,头部姿态采集设备采集的数据经头部朝向向量计算后用来表达头部姿态的欧拉旋转角或面部朝向向量,头部或面部朝向ο(x,y,z)由以下公式求出:ο=z(α)·x(β)·z(γ)·P,其中z(α)表示头部绕参考坐标系z轴旋转α角度值,z(γ)表示头部绕参考坐标系z轴旋转γ角度值,x(β)表示头部绕参考坐标系x轴旋转β角度值,P(1,0,0)表示参考坐标系下的点。
4.根据权利要求3所述的采用动作切分的手势识别系统,其特征在于,所述主动分割模块采用基于头部姿态判定的方式,头部姿态指预先定义的脸部朝向或者头部动作,以代表手势开始的头部姿态作为切分的起始点,以代表手势结束的头部姿态作为切分的结束点;所述自动分割模块采用基于空手势模型的模板匹配方法,根据手势运动变化的速率变化判断不同手势间动作的拐点;自动切分的相关参数有SPOTTING_START切分开始点阈值,SPOTTING_END切分结束点阈值,DURATION手势长度阈值,当某一时刻t的表征手部运动的速率α(t)>SPOTTING_START时标记切分起始点,当α(t)<SPOTTING_END时,标记切分结束点,将切分得到的手势序列长度L(g)与DURATION进行比较,如果切分的手势序列持续时间过短,则丢弃该序列。
5.根据权利要求4所述的采用动作切分的手势识别系统,其特征在于,所述手势识别模块包括特征提取模块、分类模型模块和和匹配识别模块,特征提取模块用于对动作分割得到的数据进行特征提取和计算,分类模型模块用于建立手势分类模型,该模型对计算得到的特征进行训练学习,匹配识别模块用于根据手势输入特征和分类模型中学习到的特征进行匹配识别,该识别结果经量化输出映射为操作指令。
6.根据权利要求5所述的采用动作切分的手势识别系统,其特征在于,所述手势识别模块的匹配识别模块采用采用离散HMM隐马尔科夫模型或者DTW动态时间规整分类算法进行处理并输出识别结果。
7.根据权利要求5所述的采用动作切分的手势识别系统,其特征在于,所述特征提取模块采用将手势关节的局部四元数作为特征向量,计算步骤如下:先求出局部坐标系下的骨骼方向向量,再归一化;进而求出方向向量与三轴单位向量的夹角;得到三轴的夹角后,计算得到手势关节点特征的局部四元数表达。
8.一种基于权利要求1所述系统的采用动作切分的手势识别方法,其特征在于,包括以下步骤:
1)、首先选择一种数据的采集设备,并建立数据接口以提供实时的连续的手势数据源;2)、检测头部运动姿态即首势,并与预先定义的首势类型进行匹配;3)、如果检测到主动动作切分首势则根据开始切分首势信号调用数据接口采集手势数据,根据结束切分首势信号关闭数据接口停止采集数据;4)、如果检测到自动动作切分首势则调用数据接口开始采集数据,同时根据手部运动状态或空手势模型进行手势动作切分;5)、最后用识别算法对切分得到的手势序列进行手势识别。
9.根据权利要求8所述的采用动作切分的手势识别方法,其特征在于,所述步骤4)自动切分的步骤包括:
将连续数据与抽象模板进行初步匹配,Gt表示一段时长为t的输入手势数据序列,其本质是一个特征矩阵,行数为时间t内的采样数,每行为手势特征向量,该向量由四元数特征计算得到,模板库(g1,g2,…,gn)表示已知的n种抽象手势模板,S(Gt,gi)度量当前数据流和某种手势模板的相似性;当手部运动停止时,将手势序列整串数据Gt与模板(g1,g2,…,gn)进行比较,通过HillClimbing算法寻求局部最优解,如果在Gt中检测到已知的手势模板片段,则将其与该模板手势进行比较,若检测到相似点,则两者的相似性就会增加,直到出现相似性下降点就检测到动作片段的结束点,将其放入备选集中,对具有相似点的其它手势模板进行相同检测步骤,再取备选集中相似度量最大的片段作为切分的始末点,即可将输入手势转化为一组动作元序列。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610177623.5A CN105809144B (zh) | 2016-03-24 | 2016-03-24 | 一种采用动作切分的手势识别系统和方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610177623.5A CN105809144B (zh) | 2016-03-24 | 2016-03-24 | 一种采用动作切分的手势识别系统和方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN105809144A true CN105809144A (zh) | 2016-07-27 |
| CN105809144B CN105809144B (zh) | 2019-03-08 |
Family
ID=56453890
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610177623.5A Active CN105809144B (zh) | 2016-03-24 | 2016-03-24 | 一种采用动作切分的手势识别系统和方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN105809144B (zh) |
Cited By (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106991398A (zh) * | 2017-04-01 | 2017-07-28 | 北京工业大学 | 一种基于图像识别配合图形手套的手势识别方法 |
| CN106998409A (zh) * | 2017-03-21 | 2017-08-01 | 华为技术有限公司 | 一种图像处理方法、头戴显示器以及渲染设备 |
| CN107092349A (zh) * | 2017-03-20 | 2017-08-25 | 重庆邮电大学 | 一种基于RealSense的手语识别系统及方法 |
| CN107092882A (zh) * | 2017-04-19 | 2017-08-25 | 南京大学 | 一种基于子动作感知的行为识别系统及其工作方法 |
| CN107272878A (zh) * | 2017-02-24 | 2017-10-20 | 广州幻境科技有限公司 | 一种适用于复杂手势的识别方法及装置 |
| CN108427194A (zh) * | 2017-02-14 | 2018-08-21 | 深圳梦境视觉智能科技有限公司 | 一种基于增强现实的显示方法及设备 |
| CN108510525A (zh) * | 2018-03-30 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 模板追踪方法、装置、增强现实系统及存储介质 |
| CN108596150A (zh) * | 2018-05-10 | 2018-09-28 | 南京大学 | 一种可排除异常动作的行为识别系统及其工作方法 |
| CN109101879A (zh) * | 2018-06-29 | 2018-12-28 | 温州大学 | 一种vr虚拟课堂教学的姿态交互系统及实现方法 |
| CN109598229A (zh) * | 2018-11-30 | 2019-04-09 | 李刚毅 | 基于动作识别的监控系统及其方法 |
| CN109751998A (zh) * | 2019-01-14 | 2019-05-14 | 重庆邮电大学 | 一种基于动态时间规整的运动模式识别方法 |
| CN109966739A (zh) * | 2019-01-17 | 2019-07-05 | 珠海金山网络游戏科技有限公司 | 一种优化游戏运行的方法及系统 |
| CN109977890A (zh) * | 2019-03-30 | 2019-07-05 | 骞一凡 | 一种动作识别的方法及其识别系统 |
| CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
| CN110163086A (zh) * | 2019-04-09 | 2019-08-23 | 缤刻普达(北京)科技有限责任公司 | 基于神经网络的健身动作识别方法、装置、设备及介质 |
| CN110163113A (zh) * | 2019-04-25 | 2019-08-23 | 上海师范大学 | 一种人体行为相似度计算方法及装置 |
| CN110263743A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
| CN110263742A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
| CN110472396A (zh) * | 2018-08-17 | 2019-11-19 | 中山叶浪智能科技有限责任公司 | 一种体感手势触控方法、系统、平台及存储介质 |
| CN107909042B (zh) * | 2017-11-21 | 2019-12-10 | 华南理工大学 | 一种连续手势切分识别方法 |
| CN110866864A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 人脸姿态估计/三维人脸重构方法、装置及电子设备 |
| CN110913279A (zh) * | 2018-09-18 | 2020-03-24 | 北京悉见科技有限公司 | 一种用于增强现实的处理方法及增强现实终端 |
| CN112464847A (zh) * | 2020-12-07 | 2021-03-09 | 北京邮电大学 | 视频中人体动作切分方法及装置 |
| CN113268143A (zh) * | 2020-09-29 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于强化学习的多模态人机交互方法 |
| CN113840177A (zh) * | 2021-09-22 | 2021-12-24 | 广州博冠信息科技有限公司 | 直播互动方法、装置、存储介质与电子设备 |
| CN114092971A (zh) * | 2021-11-26 | 2022-02-25 | 重庆大学 | 一种基于视觉图像的人体动作评估方法 |
| CN114533039A (zh) * | 2021-12-27 | 2022-05-27 | 重庆邮电大学 | 基于冗余传感器的人体关节位置及角度解算方法 |
| CN115909494A (zh) * | 2022-11-18 | 2023-04-04 | 杭州电子科技大学 | 基于3d手势序列解析的手部动作识别方法 |
| CN116096968A (zh) * | 2020-11-25 | 2023-05-09 | 日立建机株式会社 | 动作掌握系统 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102508547A (zh) * | 2011-11-04 | 2012-06-20 | 哈尔滨工业大学深圳研究生院 | 基于计算机视觉的手势输入法构建方法及系统 |
| CN102982315A (zh) * | 2012-11-05 | 2013-03-20 | 中国科学院计算技术研究所 | 一种自动检测非手势模式的手势分割识别方法及系统 |
| CN103649967A (zh) * | 2011-06-23 | 2014-03-19 | 阿尔卡特朗讯 | 动态手势识别方法和编辑系统 |
| CN104933408A (zh) * | 2015-06-09 | 2015-09-23 | 深圳先进技术研究院 | 手势识别的方法及系统 |
| CN105320937A (zh) * | 2015-09-25 | 2016-02-10 | 北京理工大学 | 基于Kinect的交警手势识别方法 |
-
2016
- 2016-03-24 CN CN201610177623.5A patent/CN105809144B/zh active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103649967A (zh) * | 2011-06-23 | 2014-03-19 | 阿尔卡特朗讯 | 动态手势识别方法和编辑系统 |
| CN102508547A (zh) * | 2011-11-04 | 2012-06-20 | 哈尔滨工业大学深圳研究生院 | 基于计算机视觉的手势输入法构建方法及系统 |
| CN102982315A (zh) * | 2012-11-05 | 2013-03-20 | 中国科学院计算技术研究所 | 一种自动检测非手势模式的手势分割识别方法及系统 |
| CN104933408A (zh) * | 2015-06-09 | 2015-09-23 | 深圳先进技术研究院 | 手势识别的方法及系统 |
| CN105320937A (zh) * | 2015-09-25 | 2016-02-10 | 北京理工大学 | 基于Kinect的交警手势识别方法 |
Cited By (39)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108427194A (zh) * | 2017-02-14 | 2018-08-21 | 深圳梦境视觉智能科技有限公司 | 一种基于增强现实的显示方法及设备 |
| CN107272878A (zh) * | 2017-02-24 | 2017-10-20 | 广州幻境科技有限公司 | 一种适用于复杂手势的识别方法及装置 |
| CN107092349A (zh) * | 2017-03-20 | 2017-08-25 | 重庆邮电大学 | 一种基于RealSense的手语识别系统及方法 |
| CN106998409A (zh) * | 2017-03-21 | 2017-08-01 | 华为技术有限公司 | 一种图像处理方法、头戴显示器以及渲染设备 |
| CN106991398A (zh) * | 2017-04-01 | 2017-07-28 | 北京工业大学 | 一种基于图像识别配合图形手套的手势识别方法 |
| CN106991398B (zh) * | 2017-04-01 | 2020-03-27 | 北京工业大学 | 一种基于图像识别配合图形手套的手势识别方法 |
| CN107092882B (zh) * | 2017-04-19 | 2020-04-28 | 南京大学 | 一种基于子动作感知的行为识别系统及其工作方法 |
| CN107092882A (zh) * | 2017-04-19 | 2017-08-25 | 南京大学 | 一种基于子动作感知的行为识别系统及其工作方法 |
| CN107909042B (zh) * | 2017-11-21 | 2019-12-10 | 华南理工大学 | 一种连续手势切分识别方法 |
| CN108510525A (zh) * | 2018-03-30 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 模板追踪方法、装置、增强现实系统及存储介质 |
| US10796451B2 (en) | 2018-03-30 | 2020-10-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Object tracking method, device, augmented reality system and storage medium |
| CN108596150A (zh) * | 2018-05-10 | 2018-09-28 | 南京大学 | 一种可排除异常动作的行为识别系统及其工作方法 |
| CN109101879A (zh) * | 2018-06-29 | 2018-12-28 | 温州大学 | 一种vr虚拟课堂教学的姿态交互系统及实现方法 |
| CN110472396B (zh) * | 2018-08-17 | 2022-12-30 | 中山叶浪智能科技有限责任公司 | 一种体感手势触控方法、系统、平台及存储介质 |
| CN110472396A (zh) * | 2018-08-17 | 2019-11-19 | 中山叶浪智能科技有限责任公司 | 一种体感手势触控方法、系统、平台及存储介质 |
| CN110866864A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 人脸姿态估计/三维人脸重构方法、装置及电子设备 |
| CN110913279A (zh) * | 2018-09-18 | 2020-03-24 | 北京悉见科技有限公司 | 一种用于增强现实的处理方法及增强现实终端 |
| CN109598229A (zh) * | 2018-11-30 | 2019-04-09 | 李刚毅 | 基于动作识别的监控系统及其方法 |
| CN109751998A (zh) * | 2019-01-14 | 2019-05-14 | 重庆邮电大学 | 一种基于动态时间规整的运动模式识别方法 |
| CN109966739A (zh) * | 2019-01-17 | 2019-07-05 | 珠海金山网络游戏科技有限公司 | 一种优化游戏运行的方法及系统 |
| CN109977890A (zh) * | 2019-03-30 | 2019-07-05 | 骞一凡 | 一种动作识别的方法及其识别系统 |
| CN109977890B (zh) * | 2019-03-30 | 2021-08-17 | 绵阳硅基智能科技有限公司 | 一种动作识别的方法及其识别系统 |
| CN110163086A (zh) * | 2019-04-09 | 2019-08-23 | 缤刻普达(北京)科技有限责任公司 | 基于神经网络的健身动作识别方法、装置、设备及介质 |
| CN110163113B (zh) * | 2019-04-25 | 2023-04-07 | 上海师范大学 | 一种人体行为相似度计算方法及装置 |
| CN110163113A (zh) * | 2019-04-25 | 2019-08-23 | 上海师范大学 | 一种人体行为相似度计算方法及装置 |
| CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
| CN110059661B (zh) * | 2019-04-26 | 2022-11-22 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
| CN110263742A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
| CN110263743B (zh) * | 2019-06-26 | 2023-10-13 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
| CN110263743A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
| CN113268143A (zh) * | 2020-09-29 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于强化学习的多模态人机交互方法 |
| CN116096968A (zh) * | 2020-11-25 | 2023-05-09 | 日立建机株式会社 | 动作掌握系统 |
| CN112464847A (zh) * | 2020-12-07 | 2021-03-09 | 北京邮电大学 | 视频中人体动作切分方法及装置 |
| CN113840177A (zh) * | 2021-09-22 | 2021-12-24 | 广州博冠信息科技有限公司 | 直播互动方法、装置、存储介质与电子设备 |
| CN113840177B (zh) * | 2021-09-22 | 2024-04-30 | 广州博冠信息科技有限公司 | 直播互动方法、装置、存储介质与电子设备 |
| CN114092971A (zh) * | 2021-11-26 | 2022-02-25 | 重庆大学 | 一种基于视觉图像的人体动作评估方法 |
| CN114533039A (zh) * | 2021-12-27 | 2022-05-27 | 重庆邮电大学 | 基于冗余传感器的人体关节位置及角度解算方法 |
| CN114533039B (zh) * | 2021-12-27 | 2023-07-25 | 重庆邮电大学 | 基于冗余传感器的人体关节位置及角度解算方法 |
| CN115909494A (zh) * | 2022-11-18 | 2023-04-04 | 杭州电子科技大学 | 基于3d手势序列解析的手部动作识别方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN105809144B (zh) | 2019-03-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105809144A (zh) | 一种采用动作切分的手势识别系统和方法 | |
| Kumar et al. | A multimodal framework for sensor based sign language recognition | |
| Hou et al. | Skeleton optical spectra-based action recognition using convolutional neural networks | |
| Pantic et al. | Dynamics of facial expression: recognition of facial actions and their temporal segments from face profile image sequences | |
| TWI430185B (zh) | 臉部表情辨識系統及其辨識方法及其電腦程式產品 | |
| Devanne et al. | 3-d human action recognition by shape analysis of motion trajectories on riemannian manifold | |
| CN103984928B (zh) | 基于景深图像的手指手势识别方法 | |
| Agrawal et al. | A survey on manual and non-manual sign language recognition for isolated and continuous sign | |
| CN107092349A (zh) | 一种基于RealSense的手语识别系统及方法 | |
| CN103488299B (zh) | 一种融合人脸和手势的智能终端人机交互方法 | |
| CN109165685B (zh) | 基于表情和动作的监狱服刑人员潜在性风险监测方法和系统 | |
| JP2012518236A (ja) | ジェスチャー認識のための方法及びシステム | |
| Monir et al. | Rotation and scale invariant posture recognition using Microsoft Kinect skeletal tracking feature | |
| CN105893942B (zh) | 一种基于eSC和HOG的自适应HMM的手语识别方法 | |
| CN111241922A (zh) | 一种机器人及其控制方法、计算机可读存储介质 | |
| Ponce-López et al. | Multi-modal social signal analysis for predicting agreement in conversation settings | |
| CN107832736A (zh) | 实时人体动作的识别方法和实时人体动作的识别装置 | |
| CN110287912A (zh) | 基于深度学习的目标对象情感状态确定方法、装置及介质 | |
| CN111274854B (zh) | 一种人体动作识别方法和视觉增强处理系统 | |
| CN107103271A (zh) | 一种人脸检测方法 | |
| Shastry et al. | Survey on various gesture recognition techniques for interfacing machines based on ambient intelligence | |
| CN107346207B (zh) | 一种基于隐马尔科夫模型的动态手势切分识别方法 | |
| JP5552946B2 (ja) | 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム | |
| CN113505729B (zh) | 基于人体面部运动单元的面试作弊检测方法及系统 | |
| Vieriu et al. | Background invariant static hand gesture recognition based on Hidden Markov Models |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |