CN102800126A - 基于多模态融合的实时人体三维姿态恢复的方法 - Google Patents
基于多模态融合的实时人体三维姿态恢复的方法 Download PDFInfo
- Publication number
- CN102800126A CN102800126A CN2012102308982A CN201210230898A CN102800126A CN 102800126 A CN102800126 A CN 102800126A CN 2012102308982 A CN2012102308982 A CN 2012102308982A CN 201210230898 A CN201210230898 A CN 201210230898A CN 102800126 A CN102800126 A CN 102800126A
- Authority
- CN
- China
- Prior art keywords
- pixel
- human body
- shoulder
- depth
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于多模态融合的实时人体三维姿态恢复的方法。利用深度图解析、颜色识别、人脸检测等多种技术,来实时地获取人体主要关节点在现实世界中的坐标,从而恢复出人体的三维骨架信息。基于每一时刻同步获取得到的场景深度图像及场景彩色图像,利用人脸检测的方法获得人体头部位置信息,利用颜色识别的方法获得佩戴有色标的四肢端点位置信息,再通过四肢端点的位置信息,利用彩色图与深度图的映射关系计算出肘部与膝部的位置信息,最终利用时域信息对获取的骨架进行平滑处理,实时地重建出人体的运动信息。本发明相较于传统的利用近红外设备对人体进行三维姿态恢复的技术,提高了恢复的稳定性,也使人体运动捕获过程更为简便。
Description
技术领域
本发明涉及一种实时人体三维姿态恢复的方法,尤其涉及利用深度图以及色标对人体三维姿态实时地进行恢复的方法。
背景技术
人体三维姿态恢复是指通过设备获取现实中人体的运动数据,包括各主要关节点的三维空间坐标信息等;再对这些运动数据进行计算与渲染,从而建立虚拟场景中角色的运动姿态。通过这样的技术,可以将现实中人体的运动与虚拟世界中角色的运动绑定起来,从而驱动虚拟角色的运动。目前,人体的三维姿态恢复技术广泛地应用在电影、动画拍摄以及游戏制作等领域中,该技术相较于传统计算机动画的建模技术,效率更高,可以做到实时性。
实现人体三维姿态恢复的技术有很多种,主要分为光学系统和非光学系统。非光学设备一般通过重力加速器或者辅助的机械设备来获取人体的运动数据,使用的并不是很广泛。而目前光学系统中,大多通过近红外设备为主,即由多个红外线摄像头识别出标记点(由反光率较高的材质制成)的位置,再通过定标算法,将标记点坐标转换为三维空间内的坐标。这种技术的优点是恢复出来的姿态比较精确,系统的鲁棒性比较高,而缺点是进行运动捕获的流程较为复杂,成本较高。
也有人使用多个普通摄像头提供多视角信息,再提取每个视角侧影的特征值后,从数据库中找出相似的姿态。这种技术优点是硬件成本较低,但是需要有特定数据集的支持,而且对于所要捕获的动作也有较大的限制。
随着微软推出新一代的交互设备Kinect,人体三维姿态恢复的技术又有了新的突破。Kinect设备可以捕获场景的深度图,深度图中每个像素与其在场景中的位置相对应并具有表示从每个参考位置到其场景位置的距离的像素值(换言之,深度图具有图像的形式,其中,像素值指出场景中的物体的形貌信息,而不是亮度或颜色)。Jamie Shotton等人在他们的论文“Real-Time Human PoseRecognition in Parts from Single Depth lmages”中,描述了一种基于机器学习的方法来恢复人体姿态。以色列一家公司Prime Sense也开发出了一种基于启发式方法的技术,通过对深度图进行背景减除、场景重建的方法,恢复出人体三维骨架信息。在以上方法中,只需要通过一台kinect设备,不需要任何的标记点即可实时地恢复出人体的运动姿态,这与传统的光学系统相比,有了很大的提升。同时,这种技术也大大降低了人体三维姿态恢复的成本,使得该技术可以进入家庭娱乐领域。
然而,上述方法在稳定性上,与传统光学设备仍然有一定差距,且实现难度较大。
发明内容
本发明的目的是提供一种基于多模态融合的实时人体三维姿态恢复的方法。
基于多模态融合的实时人体三维姿态恢复的方法,它的步骤如下:
1)以不小于25帧每秒的帧速同步接受包含人体在内的场景深度图序列以及场景彩色图序列,所述场景深度图序列中的每一帧场景深度图由像素矩阵组成,像素矩阵中的每个像素点的值表示该像素点所对应场景中的位置到参考位置的距离,即该像素点的深度值;所述场景彩色图序列中的每一帧图片由像素矩阵组成,像素矩阵中的每个像素点的值表示该像素点所对应场景中的位置所表示的颜色信息,由RGB颜色值表示;
2)分割所述场景深度图的背景与前景像素,获得场景深度图中表述人体部位的区域,即前景像素;
3)处理场景深度图中的前景像素,标注出场景深度图中表示人体躯干、头部以及四肢的像素点;
4)通过人脸检测,识别出场景彩色图中的人脸位置,通过场景彩色图与场景深度图的映射得到人体头部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标,所述投影坐标为三维向量(X,Y,Z),其中(X,Y)具体地指向场景深度图的某个像素点,Z为该像素点的深度值;
5)根据头部在场景深度图中的投影坐标,计算颈部与肩部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
6)通过四肢端点佩戴的带有颜色的标记物,获取手部及脚部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
7)通过手部和肩膀的三维坐标,计算出肘关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
8)通过脚部和臀部的三维坐标,计算出膝关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
9)按照步骤2)至8)处理场景深度图序列及场景彩色图序列中的每一帧,并将每一帧捕获到的人体各部位的三维坐标依据人体结构组成并输出骨架模型,设置每个捕获的人体部位的三维坐标的约束空间和可信度,对骨架模型进行平滑处理,所述约束空间表示了每个捕获的人体部位在相邻两帧内所允许最大的位移范围。
所述5)中的计算方法:
a)在获取头部的三维坐标后,根据预设的颈部参考长度Lneck、颈部的参考深度Dneck以及头部的实际深度Dhead,通过下列公式计算得到颈部的实际长度L_Realneck:
L_Realneck=Dhead*Lneck/Dneck
在头部与躯干连接的线段上,根据颈部的实际长度L_Realneck获得人体颈部的位置;
b)在获取颈部的三维坐标之后,本方法根据预设的肩部参考宽度Wshoulder、肩部的参考深度Dshoulder以及颈部的实际深度Rneck,通过下列公式计算得到肩部的实际宽度W_Realshoulder:
W_Realshoulder=Rneck*Wshoulder/Dshoulder
在颈部所处的水平线段上,根据肩部实际宽度W_Realshoulder获得人体左右肩膀的位置;
c)在计算肩部位置时,需要注意用户有时候会采取侧身的姿态,在这种情况下,需要调整侧身时肩膀投影的宽度;该步骤需要计算出左右肩膀所在位置的深度Dleft、Dright以及肩膀的预设长度Wshoulder,那么变化后的肩膀宽度WProjected应为:
通过WProjected,按照步骤b)计算左右肩部的位置;
d)通过局部搜索的方法,确保上述a),b),c)步骤得到的肩膀坐标处于前景像素中;以左肩为例,该局部搜索方法在探测左肩膀时,如果估测的左肩部像素点(x,y)处于背景像素中,那么在搜索该估测像素点右侧的像素(x+t,y+t),其中t为搜索范围阈值,在该范围内的像素点中找出距离该估测像素点最近的前景像素,如果未能找到处于前景像素的点,那么递进式地增加t的值以扩大搜索范围,直至找到最邻近的前景像素为止。
所述6)中的获取方法:
a)用户需要在手部和脚部佩戴带有颜色的标记物来辅助识别手部和脚部位置,所描述标记物的颜色应区分于用户身体其它部位的颜色;
b)将彩色图由RBG颜色空间转换为HSV颜色空间,并提取手部和脚部标记物的HSV颜色特征作为阈值,再对每一帧场景彩色图,使用该阈值对其进行滤波,将不符合该颜色特征的像素点移除,获得颜色阈值图,并通过图像的腐蚀和膨胀操作,去除颜色阈值图中的噪点;
c)经过以上处理,得到一张二值图像,其中手部和脚部标记物的部位会由相应的斑块(Blob)表述,以该斑块的中心点作为四肢端点的位置,再通过坐标转换,分别获得手部和脚部在现实世界中的三维坐标。
所述7)中的计算方法:
a)在计算时,需要在场景深度图中的前景像素中标注属于手臂部位的像素点;先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;当手臂在正前方遮挡住躯干时,需要计算躯干“质心”的深度值,并将躯干上每一像素点的深度值与躯干“质心”的深度值比较,如果深度差大于某一阈值,则标注该像素属于手臂区域,反之,该像素点属于躯干区域;某个区域的“质心”指该区域的平均深度,为此,可以通过计算该区域深度值的直方图,并将具有最高频率的深度值或具有最高频率的两个或多个深度值的平均值设为该区域质心的深度值;
b)成功标注出手臂区域的像素点后,以手部为起点,遍历深度图中所有标注为手臂的像素,如果该像素点与手部的距离满足小臂长度的约束条件,则将其标记为潜在的肘部区域;之后再以肩部为起点,再次在手臂上搜索到肩部距离符合大臂长度约束的像素点,将这些点与之前标注出肘部的点取交集即可得到肘部的估测范围,再将这些点的中点标记为人体肘部位置。
所述8)中的计算方法:
a)在计算时,需要在场景深度图中的前景像素中标注出属于腿部部位的像素点,先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;
b)成功标注出腿部区域的像素点后,以脚部为起点,遍历深度图中所有标注为腿部的像素点,如果该像素点与脚部的距离满足小腿长度的约束条件,则将其标记为潜在的膝盖点;之后再以臀部为起点,再次在腿部上搜索到臀部距离符合大腿长度约束的像素点,将这些点与之前标注出膝盖的点取交集即可得到膝盖的估测范围,再将这些点的中点标记为人体膝盖位置。
所述9)中的处理方法:
a.针对每一个人体部位定义一个约束长度D以及可信度C,约束长度D可以描述约束范围;约束范围是指一个以该人体部位为球心,D为半径的球体,该球体描述了该人体部位在相邻两帧的时间内,所允许的最大位移范围,不同人体部位的约束空间大小会不一样,手部的约束空间相比肩部会大一些;
b.可信度表示了该人体部位目前坐标值的准确程度,C的值越高,则该人体部位的位置越准确;初始时每个人体部位的可信度都设置为0,在新的一帧中,如果该人体部位新的位置处于前一帧该人体部位的约束空间内,则该人体部位的可信度增加一点,若该人体部位的可信度已达到最大值,则不需要改变;反之,若该人体部位新的位置在上一帧中该人体部位的约束空间之外,则只需向新的位置移动Length/C的距离,其中Length为该部位原来的位置和新位置所表示线段的长度,随后再将该部位的可信度降低一点。
本发明利用深度图解析、颜色识别、人脸检测等多种技术,来实时地获取人体主要关节点在现实世界中的坐标,从而恢复出人体的三维骨架信息,相较于传统的利用近红外设备对人体进行三维姿态恢复的技术,提高了恢复的稳定性,降低了使用成本,也使人体运动捕获过程更为简便,为人体三维姿态恢复技术走进家庭娱乐提供了新的解决方案。
附图说明
下面结合附图和具体实施方式对本发明作进一步的说明。
图1为基于多模态融合的实时人体三维姿态恢复的方法流程图;
图2为本发明所使用的场景深度图;
图3为本发明所恢复的人体三维骨架效果图。
具体实施方式
结合附图1,基于多模态融合的实时人体三维姿态恢复的方法,它的步骤如下:
1)获取场景深度图像及场景彩色图像
本方法以不小于25帧每秒的帧速获取长度为640、宽度为480像素的场景深度图像和场景彩色图像序列,所述场景深度图序列中的每一帧场景深度图(如图2所示)由像素矩阵组成,像素矩阵中的每个像素点的值表示该像素点所对应场景中的位置到参考位置的距离,即该像素点的深度值;其中场景深度图和场景彩色图在每一时刻都是同步的,场景深度图像和场景彩色图像的每一个像素也是经过对齐的。
2)对深度图像进行背景剪除
分割所述场景深度图的背景与前景像素,获得场景深度图中表述人体部位的区域,即前景像素。在实现人体姿态跟踪的时候,我们只对前景像素(用户)感兴趣,所以需要去除掉背景像素。在实际实现过程中,有很多不同的背景去除方法。本发明实现的方法是在深度图中先确定一个斑块(Blob)作为对象的身体,然后从斑块中去除具有明显不同深度值的其它斑块。这种方式需要首先确定某个具有最小尺寸的斑块,确定该尺寸涉及到现实世界的坐标系与投影坐标系之间的转换。由深度图可以获得的物体的投影坐标,为了确定物体的实际坐标,需要使用下面的公式将物体的(x,y,深度值)坐标转换为“现实世界”坐标(Xr,Yr,深度值):
Xr=(X-fovx/2)*像素尺寸*深度/参考深度
Yr=(Y-fovy/2)*像素尺寸*深度/参考深度
这里,fovx和fovy为x和y方向上的深度图的视野(以像素为单位)。像素尺寸为,在摄像头给定距离(参考深度)处像素所对着的长度。随后,我们就可以利用物体在现实世界中的坐标来计算其欧几里得距离,从而避免由于近大远小所造成的误差。在由现实世界坐标确定出斑块的尺寸后,即可筛选出离摄像头最近的,而且尺寸最大的斑块,并设定其为人体区域。
另外一种更为简洁的方法是通过试探性地设置阈值,将深度值大于某一阈值的像素全部设置为背景像素,将尺寸小于某一阈值的斑块,设置为背景像素,这样实现更为简便,但准确性也更低。
3)在场景深度图中标注人体各区域
处理场景深度图中的前景像素,标注出场景深度图中表示人体躯干、头部以及四肢的区域;
4)通过人脸检测的方法,计算人体头部位置
在这一步中,本发明使用OpenCV提供的哈尔分类器(Haar Cascade Classifier)进行人脸检测,从场景彩色图中实时地获取用户头部所在的像素点,通过场景彩色图与场景深度图的映射得到人体头部在场景深度图中的投影坐标,并通过步骤2中描述的坐标转换方法将其转换为现实世界中的三维坐标,所述投影坐标为三维向量(X,Y,Z),其中(X,Y)具体地指向场景深度图的某个像素点,Z为该像素点的深度值。
5)根据头部位置,计算肩膀坐标
a)在获取头部的三维坐标后,本方法根据预设的颈部参考长度Lneck、颈部的参考深度Dneck以及头部的实际深度Dhead,通过下列公式计算得到颈部的实际长度L_Realneck:
L_Realneck=Dhead*Lneck/Dneck
在头部与躯干连接的线段上,根据颈部的实际长度L_Realneck获得人体颈部的位置;
b)在获取颈部的三维坐标之后,本方法根据预设的肩部参考宽度Wshoulder、肩部的参考深度Dshoulder以及颈部的实际深度Rneck,通过下列公式计算得到肩部的实际宽度W_Realshoulder:
W_Realshoulder=Rneck*Wshoulder/Dshoulder
在颈部所处的水平线段上,根据肩部实际宽度W_Realshoulder获得人体左右肩膀的位置;
c)在计算肩部位置时,需要注意用户有时候会采取侧身的姿态,在这种情况下,需要调整侧身时肩膀投影的宽度;该步骤需要计算出左右肩膀所在位置的深度Dleft、Dright以及肩膀的预设长度Wshoulder,那么变化后的肩膀宽度WProjected应为:
通过WProjected,按照步骤b)计算左右肩部的位置;
d)通过局部搜索的方法,确保上述a),b),c)步骤得到的肩膀坐标处于前景像素中;以左肩为例,该局部搜索方法在探测左肩膀时,如果估测的左肩部像素点(x,y)处于背景像素中,那么在搜索该估测像素点右侧的像素(x+t,y+t),其中t为搜索范围阈值,在该范围内的像素点中找出距离该估测像素点最近的前景像素。如果未能找到处于前景像素的点,那么递进式地增加t的值以扩大搜索范围,直至找到最邻近的前景像素为止。
6)通过四肢端点佩戴的带有颜色的标记物,获取手部及脚部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标:
a)在本发明中,用户需要在手部和脚部佩戴带有颜色的标记物来辅助识别手部和脚部位置,所描述标记物的颜色应区分于用户身体其它部位的颜色;
b)将彩色图由RBG颜色空间转换为HSV颜色空间,并提取手部和脚部标记物的HSV颜色特征作为阈值,再对每一帧场景彩色图,使用该阈值对其进行滤波,将不符合该颜色特征的像素点移除,获得颜色阈值图;并通过图像的腐蚀和膨胀操作,去除颜色阈值图中的噪点;
c)经过以上处理,得到一张二值图像,其中手部和脚部标记物的部位会由相应的斑块(Blob)表述,我们以该斑块的中心点作为四肢端点的位置,再通过坐标转换,分别获得手部和脚部在现实世界中的三维坐标。
7)通过手部和肩膀的三维坐标,计算出肘关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标:
a)在计算时,需要在场景深度图中的前景像素中标注属于手臂部位的像素点;先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;值得注意的是当手臂在正前方遮挡住躯干的情形,这时如果要判断躯干前某一像素点所表示的是躯干还是手臂区域,需要计算躯干“质心”的深度值,并将该像素点的深度与去躯干“质心”的深度值比较,如果深度差大于某一阈值,则标注该像素属于手臂区域,反之,该像素点属于躯干区域;某个区域的“质心”指该区域的平均深度,为此,可以通过计算该区域深度值的直方图,并将具有最高频率的深度值(或具有最高频率的两个或多个深度值的平均值)设为该区域质心的深度值;
b)成功标注出手臂区域的像素点后,以手部为起点,遍历深度图中所有标注为手臂的像素,如果该像素点与手部的距离满足小臂长度的约束条件,则将其标记为潜在的肘部区域;之后再以肩部为起点,再次在手臂上搜索到肩部距离符合大臂长度约束的像素点,将这些点与之前标注出肘部的点取交集即可得到肘部的估测范围,再将这些点的中点标记为人体肘部位置。
8)通过脚部和臀部的三维坐标,计算出膝关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标:
a)在计算时,需要在场景深度图中的前景像素中标注出属于腿部部位的像素点;先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;
b)成功标注出腿部区域的像素点后,以脚部为起点,遍历深度图中所有标注为腿部的像素点,如果该像素点与脚部的距离满足小腿长度的约束条件,则将其标记为潜在的膝盖点;之后再以臀部为起点,再次在腿部上搜索到臀部距离符合大腿长度约束的像素点,将这些点与之前标注出膝盖的点取交集即可得到膝盖的估测范围,再将这些点的中点标记为人体膝盖位置。
9)按照步骤2)至8)处理场景深度图序列及场景彩色图序列中的每一帧,并将每一帧捕获到的人体各部位的三维坐标依据人体结构组成并输出如图3所示的人体骨架模型,设置每个捕获的人体部位的三维坐标的约束空间和可信度,对人体骨架模型进行平滑处理,所述约束空间表示了每个捕获的人体部位在相邻两帧内所允许最大的位移范围:
a)针对每一个人体部位定义一个约束长度D以及可信度C,约束长度D可以描述约束范围;约束范围是指一个以该人体部位为球心,D为半径的球体,该球体描述了该人体部位在相邻两帧的时间内,所允许的最大位移范围,不同人体部位的约束空间大小会不一样,手部的约束空间相比肩部会大一些;
b)可信度表示了该人体部位目前坐标值的准确程度,C的值越高,则该人体部位的位置越准确;初始时每个人体部位的可信度都设置为0,在新的一帧中,如果该人体部位新的位置处于前一帧该人体部位的约束空间内,则该人体部位的可信度增加一点,若该人体部位的可信度已达到最大值,则不需要改变;反之,若该人体部位新的位置在上一帧中该人体部位的约束空间之外,则只需向新的位置移动Length/C的距离,其中Length为该部位原来的位置和新位置所表示线段的长度,随后再将该部位的可信度降低一点。
Claims (6)
1.一种基于多模态融合的实时人体三维姿态恢复的方法,其特征在于它的步骤如下:
1)以不小于25帧每秒的帧速同步接受包含人体在内的场景深度图序列以及场景彩色图序列,所述场景深度图序列中的每一帧场景深度图由像素矩阵组成,像素矩阵中的每个像素点的值表示该像素点所对应场景中的位置到参考位置的距离,即该像素点的深度值;所述场景彩色图序列中的每一帧图片由像素矩阵组成,像素矩阵中的每个像素点的值表示该像素点所对应场景中的位置所表示的颜色信息,由RGB颜色值表示;
2)分割所述场景深度图的背景与前景像素,获得场景深度图中表述人体部位的区域,即前景像素;
3)处理所述场景深度图中的前景像素,标注出场景深度图中表示人体躯干、头部以及四肢的像素点;
4)通过人脸检测,识别出场景彩色图中的人脸位置,通过场景彩色图与场景深度图的映射得到人体头部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标,所述投影坐标为三维向量(X,Y,Z),其中(X,Y)具体地指向场景深度图的某个像素点,Z为该像素点的深度值;
5)根据头部在场景深度图中的投影坐标,计算颈部与肩部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
6)通过四肢端点佩戴的带有颜色的标记物,获取手部及脚部在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
7)通过手部和肩膀的三维坐标,计算出肘关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
8)通过脚部和臀部的三维坐标,计算出膝关节在场景深度图中的投影坐标,并转换为现实世界中的三维坐标;
9)按照步骤2)至8)处理场景深度图序列及场景彩色图序列中的每一帧,并将每一帧捕获到的人体各部位的三维坐标依据人体结构组成并输出骨架模型,设置每个捕获的人体部位的三维坐标的约束空间和可信度,对骨架模型进行平滑处理,所述约束空间表示了每个捕获的人体部位在相邻两帧内所允许最大的位移范围。
2.根据权利要求1所述的基于多模态融合的实时人体三维姿态恢复的方法,其特征在于,所述5)中的计算方法:
a)在获取头部的三维坐标后,根据预设的颈部参考长度Lneck、颈部的参考深度Dneck以及头部的实际深度Dhead,通过下列公式计算得到颈部的实际长度L_Realneck:
L_Realneck=Dhead*Lneck/Dneck
在头部与躯干连接的线段上,根据颈部的实际长度L_Realneck获得人体颈部的位置;
b)在获取颈部的三维坐标之后,根据预设的肩部参考宽度Wshoulder、肩部的参考深度Dshoulder以及颈部的实际深度Rneck,通过下列公式计算得到肩部的实际宽度W_Realshoulder:
W_Realshoulder=Rneck*Wshoulder/Dshoulder
在颈部所处的水平线段上,根据肩部实际宽度W_Realshoulder获得人体左右肩膀的位置;
c)在计算肩部位置时,在用户采取侧身的姿态情况下,需要调整侧身时肩膀投影的宽度;该调整步骤需要计算出左右肩膀所在位置的深度Dleft、Dright以及肩膀的预设长度Wshoulder,那么变化后的肩膀宽度WProjected应为:
通过WProjected,按照步骤b)计算左右肩部的位置;
d)通过局部搜索的方法,确保上述a),b),c)步骤得到的肩膀坐标处于前景像素中;所述的局部搜索的方法在探测左肩膀时,如果估测的左肩部像素点(x,y)处于背景像素中,那么在搜索该估测像素点右侧的像素(x+t,y+t),其中t为搜索范围阈值,在该范围内的像素点中找出距离该估测像素点最近的前景像素,如果未能找到处于前景像素的点,那么递进式地增加t的值以扩大搜索范围,直至找到最邻近的前景像素为止。
3.根据权利要求1所述的基于多模态融合的实时人体三维姿态恢复的方法,其特征在于,所述6)中的获取方法:
a)用户需要在手部和脚部佩戴带有颜色的标记物来辅助识别手部和脚部位置,所描述标记物的颜色应区分于用户身体其它部位的颜色;
b)将彩色图由RBG颜色空间转换为HSV颜色空间,并提取手部和脚部标记物的HSV颜色特征作为阈值,再对每一帧场景彩色图,使用该阈值对其进行滤波,将不符合该颜色特征的像素点移除,获得颜色阈值图,并通过图像的腐蚀和膨胀操作,去除颜色阈值图中的噪点;
c)经过以上处理,得到一张二值图像,其中手部和脚部标记物的部位会由相应的斑块(Blob)表述,以该斑块的中心点作为四肢端点的位置,再通过坐标转换,分别获得手部和脚部在现实世界中的三维坐标。
4.根据权利要求1所述的基于多模态融合的实时人体三维姿态恢复的方法,其特征在于,所述7)中的计算方法:
a)在计算时,需要在场景深度图中的前景像素中标注属于手臂部位的像素点;先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;当手臂在正前方遮挡住躯干时,需要计算躯干“质心”的深度值,并将躯干上每一像素点的深度值与躯干“质心”的深度值比较,如果深度差大于某一阈值,则标注该像素属于手臂区域,反之,该像素点属于躯干区域;某个区域的“质心”指该区域的平均深度,为此,可以通过计算该区域深度值的直方图,并将具有最高频率的深度值或具有最高频率的两个或多个深度值的平均值设为该区域质心的深度值;
b)成功标注出手臂区域的像素点后,以手部为起点,遍历深度图中所有标注为手臂的像素,如果该像素点与手部的距离满足小臂长度的约束条件,则将其标记为潜在的肘部区域;之后再以肩部为起点,再次在手臂上搜索到肩部距离符合大臂长度约束的像素点,将这些点与之前标注出肘部的点取交集即可得到肘部的估测范围,再将这些点的中点标记为人体肘部位置。
5.根据权利要求1所述的基于多模态融合的实时人体三维姿态恢复的方法,其特征在于,所述8)中的计算方法:
a)在计算时,需要在场景深度图中的前景像素中标注出属于腿部部位的像素点,先分别通过左右肩膀的位置标注出场景深度图中表示躯干部位的像素点,再将场景深度图中与躯干连接的其余部位分别标注为表示四肢及头部的像素点;
b)成功标注出腿部区域的像素点后,以脚部为起点,遍历深度图中所有标注为腿部的像素点,如果该像素点与脚部的距离满足小腿长度的约束条件,则将其标记为潜在的膝盖点;之后再以臀部为起点,再次在腿部上搜索到臀部距离符合大腿长度约束的像素点,将这些点与之前标注出膝盖的点取交集即可得到膝盖的估测范围,再将这些点的中点标记为人体膝盖位置。
6.根据权利要求1所述的基于多模态融合的实时人体三维姿态恢复的方法,其特征在于,所述9)中的处理方法:
c)针对每一个人体部位定义一个约束长度D以及可信度C,约束长度D可以描述约束范围;约束范围是指一个以该人体部位为球心,D为半径的球体,该球体描述了该人体部位在相邻两帧的时间内,所允许的最大位移范围,不同人体部位的约束空间大小会不一样,手部的约束空间相比肩部会大一些;
d)可信度表示了该人体部位目前坐标值的准确程度,C的值越高,则该人体部位的位置越准确;初始时每个人体部位的可信度都设置为0,在新的一帧中,如果该人体部位新的位置处于前一帧该人体部位的约束空间内,则该人体部位的可信度增加一点,若该人体部位的可信度已达到最大值,则不需要改变;反之,若该人体部位新的位置在上一帧中该人体部位的约束空间之外,则只需向新的位置移动Length/C的距离,其中Length为该部位原来的位置和新位置所表示线段的长度,随后再将该部位的可信度降低一点。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN2012102308982A CN102800126A (zh) | 2012-07-04 | 2012-07-04 | 基于多模态融合的实时人体三维姿态恢复的方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN2012102308982A CN102800126A (zh) | 2012-07-04 | 2012-07-04 | 基于多模态融合的实时人体三维姿态恢复的方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN102800126A true CN102800126A (zh) | 2012-11-28 |
Family
ID=47199222
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN2012102308982A Pending CN102800126A (zh) | 2012-07-04 | 2012-07-04 | 基于多模态融合的实时人体三维姿态恢复的方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN102800126A (zh) |
Cited By (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103336953A (zh) * | 2013-07-05 | 2013-10-02 | 深圳市中视典数字科技有限公司 | 一种基于体感设备动作评判的方法 |
| CN103745226A (zh) * | 2013-12-31 | 2014-04-23 | 国家电网公司 | 一种电力设施作业现场人员着装安全检测方法 |
| CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
| CN104573612A (zh) * | 2013-10-16 | 2015-04-29 | 北京三星通信技术研究有限公司 | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 |
| CN105407774A (zh) * | 2013-07-29 | 2016-03-16 | 三星电子株式会社 | 自动清扫系统、清扫机器人和控制清扫机器人的方法 |
| CN105574525A (zh) * | 2015-12-18 | 2016-05-11 | 天津中科智能识别产业技术研究院有限公司 | 一种复杂场景多模态生物特征图像获取方法及其装置 |
| CN106535759A (zh) * | 2014-04-09 | 2017-03-22 | 拜耳消费者保健股份公司 | 生成一组推荐矫正器产品的方法、装置和计算机可读介质 |
| CN106846324A (zh) * | 2017-01-16 | 2017-06-13 | 河海大学常州校区 | 一种基于Kinect的非规则物体高度测量方法 |
| CN107169262A (zh) * | 2017-03-31 | 2017-09-15 | 百度在线网络技术(北京)有限公司 | 推荐塑身方案的方法、装置、设备和计算机存储介质 |
| CN107230226A (zh) * | 2017-05-15 | 2017-10-03 | 深圳奥比中光科技有限公司 | 人体关联关系的判断方法、装置及存储装置 |
| CN107481286A (zh) * | 2017-07-11 | 2017-12-15 | 厦门博尔利信息技术有限公司 | 基于被动红外反射的动态三维结构捕捉算法 |
| CN107808128A (zh) * | 2017-10-16 | 2018-03-16 | 深圳市云之梦科技有限公司 | 一种虚拟形象重建人体五官测量的方法及系统 |
| CN108295469A (zh) * | 2017-12-04 | 2018-07-20 | 成都思悟革科技有限公司 | 基于动作捕捉技术的游戏视角转换方法 |
| CN108542021A (zh) * | 2018-03-18 | 2018-09-18 | 江苏特力威信息系统有限公司 | 一种运动服及基于色条识别的肢体测量方法及装置 |
| CN109353907A (zh) * | 2017-09-05 | 2019-02-19 | 日立楼宇技术(广州)有限公司 | 电梯运行的安全提示方法和系统 |
| CN110342252A (zh) * | 2019-07-01 | 2019-10-18 | 芜湖启迪睿视信息技术有限公司 | 一种物品自动抓取方法及自动抓取装置 |
| CN110781820A (zh) * | 2019-10-25 | 2020-02-11 | 网易(杭州)网络有限公司 | 游戏角色的动作生成方法、装置、计算机设备及存储介质 |
| CN110909580A (zh) * | 2018-09-18 | 2020-03-24 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
| CN111144207A (zh) * | 2019-11-21 | 2020-05-12 | 东南大学 | 一种基于多模态信息感知的人体检测和跟踪方法 |
| CN111640176A (zh) * | 2018-06-21 | 2020-09-08 | 华为技术有限公司 | 一种物体建模运动方法、装置与设备 |
| CN111680670A (zh) * | 2020-08-12 | 2020-09-18 | 长沙小钴科技有限公司 | 一种跨模态人头检测方法及装置 |
| CN112037319A (zh) * | 2020-08-19 | 2020-12-04 | 上海佑久健康科技有限公司 | 人体测量方法、系统及计算机可读存储介质 |
| CN112150448A (zh) * | 2020-09-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
| CN112184898A (zh) * | 2020-10-21 | 2021-01-05 | 安徽动感智能科技有限公司 | 一种基于动作识别的数字人体建模方法 |
| CN112241477A (zh) * | 2019-07-18 | 2021-01-19 | 国网河北省电力有限公司邢台供电分公司 | 一种辅助变电检修作业现场的多维数据可视化方法 |
| CN113065532A (zh) * | 2021-05-19 | 2021-07-02 | 南京大学 | 一种基于rgbd图像的坐姿几何参数检测方法及系统 |
| CN113158910A (zh) * | 2021-04-25 | 2021-07-23 | 北京华捷艾米科技有限公司 | 一种人体骨架识别方法、装置、计算机设备及存储介质 |
| CN113343925A (zh) * | 2021-07-02 | 2021-09-03 | 厦门美图之家科技有限公司 | 人脸三维重建方法、装置、电子设备及存储介质 |
| CN113384844A (zh) * | 2021-06-17 | 2021-09-14 | 郑州万特电气股份有限公司 | 基于双目视觉的灭火动作检测方法及灭火器安全实训系统 |
| CN113591726A (zh) * | 2021-08-03 | 2021-11-02 | 电子科技大学 | 一种太极拳训练动作的交叉模态评估方法 |
| WO2021253777A1 (zh) * | 2020-06-19 | 2021-12-23 | 北京市商汤科技开发有限公司 | 姿态检测及视频处理方法、装置、电子设备和存储介质 |
| CN114926401A (zh) * | 2022-04-21 | 2022-08-19 | 奥比中光科技集团股份有限公司 | 一种骨骼点遮挡检测方法、装置、设备及存储介质 |
| CN115308768A (zh) * | 2022-07-22 | 2022-11-08 | 万达信息股份有限公司 | 一种隐私环境下的智能监护系统 |
| CN116563952A (zh) * | 2023-07-07 | 2023-08-08 | 厦门医学院 | 一种结合图神经网络和骨长约束的动捕缺失数据恢复方法 |
| CN116901034A (zh) * | 2022-04-20 | 2023-10-20 | 埃博茨股份有限公司 | 杂乱环境中可靠的机器人操纵 |
| CN117953662A (zh) * | 2024-03-26 | 2024-04-30 | 广东先知大数据股份有限公司 | 一种水塘岸边人员溺水预警方法、装置、设备和存储介质 |
| CN120183002A (zh) * | 2025-05-22 | 2025-06-20 | 泰山体育产业集团有限公司 | 一种单目彩色视频的三维人体关节点定位方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101253373A (zh) * | 2005-08-30 | 2008-08-27 | 东芝开利株式会社 | 空气调节器的室内单元 |
| CN101657825A (zh) * | 2006-05-11 | 2010-02-24 | 普莱姆传感有限公司 | 根据深度图对人形进行建模 |
| CN102350700A (zh) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | 一种基于视觉的机器人控制方法 |
-
2012
- 2012-07-04 CN CN2012102308982A patent/CN102800126A/zh active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101253373A (zh) * | 2005-08-30 | 2008-08-27 | 东芝开利株式会社 | 空气调节器的室内单元 |
| CN101657825A (zh) * | 2006-05-11 | 2010-02-24 | 普莱姆传感有限公司 | 根据深度图对人形进行建模 |
| CN102350700A (zh) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | 一种基于视觉的机器人控制方法 |
Non-Patent Citations (2)
| Title |
|---|
| HIMANSHU PRAKASH JAIN ET AL: "Real-Time Upper-Body Human Pose Estimation Using a Depth Camera", 《COMPUTER VISION/COMPUTER GRAPHICS COLLABORATION TECHNIQUES LECTURE NOTES IN COMPUTER SCIENCE》 * |
| 周娟 等: "基于强度图和深度图的多模态人脸识别", 《计算机工程与应用》 * |
Cited By (63)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103336953A (zh) * | 2013-07-05 | 2013-10-02 | 深圳市中视典数字科技有限公司 | 一种基于体感设备动作评判的方法 |
| CN103336953B (zh) * | 2013-07-05 | 2016-06-01 | 深圳市中视典数字科技有限公司 | 一种基于体感设备动作评判的方法 |
| US10265858B2 (en) | 2013-07-29 | 2019-04-23 | Samsung Electronics Co., Ltd. | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot |
| CN105407774A (zh) * | 2013-07-29 | 2016-03-16 | 三星电子株式会社 | 自动清扫系统、清扫机器人和控制清扫机器人的方法 |
| CN105407774B (zh) * | 2013-07-29 | 2018-09-18 | 三星电子株式会社 | 自动清扫系统、清扫机器人和控制清扫机器人的方法 |
| CN104573612A (zh) * | 2013-10-16 | 2015-04-29 | 北京三星通信技术研究有限公司 | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 |
| CN104573612B (zh) * | 2013-10-16 | 2019-10-22 | 北京三星通信技术研究有限公司 | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 |
| CN103745226A (zh) * | 2013-12-31 | 2014-04-23 | 国家电网公司 | 一种电力设施作业现场人员着装安全检测方法 |
| CN106535759A (zh) * | 2014-04-09 | 2017-03-22 | 拜耳消费者保健股份公司 | 生成一组推荐矫正器产品的方法、装置和计算机可读介质 |
| CN104167016B (zh) * | 2014-06-16 | 2017-10-03 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
| CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
| CN105574525A (zh) * | 2015-12-18 | 2016-05-11 | 天津中科智能识别产业技术研究院有限公司 | 一种复杂场景多模态生物特征图像获取方法及其装置 |
| CN105574525B (zh) * | 2015-12-18 | 2019-04-26 | 天津中科虹星科技有限公司 | 一种复杂场景多模态生物特征图像获取方法及其装置 |
| CN106846324B (zh) * | 2017-01-16 | 2020-05-01 | 河海大学常州校区 | 一种基于Kinect的非规则物体高度测量方法 |
| CN106846324A (zh) * | 2017-01-16 | 2017-06-13 | 河海大学常州校区 | 一种基于Kinect的非规则物体高度测量方法 |
| CN107169262A (zh) * | 2017-03-31 | 2017-09-15 | 百度在线网络技术(北京)有限公司 | 推荐塑身方案的方法、装置、设备和计算机存储介质 |
| CN107169262B (zh) * | 2017-03-31 | 2021-11-23 | 百度在线网络技术(北京)有限公司 | 推荐塑身方案的方法、装置、设备和计算机存储介质 |
| CN107230226A (zh) * | 2017-05-15 | 2017-10-03 | 深圳奥比中光科技有限公司 | 人体关联关系的判断方法、装置及存储装置 |
| CN107481286A (zh) * | 2017-07-11 | 2017-12-15 | 厦门博尔利信息技术有限公司 | 基于被动红外反射的动态三维结构捕捉算法 |
| CN109353907A (zh) * | 2017-09-05 | 2019-02-19 | 日立楼宇技术(广州)有限公司 | 电梯运行的安全提示方法和系统 |
| CN109353907B (zh) * | 2017-09-05 | 2020-09-15 | 日立楼宇技术(广州)有限公司 | 电梯运行的安全提示方法和系统 |
| CN107808128A (zh) * | 2017-10-16 | 2018-03-16 | 深圳市云之梦科技有限公司 | 一种虚拟形象重建人体五官测量的方法及系统 |
| CN107808128B (zh) * | 2017-10-16 | 2021-04-02 | 深圳市云之梦科技有限公司 | 一种虚拟形象重建人体五官测量的方法及系统 |
| CN108295469A (zh) * | 2017-12-04 | 2018-07-20 | 成都思悟革科技有限公司 | 基于动作捕捉技术的游戏视角转换方法 |
| CN108295469B (zh) * | 2017-12-04 | 2021-03-26 | 成都思悟革科技有限公司 | 基于动作捕捉技术的游戏视角转换方法 |
| CN108542021A (zh) * | 2018-03-18 | 2018-09-18 | 江苏特力威信息系统有限公司 | 一种运动服及基于色条识别的肢体测量方法及装置 |
| CN111640176A (zh) * | 2018-06-21 | 2020-09-08 | 华为技术有限公司 | 一种物体建模运动方法、装置与设备 |
| US11436802B2 (en) | 2018-06-21 | 2022-09-06 | Huawei Technologies Co., Ltd. | Object modeling and movement method and apparatus, and device |
| JP2021513175A (ja) * | 2018-09-18 | 2021-05-20 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | データ処理方法及び装置、電子機器並びに記憶媒体 |
| WO2020057121A1 (zh) * | 2018-09-18 | 2020-03-26 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
| CN110909580A (zh) * | 2018-09-18 | 2020-03-24 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
| CN110909580B (zh) * | 2018-09-18 | 2022-06-10 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
| US11238273B2 (en) | 2018-09-18 | 2022-02-01 | Beijing Sensetime Technology Development Co., Ltd. | Data processing method and apparatus, electronic device and storage medium |
| CN110342252B (zh) * | 2019-07-01 | 2024-06-04 | 河南启迪睿视智能科技有限公司 | 一种物品自动抓取方法及自动抓取装置 |
| CN110342252A (zh) * | 2019-07-01 | 2019-10-18 | 芜湖启迪睿视信息技术有限公司 | 一种物品自动抓取方法及自动抓取装置 |
| CN112241477A (zh) * | 2019-07-18 | 2021-01-19 | 国网河北省电力有限公司邢台供电分公司 | 一种辅助变电检修作业现场的多维数据可视化方法 |
| CN110781820B (zh) * | 2019-10-25 | 2022-08-05 | 网易(杭州)网络有限公司 | 游戏角色的动作生成方法、装置、计算机设备及存储介质 |
| CN110781820A (zh) * | 2019-10-25 | 2020-02-11 | 网易(杭州)网络有限公司 | 游戏角色的动作生成方法、装置、计算机设备及存储介质 |
| CN111144207A (zh) * | 2019-11-21 | 2020-05-12 | 东南大学 | 一种基于多模态信息感知的人体检测和跟踪方法 |
| WO2021253777A1 (zh) * | 2020-06-19 | 2021-12-23 | 北京市商汤科技开发有限公司 | 姿态检测及视频处理方法、装置、电子设备和存储介质 |
| CN111680670A (zh) * | 2020-08-12 | 2020-09-18 | 长沙小钴科技有限公司 | 一种跨模态人头检测方法及装置 |
| CN111680670B (zh) * | 2020-08-12 | 2020-12-01 | 长沙小钴科技有限公司 | 一种跨模态人头检测方法及装置 |
| CN112037319A (zh) * | 2020-08-19 | 2020-12-04 | 上海佑久健康科技有限公司 | 人体测量方法、系统及计算机可读存储介质 |
| CN112150448B (zh) * | 2020-09-28 | 2023-09-26 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
| CN112150448A (zh) * | 2020-09-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
| CN112184898A (zh) * | 2020-10-21 | 2021-01-05 | 安徽动感智能科技有限公司 | 一种基于动作识别的数字人体建模方法 |
| CN113158910A (zh) * | 2021-04-25 | 2021-07-23 | 北京华捷艾米科技有限公司 | 一种人体骨架识别方法、装置、计算机设备及存储介质 |
| CN113065532B (zh) * | 2021-05-19 | 2024-02-09 | 南京大学 | 一种基于rgbd图像的坐姿几何参数检测方法及系统 |
| CN113065532A (zh) * | 2021-05-19 | 2021-07-02 | 南京大学 | 一种基于rgbd图像的坐姿几何参数检测方法及系统 |
| CN113384844B (zh) * | 2021-06-17 | 2022-01-28 | 郑州万特电气股份有限公司 | 基于双目视觉的灭火动作检测方法及灭火器安全实训系统 |
| CN113384844A (zh) * | 2021-06-17 | 2021-09-14 | 郑州万特电气股份有限公司 | 基于双目视觉的灭火动作检测方法及灭火器安全实训系统 |
| CN113343925A (zh) * | 2021-07-02 | 2021-09-03 | 厦门美图之家科技有限公司 | 人脸三维重建方法、装置、电子设备及存储介质 |
| CN113343925B (zh) * | 2021-07-02 | 2023-08-29 | 厦门美图宜肤科技有限公司 | 人脸三维重建方法、装置、电子设备及存储介质 |
| CN113591726A (zh) * | 2021-08-03 | 2021-11-02 | 电子科技大学 | 一种太极拳训练动作的交叉模态评估方法 |
| CN116901034A (zh) * | 2022-04-20 | 2023-10-20 | 埃博茨股份有限公司 | 杂乱环境中可靠的机器人操纵 |
| CN114926401A (zh) * | 2022-04-21 | 2022-08-19 | 奥比中光科技集团股份有限公司 | 一种骨骼点遮挡检测方法、装置、设备及存储介质 |
| CN114926401B (zh) * | 2022-04-21 | 2025-12-16 | 奥比中光科技集团股份有限公司 | 一种骨骼点遮挡检测方法、装置、设备及存储介质 |
| CN115308768A (zh) * | 2022-07-22 | 2022-11-08 | 万达信息股份有限公司 | 一种隐私环境下的智能监护系统 |
| CN116563952B (zh) * | 2023-07-07 | 2023-09-15 | 厦门医学院 | 一种结合图神经网络和骨长约束的动捕缺失数据恢复方法 |
| CN116563952A (zh) * | 2023-07-07 | 2023-08-08 | 厦门医学院 | 一种结合图神经网络和骨长约束的动捕缺失数据恢复方法 |
| CN117953662A (zh) * | 2024-03-26 | 2024-04-30 | 广东先知大数据股份有限公司 | 一种水塘岸边人员溺水预警方法、装置、设备和存储介质 |
| CN117953662B (zh) * | 2024-03-26 | 2024-06-28 | 广东先知大数据股份有限公司 | 一种水塘岸边人员溺水预警方法、装置、设备和存储介质 |
| CN120183002A (zh) * | 2025-05-22 | 2025-06-20 | 泰山体育产业集团有限公司 | 一种单目彩色视频的三维人体关节点定位方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102800126A (zh) | 基于多模态融合的实时人体三维姿态恢复的方法 | |
| CN106250867B (zh) | 一种基于深度数据的人体骨骼跟踪系统的实现方法 | |
| Jalal et al. | Human body parts estimation and detection for physical sports movements | |
| CN105631861B (zh) | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 | |
| CN103155003B (zh) | 姿势估计装置及姿势估计方法 | |
| CN102609683B (zh) | 一种基于单目视频的人体关节自动标注方法 | |
| CN110135375A (zh) | 基于全局信息整合的多人姿态估计方法 | |
| JPWO2012077286A1 (ja) | 物体検出装置および物体検出方法 | |
| CN108717531A (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
| CN109934848A (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
| CN109919141A (zh) | 一种基于骨架姿态的行人再识别方法 | |
| CN103729647B (zh) | 基于深度图像实现人体骨骼提取的方法 | |
| CN111027432B (zh) | 基于步态特征的视觉跟随机器人方法 | |
| JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
| CN109344694A (zh) | 一种基于三维人体骨架的人体基本动作实时识别方法 | |
| CN106909890B (zh) | 一种基于部位聚类特征的人体行为识别方法 | |
| CN102075686A (zh) | 一种鲁棒的实时在线摄像机跟踪方法 | |
| CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
| CN103942829A (zh) | 单幅图像的人体三维姿态重构方法 | |
| CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
| CN111695523A (zh) | 基于骨骼时空及动态信息的双流卷积神经网络动作识别方法 | |
| CN102156994A (zh) | 一种单视角无标记人体运动跟踪的关节定位方法 | |
| CN109670401B (zh) | 一种基于骨骼运动图的动作识别方法 | |
| Haker et al. | Self-organizing maps for pose estimation with a time-of-flight camera | |
| CN1766929B (zh) | 一种基于三维数据库的运动对象运动重构方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20121128 |