CN106256394A - 混合动作捕捉的训练装置及系统 - Google Patents
混合动作捕捉的训练装置及系统 Download PDFInfo
- Publication number
- CN106256394A CN106256394A CN201610572005.0A CN201610572005A CN106256394A CN 106256394 A CN106256394 A CN 106256394A CN 201610572005 A CN201610572005 A CN 201610572005A CN 106256394 A CN106256394 A CN 106256394A
- Authority
- CN
- China
- Prior art keywords
- action
- motion capture
- user
- capture
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 106
- 238000012549 training Methods 0.000 title claims abstract description 55
- 230000003287 optical effect Effects 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000009471 action Effects 0.000 claims description 46
- 230000004927 fusion Effects 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 5
- 230000007547 defect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000007774 longterm Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims 3
- 238000005070 sampling Methods 0.000 description 8
- 239000010410 layer Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 210000001364 upper extremity Anatomy 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 239000002346 layers by function Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
- A63B2071/0636—3D visualisation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0647—Visualisation of executed movements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2208/00—Characteristics or parameters related to the user or player
- A63B2208/02—Characteristics or parameters related to the user or player posture
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/807—Photo cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/83—Special sensors, transducers or devices therefor characterised by the position of the sensor
- A63B2220/836—Sensors arranged on the body of the user
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种混合动作捕捉的训练装置及系统,所述的训练装置包括光学动作捕捉装置,惯性动作捕捉装置以及上位计算机。本发明采用光学动作捕捉和惯性动作捕捉两种方式,构建出用户动作的三维模型,使得教练可以准确的观察到用户肢体动作的变化情况,从而采取针对性的训练手段。该发明充分利用了光学动作捕捉的准确性以及惯性动作捕捉不受遮挡的特点,实现了全方位无死角的用户动作捕捉。
Description
技术领域
本发明涉及动作捕捉训练装置,具体涉及基于虚拟现实技术的动作捕捉训练装置。
背景技术
随着人们生活水平的提高,人们不再满足基本的物质需求,更多的人有了身心和精神方面的需求。体育活动不但可以锻炼身体,激发拼搏精神,而且还能促进沟通交流,深受广大人们的喜爱。然而传统的体育训练方式通常是一对一或者一对多的人工经验训练模式,不但受到了时间地点的局限,且需要运动员进行大量反复练习以保证动作准确性,培训费用高、训练强度大。
为了解决上述问题,越来越多的职业体育训练队或者国家训练队开始将运动捕捉应用于体育训练中。这种动作捕捉系统一方面可以对运动员训练的工作进行具体分析,找到动作中存在瑕疵的连接点,然后通过后期实际训练来不断改善、提升。另一方面可以有效地减少训练者的训练强度,提高训练效率。
目前国内主要的动作捕捉技术可分为惯性式,电磁式,超声波式,光学式共四种运动捕捉方式。惯性式采用惯性传感器采集各个关节运动信息,捕捉精度不高,实时性好,可采集遮挡的运动;电磁式使用传感器切割磁感线完成模拟信号到电信号的转换,从而推算其空间方位,然而该方法只能捕捉低频动作,且要求周围不能存在磁场干扰;超声波式使用超声波到达接收器的时间差计算关节的空间位置以及运动方向,具有不受遮挡的优点,然而捕捉存在滞后,精度不高;光学式采用两个或多个摄像头拍摄同一个接收点产生的视差计算其空间位置和旋转信息,易受动作遮挡影响,捕捉精度高。
本发明提供的技术方案同时使用惯性动作与光学动作之差作为输入,保留了惯性动作的高频信息和光学动作的低频信息,利用了惯性传感器不受遮挡的特点,获取到全方位的用户动作方位和位置,同时利用了光学捕捉准确的特点,利用低频信号修正惯性捕捉不准确的缺陷,保证了最终姿态数据的长期精确。
通过相关专利查询,发现有以下的公开文献:
发明“一种基于单目视频人体动作感知的上肢训练系统,公开号CN105536205A”,使用视频摄像头用于捕捉人体的运动,通过USB传输视频数据,并对所述视频数据进行分析,完成手部运动轨迹跟踪,通过跟踪的结果识别手势动作。该训练系统不仅能够具有定量评价体系,而且能够激发使用者的训练主动性,使其能够应用于社区和家庭。
专利“一种基于虚拟现实的铁路工务训练系统,公开号CN104537911A”使用虚拟现实手段进行铁路工务训练,系统包括基础层、数据层、技术支持层、功能层以及应用层,基础用于提供基于虚拟现实的网络环境和硬件设备,数据层用于提供铁路工务训练系统运行所需的数据,技术支撑层用于向功能层提供基础技术支撑,功能层用于构建铁路工务训练系统的多个功能模块,应用层用于基于虚拟现实技术和所述各功能模块进行虚拟训练。
专利“一种基于Kinect传感器的上肢运动康复训练系统及其训练方法,公开号CN103230664A”,系统包括一台Kinect传感器,一台搭载上肢运动康复训练模块的计算机,Kinect传感器与计算机通过数据线相连,并安装在计算机显示屏的上方;上肢运动康复训练模块包括单关节康复训练模块、综合康复训练模块、评分模块和纠正模块,可以进行上肢的单关节训练和肩、肘、腕关节的综合训练。
发明内容
本发明目的在于克服现有技术的不足,尤其解决现有的基于光学动作捕捉的训练装置不能捕捉被遮挡的动作、基于惯性动作捕捉的训练装置精确度不高的缺陷。提供一种混合两种捕捉方法的训练装置和系统,该训练装置通过使用卡尔曼滤波,使用惯性动作与光学动作之差作为输入,保留了惯性动作的高频信息和光学动作的低频信息,利用了惯性传感器不受遮挡的特点,获取到全方位的用户动作方位和位置,同时利用了光学捕捉准确的特点,利用低频信号修正惯性捕捉不准确的缺陷,保证了最终姿态数据的长期精确。
为解决上述技术问题,本发明采用如下的技术方案:
一种混合动作捕捉的训练装置及系统,其特征在于,其中:
所述的混合动作捕捉训练装置包括光学动作捕捉装置,惯性动作捕捉装置以及上位计算机;所述光学动作捕捉装置和惯性动作捕捉装置均连接于上位计算机;所述的训练系统位于上位计算机。
所述光学动作捕捉装置包括反光mark标记以及光学摄像头,所述反光mark标记贴在用户关节处;所述光学摄像头用于追踪反光mark标记的运动来捕捉用户动作;所述光学摄像头通过USB连接于上位计算机。
所述惯性动作捕捉装置包括微型惯性传感器以及信号捕捉设备,所述微型惯性传感器穿戴在用户身上,并连接于信号捕捉设备;所述信号捕捉设备用于获取惯性传感器的信号,并用无线蓝牙传输到上位计算机。
所述混合动作捕捉训练系统,其特征在于,所述训练系统包括光学动作捕捉模块,惯性动作捕捉模块,动作融合模块以及动作显示模块,其中,所述光学动作捕捉模块通过光学摄像头获取用户运动过程,并采用分析合成法得到用户的位置和姿态的估计,作为动作融合模块的输入;所述惯性动作捕捉模块通过传感器获取用户动作的加速度和角速度,用于估计用户动作的姿态并作为动作融合模块的输入;所述动作融合模块使用卡尔曼滤波对两个动作捕捉模块的信息进行融合,得到精确的用户动作姿态并作为动作显示模块的输入;所述动作显示模块用于将用户动作姿态使用3D动画的形式进行展示。
所述混合动作捕捉训练系统的一种光学动作捕捉方法,其特征在于,具体有以下步骤:
(1)坐标标定:将现实世界中的用户坐标与图像成像的坐标进行标定;
(2)轮廓提取:查找用户的动作外轮廓;
(3)动作跟踪:获取图像标记的位置,根据坐标变换得到标记的空间坐标,然后用Camshift跟踪算法实现用户动作的跟踪;
所述混合动作捕捉训练系统的一种惯性动作捕捉方法,其特征在于,具体有以下步骤:
(1)惯性传感器校准:使得系统所描述的坐标系与惯性传感器坐标系相重合,系统获得正确的初始值;
(2)姿态更新:根据上一次采样的姿态结合本次采样获得的三角速度数据计算本次采样的用户姿态;
(3)动作追踪:计算当前的用户位置和加速度;
附图说明
图1是本发明的混合动作捕捉的训练装置的一个具体实施例的结构示意图。
图2为本发明的一个具体实施方式中训练系统的模块结构框图。
图3为本发明的一个具体实施例中四连通区域和八连通区域图。
图4为本发明的一个具体实施例中跟踪区域选择示意图。
图5为本发明的第一个具体实施方式中动作数据融合的示意图。
具体实施方式
下面结合附图及具体实施例对本发明进行更加详细与完整的说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。
参见图1,本发明的混合动作捕捉的训练装置包括光学动作捕捉装置,惯性动作捕捉装置以及上位计算机1;所述光学动作捕捉装置和惯性动作捕捉装置均连接于上位计算机1;所述的训练系统位于上位计算机。
所述光学动作捕捉装置包括反光mark标记2以及光学摄像头3,所述反光mark标记贴在用户4关节处;所述光学摄像头用于追踪反光mark标记的运动来捕捉用户4动作;所述光学摄像头通过USB连接于上位计算机1。
所述惯性动作捕捉装置包括微型惯性传感器5以及信号捕捉设备6,所述微型惯性传感器5穿戴在用户4身上,并连接于信号捕捉设备6;所述信号捕捉设备6用于获取惯性传感器5的信号,并用无线蓝牙传输到上位计算机1。
参见图2,所述混合动作捕捉训练系统包括光学动作捕捉模块,惯性动作捕捉模块,动作融合模块以及动作显示模块,其中,所述光学动作捕捉模块通过光学摄像头获取用户运动过程,并采用分析合成法得到用户的位置和姿态的估计,作为动作融合模块的输入;所述惯性动作捕捉模块通过传感器获取用户动作的加速度和角速度,用于估计用户动作的姿态并作为动作融合模块的输入;所述动作融合模块使用卡尔曼滤波对两个动作捕捉模块的信息进行融合,得到精确的用户动作姿态并作为动作显示模块的输入;所述动作显示模块用于将用户动作姿态使用3D动画的形式进行展示。
参加图3-5,本发明的混合动作捕捉的训练系统,包括以下步骤:
(1)光学动作捕捉:根据摄像头捕获的光学图像,辨识用户动作姿态以及位置,具体有以下过程:
(1.1)坐标标定:
首先将现实世界中的用户坐标与图像成像的坐标进行标定,图像中的二维像素点p的坐标p=(u,v)T对应的空间点P的空间坐标表示为P=(xw,yw,zw)T,像素点p和空间点P的齐次坐标分别表示为和则图像坐标与空间坐标存在下面的变换关系:
K是内参数矩阵,R,T是外参数矩阵,fu和fv是尺度因子,[u0,v0]是主点坐标,γ是畸变因子,s是尺度因子。因此,一旦计算出内参数矩阵和外参数矩阵的值,即可从图像坐标反推得到空间坐标。
本实施例中,采用多副标定有固定长度的参照物体的图像对参数矩阵进行求解。
(1.2)轮廓查找:
一个轮廓一般对应一系列的点,也就是图像中的一条曲线,是通过顺序找出边缘点来跟踪边界的。由于每个区域内的像素值相同,可通过四连通或八连通区域进行轮廓查找。四连通和八连通可标注二进制图像中已连接的部分,语法实现为L=(BW,n)[L,num]。其中BW为输入图像;n可取值为4或8表示连接四连通或八连通区域;num为找到的连通区域数目;L为输出图像矩阵,其元素值为整数,背景被标记为0,第一个连通区域被标记为1,第二个连通区域被标记为2,依此类推。
参见图3,四连通和八连通的原理对照图,图中的0是中心像素点所在的位置就是四连通或八连通区域,即四连通区域指0的上下左右四个点,八连通还包含左上角、右上角、左下角和右下角四个位置,故八连通区域包含了四连通区域。
轮廓查找结束后,会得到多个轮廓,通过最大轮廓定义筛选获取唯一的轮廓作为用户轮廓,并用于后续的动作跟踪。
(1.3)动作跟踪:
根据用户身上贴的反光mark标记,摄像头获得的图像可以得到标记的位置,再根据坐标变换得到标记的空间坐标,然后用Camshift跟踪算法实现用户动作的跟踪。传统的Camshift跟踪算法中,都需要事先选定感兴趣区域,一般来说,触发一条鼠标事件来选取动作的跟踪范围,但这属于有监督性的,并不符合本项目的期望。
本发明通过反光mark标记获取该区域,以手掌跟踪为例,分别选取指尖坐标x、y值的组成一个坐标作为左上角点,宽度和高度取水平垂直最长距离的最小值。参见图4,A点与B点则分别为指尖的左上角点与右下角点,(Ax,Ay)和(Bx,By)分别为A点与B点的坐标值,再对两点进行差值运算,通过最小化公式MIN(|Ax-Bx|,|Ay-By|)计算得出跟踪范围。
(2)惯性动作捕捉:根据用户身上穿戴的惯性传感器传输的数据,获取身体对应各个关节的运动姿态,具体有以下过程:
(2.1)惯性传感器对准:
使得系统所描述的坐标系与惯性传感器坐标系相重合,使得系统正式开始工作时有正确的初始条件,即得到正确的初始速度、初始位置等。采用光学自动对直技术,其方法是在系统平台上附加光学多面体,使得光学反射面与被调整的轴线垂直,这样通过观测自动对直光管,得到偏转角;人为地给对应轴陀螺加矩,使平台转到给定方位,实现惯性传感器对准。
(2.2)姿态更新:
根据上一次采样的姿态结合本次采样获得的三角速度数据,即可得到本次采样的用户姿态:
[q0,q1,q2,q3]为用四元数表示传感器节点的姿态,[wx,wy,wz]表示传感器节点上陀螺仪三个轴向的角速度,通过陀螺仪的角速度计算,可以不断得到用户姿态的更新。
(2.3)动作追踪:
计算本次采样k的用户位置ΔP(k)和加速度a(k),其中,用户的位置计算模型用以下公式表示为:
其中,v(k+1)=v(k)+a(k)Δt表示用户动作的速度,Δt表示采样周期,a(k)表示动作的加速度,加速度的计算公式如下所示:
a(k+1)=q(k)·a(k)·q(k)′-g (3)
其中,.表示4元乘法,g表示重力加速度,q(k)表示用户动作的方向矢量,是一个四元向量,q(k)′表示向量的转置。
(3)动作融合:利用了光学捕捉和惯性捕捉技术的互补优势,可以有效地弥补应用单一系统进行动作捕捉时所具有的缺点,使其具有遮挡影响小、采集数据自由度高、数据记录种类更全且计算量低等优势。如图5所示,以光学捕捉数据为参考,惯性捕捉数据与光学捕捉数据之差表示惯性捕捉的位姿数据的误差,该误差作为测量信号传入卡尔曼滤波器。卡尔曼滤波器可以用来持续测量惯性捕捉造成的误差,从而进一步使用该误差来纠正惯性捕捉造成的位姿估计误差。这样使用的优势,是惯性捕捉模块捕捉到的高频数据可以被保留,低频数据中出现的错误可以被纠正。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (3)
1.一种混合动作捕捉的训练装置及系统,其特征在于,其中:
所述的训练装置包括光学动作捕捉装置,惯性动作捕捉装置以及上位计算机;所述光学动作捕捉装置和惯性动作捕捉装置均连接于上位计算机;所述的训练系统位于上位计算机。
所述光学动作捕捉装置包括反光mark标记以及光学摄像头,所述反光mark标记贴在用户关节处;所述光学摄像头用于追踪反光mark标记的运动来捕捉用户动作;所述光学摄像头通过USB连接于上位计算机。
所述惯性动作捕捉装置包括微型惯性传感器以及信号捕捉设备,所述微型惯性传感器穿戴在用户身上,并连接于信号捕捉设备;所述信号捕捉设备用于获取惯性传感器的信号,并用无线蓝牙传输到上位计算机。
2.根据权利要求1所述的混合动作捕捉训练系统,其特征在于,所述训练系统包括光学动作捕捉模块,惯性动作捕捉模块,动作融合模块以及动作显示模块,其中,所述光学动作捕捉模块通过光学摄像头获取用户运动过程,并采用分析合成法得到用户的位置和姿态的估计,作为动作融合模块的输入;所述惯性动作捕捉模块通过传感器获取用户动作的加速度和角速度,用于估计用户动作的姿态并作为动作融合模块的输入;所述动作融合模块使用卡尔曼滤波对两个动作捕捉模块的信息进行融合,得到精确的用户动作姿态并作为动作显示模块的输入;所述动作显示模块用于将用户动作姿态使用3D动画的形式进行展示。
3.根据权利要求2所述的混合动作捕捉训练系统,其特征在于,所述动作融合模块使用卡尔曼滤波,使用惯性动作与光学动作之差作为输入,保留了惯性动作的高频信息和光学动作的低频信息,利用了惯性传感器不受遮挡的特点,获取到全方位的用户动作方位和位置,同时利用了光学捕捉准确的特点,利用低频信号修正惯性捕捉不准确的缺陷,保证了最终姿态数据的长期精确。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610572005.0A CN106256394A (zh) | 2016-07-14 | 2016-07-14 | 混合动作捕捉的训练装置及系统 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610572005.0A CN106256394A (zh) | 2016-07-14 | 2016-07-14 | 混合动作捕捉的训练装置及系统 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN106256394A true CN106256394A (zh) | 2016-12-28 |
Family
ID=57713746
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610572005.0A Pending CN106256394A (zh) | 2016-07-14 | 2016-07-14 | 混合动作捕捉的训练装置及系统 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN106256394A (zh) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108181998A (zh) * | 2018-03-20 | 2018-06-19 | 北京诺亦腾科技有限公司 | 一种光学动作捕捉追踪模块 |
| CN108182697A (zh) * | 2018-01-31 | 2018-06-19 | 中国人民解放军战略支援部队信息工程大学 | 一种动作捕捉系统及方法 |
| CN108364034A (zh) * | 2018-04-02 | 2018-08-03 | 北京大学 | 一种多模式耦合的动作捕捉方法及装置 |
| CN108697921A (zh) * | 2017-02-28 | 2018-10-23 | 普罗运动护具有限公司 | 用于评估动作表现的系统、方法、装置和标记物 |
| CN108762488A (zh) * | 2018-05-04 | 2018-11-06 | 梦卓科技(深圳)有限公司 | 一种基于无线人体动作捕捉和光学定位的单基站便携式vr系统 |
| CN108805966A (zh) * | 2018-05-28 | 2018-11-13 | 上海大学 | 基于多模态捕捉的快速动画成片方法和系统 |
| CN109669533A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种基于视觉和惯性的动作捕捉方法、装置及系统 |
| CN110262667A (zh) * | 2019-07-29 | 2019-09-20 | 上海乐相科技有限公司 | 一种虚拟现实设备及定位方法 |
| CN112033432A (zh) * | 2020-07-31 | 2020-12-04 | 东莞市易联交互信息科技有限责任公司 | 动作捕捉方法、系统和存储介质 |
| CN114470678A (zh) * | 2022-01-25 | 2022-05-13 | 上海众一健康科技有限公司 | 一种针对患者康复使用的语音交互辅助装置 |
| WO2022228056A1 (zh) * | 2021-04-30 | 2022-11-03 | 华为技术有限公司 | 一种人机交互方法及设备 |
-
2016
- 2016-07-14 CN CN201610572005.0A patent/CN106256394A/zh active Pending
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108697921B (zh) * | 2017-02-28 | 2021-01-05 | 普罗运动护具有限公司 | 用于评估动作表现的系统、方法、装置和标记物 |
| CN108697921A (zh) * | 2017-02-28 | 2018-10-23 | 普罗运动护具有限公司 | 用于评估动作表现的系统、方法、装置和标记物 |
| CN108182697A (zh) * | 2018-01-31 | 2018-06-19 | 中国人民解放军战略支援部队信息工程大学 | 一种动作捕捉系统及方法 |
| CN108182697B (zh) * | 2018-01-31 | 2020-06-30 | 中国人民解放军战略支援部队信息工程大学 | 一种动作捕捉系统及方法 |
| CN108181998A (zh) * | 2018-03-20 | 2018-06-19 | 北京诺亦腾科技有限公司 | 一种光学动作捕捉追踪模块 |
| CN108364034A (zh) * | 2018-04-02 | 2018-08-03 | 北京大学 | 一种多模式耦合的动作捕捉方法及装置 |
| CN108364034B (zh) * | 2018-04-02 | 2023-09-22 | 北京大学 | 一种多模式耦合的动作捕捉方法及装置 |
| CN108762488A (zh) * | 2018-05-04 | 2018-11-06 | 梦卓科技(深圳)有限公司 | 一种基于无线人体动作捕捉和光学定位的单基站便携式vr系统 |
| CN108805966A (zh) * | 2018-05-28 | 2018-11-13 | 上海大学 | 基于多模态捕捉的快速动画成片方法和系统 |
| CN109669533A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种基于视觉和惯性的动作捕捉方法、装置及系统 |
| CN109669533B (zh) * | 2018-11-02 | 2022-02-11 | 北京盈迪曼德科技有限公司 | 一种基于视觉和惯性的动作捕捉方法、装置及系统 |
| CN110262667A (zh) * | 2019-07-29 | 2019-09-20 | 上海乐相科技有限公司 | 一种虚拟现实设备及定位方法 |
| CN112033432A (zh) * | 2020-07-31 | 2020-12-04 | 东莞市易联交互信息科技有限责任公司 | 动作捕捉方法、系统和存储介质 |
| WO2022228056A1 (zh) * | 2021-04-30 | 2022-11-03 | 华为技术有限公司 | 一种人机交互方法及设备 |
| CN114470678A (zh) * | 2022-01-25 | 2022-05-13 | 上海众一健康科技有限公司 | 一种针对患者康复使用的语音交互辅助装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106256394A (zh) | 混合动作捕捉的训练装置及系统 | |
| CN101579238B (zh) | 人体运动捕获三维再现系统及其方法 | |
| US11872468B2 (en) | Sport training method and system and head-mounted VR device | |
| CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
| CN107330967B (zh) | 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统 | |
| CN201431466Y (zh) | 人体运动捕获三维再现系统 | |
| CN103279186B (zh) | 融合光学定位与惯性传感的多目标运动捕捉系统 | |
| Destelle et al. | Low-cost accurate skeleton tracking based on fusion of kinect and wearable inertial sensors | |
| CN105608746B (zh) | 一种将现实进行虚拟实现的方法 | |
| CN107754225A (zh) | 一种智能健身教练系统 | |
| CN112183316B (zh) | 一种运动员人体姿态测量方法 | |
| CN108846867A (zh) | 一种基于多目全景惯导的slam系统 | |
| CN104887238A (zh) | 基于动作捕捉的手康复训练评估系统和方法 | |
| CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及系统 | |
| CN104147770A (zh) | 基于惯性传感器可穿戴式偏瘫康复设备及捷联姿态算法 | |
| JP2014068714A (ja) | 関節角度測定システム | |
| CN108955682A (zh) | 手机室内定位导航方法 | |
| CN102289801B (zh) | 一种运动捕捉的数据修复方法、系统及运动捕捉系统 | |
| CN106843507A (zh) | 一种虚拟现实多人互动的方法及系统 | |
| CN109284006A (zh) | 一种人体运动捕获装置和方法 | |
| CN109242887A (zh) | 一种基于多摄像机和imu的实时人体上肢动作捕捉方法 | |
| CN106362377A (zh) | 一种混合动作捕捉的训练装置 | |
| CN110502107A (zh) | 可穿戴实时动作指导系统和方法 | |
| CN108981690A (zh) | 一种光惯融合定位方法、设备及系统 | |
| CN109859237B (zh) | 一种基于红外扫描的人体骨骼运动分析方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20161228 |
|
| WD01 | Invention patent application deemed withdrawn after publication |