CN111166340B - 基于自适应加速度信号分割的人体姿势实时识别方法 - Google Patents
基于自适应加速度信号分割的人体姿势实时识别方法 Download PDFInfo
- Publication number
- CN111166340B CN111166340B CN201911403080.4A CN201911403080A CN111166340B CN 111166340 B CN111166340 B CN 111166340B CN 201911403080 A CN201911403080 A CN 201911403080A CN 111166340 B CN111166340 B CN 111166340B
- Authority
- CN
- China
- Prior art keywords
- posture
- acceleration
- array
- model
- static
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001133 acceleration Effects 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000011218 segmentation Effects 0.000 title claims abstract description 17
- 230000003044 adaptive effect Effects 0.000 title claims description 15
- 230000003068 static effect Effects 0.000 claims abstract description 69
- 238000013145 classification model Methods 0.000 claims abstract description 29
- 230000009466 transformation Effects 0.000 claims abstract description 24
- 230000036544 posture Effects 0.000 claims description 211
- 238000012549 training Methods 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims 1
- 238000002372 labelling Methods 0.000 claims 1
- 230000002159 abnormal effect Effects 0.000 abstract description 11
- 230000036541 health Effects 0.000 abstract description 3
- 230000003862 health status Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005802 health problem Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4561—Evaluating static posture, e.g. undesirable back curvature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
技术领域
本发明属于模式识别与信息处理技术领域,具体涉及一种基于自适应加速度信号分割的人体姿势实时识别方法。
背景技术
现有的比较成熟的人体姿势识别系统,例如智能手环,智能手表等大部分主要用于记录步数、步行距离等,对身体姿势只能粗略地分类为走、跑和静止,不能具体地识别出静止姿势中的站姿、坐姿和躺姿,也不能识别出慢走和快走,另外也不具备异常情况实时分析和报警功能。
发明内容
本发明所要解决的技术问题在于提供一种基于自适应加速度信号分割的人体姿势实时识别方法,能够准确的识别日常生活中常见的身体姿势,进而能够及时发现被识别对象是否有健康的日常生活习惯,是否发生了异常情况,及健康状况是否发生了变化。
为实现上述目的,本发明的技术方案包括以下步骤,
(1)建立运动姿势模型clasM和静止姿势模型clasML:
所述运动姿势模型clasM和静止姿势模型clasML的输入均为通过加速度传感器采集的被识别对象的传感器数据;运动姿势模型clasM的输出为被识别对象在运动状态下的不同姿势,静止姿势模型clasML的输出为被识别对象在静止状态下的不同姿势;
(2)通过穿戴在被识别对象身上的加速度传感器获取数据:所述数据为Ax,Ay,Az和t;t为时间,Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值。
(3)获得信号特征值:根据步骤(2)采集到的数据,计算得到信号特征值Axyz和ΔA,将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
其中Axyz为三维加速度;ΔA为相邻的两个Axyz之间变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度;
(4)获取被识别对象姿势变换的边界点:
4-1设定在步骤(3)得到的ΔA信号中存在第i个活动窗口w,大小为w=2f,边界是[i,i+2f],其中f是加速度传感器的采样频率,w是活动窗口;
4-3利用公式(5)对每个所述活动窗口计算其前半窗ΔA的平均值和后半窗ΔA的平均值,计算二者之差,并判断其是否大于等于事先定义的闽值th1,同时利用公式(6)判断该活动窗口的中间点与上一个边界点的时间差是否大于2秒钟;
4-3若公式(5)和(6)同时满足,则将该活动窗口的中间点确定为姿势变换的边界点,并保存到边界点数组bp[j]=i+f,若不同时满足则继续进行步骤(2);
(6)若则调用步骤(1)建立的运动姿势分类模型clasM识别当前特征值的姿势类别,若则调用步骤(1)建立的静止姿势分类模型clasML识别当前特征值的姿势类别;最后运动姿势分类模型clasM或静止姿势分类模型clasML输出当前状态的识别结果。
进一步地,步骤(3)中,将步骤(2)采集到的数据利用公式(1)和公式(2)得到信号特征值Axyz和ΔA
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Axyz为三维加速度;ΔA为相邻两个Axyz之间的变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度。
其中为平均三维加速度;j=1,...,b,b是信号的长度;bp[j]和bp[j-1]分别是姿势变换边界点数组的第j和第j-1个元素。进一步地,步骤(6)中,利用公式(8)对两边界点之间的特征值Fture[i]进行分类,
其中pose是存放姿势识别结果的数组;pose[j]是识别结果的第j个元素;j=1,...,p,p是数组pose的长度;i=1,...,s,s是静止姿势类别数组ml或运动姿势类别数组m的长度。
进一步地,步骤(1)中,运动姿势模型clasM的输出包括跑,快走,慢走,上楼梯,下楼梯,静止姿势模型clasML的输出包括站,坐,侧躺,俯卧,仰卧。
进一步地,运动姿势模型clasM和静止姿势模型clasML的建立过程包括以下步骤,
a.训练对象在运动状态下的不同姿势用数组m存储,表达为:m={跑,快走,慢走,上楼梯,下楼梯};在静止状态下的不同姿势用数组ml存储,表达为ml={站,坐,侧躺,俯卧,仰卧};
b.训练对象将加速度传感器设备穿戴在身上,然后分别完成指定的静止姿势,所述静止姿势来自数组ml,每个姿势保持T1秒钟,把数组ml中的所有姿势都进行一遍;然后完成数组m指定的运动姿势,每个姿势保持T2秒钟,把数组m中的所有姿势都进行一遍;通过穿戴在人体上的加速度传感器获取每个姿势下对应的数据,所述数据为Ax,Ay,Az和t;其中t为采集时间;Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值;
c.利用公式(1)和公式(2)获得信号特征值Axyz和ΔA;将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Ax,Ay,Az分别为加速度在X、Y、Z三个轴上加速度分量值,Axyz为三维加速度;ΔA为相邻两个Axyz之间的变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度;
d.将训练对象静止状态的不同姿势下对应的数组Fture数据存储到静止姿势训练数组trainML,并标上相应的静止姿势标签ml[i],trainML[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],ml[i]];同时将训练对象在运动状态的不同姿势下对应的数组Fture数据存储到运动姿势训练数组trainM,并标上相应的运动姿势标签m[i],trainM[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],m[i]];
e.利用公式(3)和(4)分别学习获得静止姿势分类模型clasML和运动姿势分类模型clasM:将上述训练数据trainML和trainM分别作为公式(3)和(4)的输入数据,采用机器学习系统中的一种算法自动训练学习得到分类模型,即运动姿势模型clasM和静止姿势模型c]asML;
公式(3)和(4)中,ωi是一组加权系数;k是一个反应每一时刻的特征值Fture[i]与静止姿势类别ml[i]或运动姿势类别m[i]之间关系的函数;i=1,...,l,l是数组trainML或trainM的长度;当用训练数据学习结束时,将会得到确定的ω和k,同时也就获得了两个模型即运动姿势模型clasM和静止姿势模型clasML。
进一步地,步骤4-2中,事先定义的闽值th1,th1=0.1。
进一步地,步骤(6)中,th2=1.3。
进一步地,本发明应用于居家养老领域。
本发明积极效果如下:
1.通过建立运动姿势模型clasM和静止姿势模型clasML,可以将被识别对象的运动姿势和静止姿势分开识别,减少了易混淆姿势之间的干扰,提高了识别的准确性和可靠性。
2.本发明利用自适应加速度信号分割法对采集的数据信号进行了预处理,这样不仅有利于将身体姿势识别结果用信号图形直观展示,还能及时判定人体姿势是否发生了突变,是否有异常情况发生。
3.本发明能够准确的识别日常生活中常见的身体姿势,如运动姿势中的慢走、快走、跑和上、下楼梯及静止姿势中的站、坐、仰卧、侧卧和俯卧,并能用信号图形直观显示实时识别结果,进而能够及时发现被识别对象是否有健康的日常生活习惯,例如可从识别结果图直观看到被识别对象每天睡眠情况、运动强度和运动时长等;是否发生了异常情况,例如从运动姿势突然变成躺姿;及健康状况是否发生了变化,例如锻炼方式由原来的快走变成慢走。
4.本发明可以应用与居家养老的安全监护,当应用于居家养老时,由于现在独居老人越来越多,所以需要关注独居老人的生活状态和健康问题,本发明可以实时了解老人的日常生活习惯情况,及时发现老人健康状况的变化,对老人出现的异常情况可及时采取援救措施,所以本发明可以有重大的社会意义和推广价值。
附图说明
图1为本发明的流程图;
图2为本发明实施例1的流程图
图3为本发明实施例2的流程图;
图4为本发明运动姿势模型clasM和静止姿势模型clasML建立的流程图;
图5为被识别对象的人体姿势识别结果实时展示图。
具体实施方式
下面结合本发明附图1-5,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,本发明提供了一种基于自适应加速度信号分割的人体姿势实时识别方法,其包括以下步骤,
(1)建立运动姿势模型clasM和静止姿势模型clasML:本发明需要事先一次性训练出身体姿势的分类模型,然后重复使用该分类模型实时识别监测被识别对象的身体姿势;本发明的被识别对象为运动姿势模型clasM和静止姿势模型clasML建模成功后,应用本发明方法进行姿势识别的人。在本发明实施过程中,先建立运动姿势模型clasM和静止姿势模型clasML。感知日常人体姿势变化的加速度信号可分为静止(motionless)和运动(motion)两大类。所述运动姿势模型clasM和静止姿势模型clasML的输入均为通过加速度传感器采集的被识别对象的传感器数据;运动姿势模型clasM的输出为被识别对象在运动状态下的不同姿势,静止姿势模型clasML的输出为被识别对象在静止状态下的不同姿势。
加速度传感器可穿戴在被识别对象的身上,固定方法比较灵活,优选地,可固定在被识别对象的腰带上,也可放入小挎包内斜跨在腰部;另外,只需要一个加速度传感器,型号没有具体要求,只要能准确采集加速度信号即可。
步骤(1)中,运动姿势模型clasM的输出包括但不限于跑,快走,慢走,上楼梯,下楼梯这些状态值,静止姿势模型clasML的输出包括但不限于站,坐,侧躺,俯卧,仰卧这些状态值。
所述运动姿势模型clasM和静止姿势模型clasML的输入均为通过加速度传感器采集的被识别对象的传感器数据;运动姿势模型clasM的输出为被识别对象在运动状态下的不同姿势,静止姿势模型clasML的输出为被识别对象在静止状态下的不同姿势。
所述运动姿势模型clasM和静止姿势模型clasML的建立过程包括以下步骤,
通过穿戴有加速度传感器的训练对象完成指定的不同运动和静止姿势,加速度传感器记录相应的数值(t,Ax,Ay,Az),完成建模过程,训练对象为运动姿势模型clasM和静止姿势模型clasML建模过程中,用来建立模型训练数据的人,具体如下:
a.训练对象在运动状态下的不同姿势用数组m存储,表达为:m={跑,快走,慢走,上楼梯,下楼梯},其中快走和慢走可以通过训练对象设定不同行走速率进行区分,快走的速率大于慢走的速率,具体值可以根据实际情况进行设定,所述快走和慢走在建模过程是可以量化和区分的,是清楚的,本实施例中,快走的速率为100米-135米/分钟,慢走的速率为50米-99米/分钟;训练对象在静止状态下的不同姿势用数组ml存储,表达为ml={站,坐,侧躺,俯卧,仰卧};
b.训练对象将加速度传感器设备穿戴在身上,优选的为腰部,然后分别完成指定的静止姿势,所述静止姿势来自数组ml,每个姿势保持T1秒钟,把数组ml中的所有姿势都进行一遍,比如保持站姿5秒钟,接着保持坐姿5秒钟,直至把ml中的所有姿势进行完一遍;然后完成数组m指定的运动姿势,每个姿势保持T2秒钟,把数组m中的所有姿势都进行一遍;通过穿戴在人体上的加速度传感器获取每个姿势下对应的数据:所述数据为Ax,Ay,Az和t;t为时间,Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值,其中t为采集时间;Ax,Ay,Az分别为加速度在X、Y、Z三个轴上加速度分量值。
c.利用公式(1)和公式(2)获得信号特征值Axyz和ΔA;将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Ax,Ay,Az分别为加速度在X、Y、Z三个轴上加速度分量值,Axyz为三维加速度;ΔA为相邻两个Axyz之间的变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度。Ax[i]表示采集的第i个加速度数据信号在X轴上的分量,其余物理量可以参照理解。
d.将训练对象静止状态的不同姿势下对应的数组Fture数据存储到静止姿势训练数组trainML,并标上相应的静止姿势标签ml[i],trainML[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],ml[i]];同时将训练对象在运动状态的不同姿势下对应的数组Fture数据存储到运动姿势训练数组trainM,并标上相应的运动姿势标签m[i],trainM[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],m[i]];
e.利用公式(3)和(4)分别学习获得静止姿势分类模型clasML和运动姿势分类模型clasM;将上述训练数据trainML和trainM分别作为公式(3)和(4)的输入数据,采用机器学习系统中的一种算法如Support Vector machine(SVM)自动训练学习得到分类模型,即运动姿势模型clasM和静止姿势模型clasML;训练过程如图4所示;
公式(3)和(4)中,ωi是一组加权系数;k是一个反应每一时刻的特征值Fture[i]与静止姿势类别ml[i]或运动姿势类别m[i]之间关系的函数;i=1,...,l,l是数组trainML或trainM的长度;当用训练数据学习结束时,将会得到确定的ω和k,同时也就获得了两个模型,即运动姿势模型clasM和静止姿势模型clasML。
当两个分类模型clasML和clasM获得后,就可重复使用该分类模型实时识别被识别对象的身体姿势。识别阶段只需要将每个时刻的特征值Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]]作为输入数据,检测系统就可自动地实时输出该时刻的身体姿势状态。
为了提高姿势识别的准确性和可靠性,本发明采用了自适应加速度信号分割算法,如步骤(2)-(6)。
(2)通过穿戴在被识别对象身上的加速度传感器采集被识别对象的数据,优选地将加速度传感器固定在被识别对象的腰上,采集的数据为Ax,Ay,Az和t;t为时间,Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值。注明:与要求训练对象保持每个姿势5秒钟不同,被识别对象的身体穿戴上加速度传感器后可以很自然地进行日常活动,不同身体姿势可按任意顺序、任意时长完成,当然也不要求必须完成上述训练的两个模型clasML和clasM中包含的所有姿势。
(3)获得信号特征值:根据步骤(2)采集到的数据,计算得到信号特征值Axyz和ΔA,将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
其中Axyz为三维加速度;ΔA为相邻的两个Axyz之间变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度。
步骤(3)中,将步骤(2)采集到的数据利用公式(1)和公式(2)得到信号特征值Axyz、ΔA和Ax,Ay,Az。
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Axyz为三维加速度;ΔA为相邻的两个三维加速度Axyz[i]和Axyz[i-1]之间变化的绝对值;i=1,...,a,a是采集的加速度数据信号的长度。
Ax,Ay,Az的值是由加速度传感器直接采集的;
Axyz和ΔA的值是用公式(1)和(2)计算得出的。
(4)获取被识别对象姿势变换的边界点:
4-1设定在步骤(3)得到的ΔA信号中存在第i个活动窗口w,大小为w=2f,边界是[i,i+2f],其中f是加速度传感器的采样频率,w是活动窗口;
4-2利用公式(5)对每个所述活动窗口计算其前半窗ΔA的平均值和后半窗ΔA的平均值,计算二者之差,并判断其是否大于等于事先定义的闽值th1,同时利用公式(6)判断该活动窗口的中间点与上一个边界点的时间差是否大于2秒钟,本步骤4-2也就是判定是否公式(5)和(6)同时满足;注:数据采集的起始点被设置成第一个边界点,如果是第一次识别,上一次边界点就是开始的起始点;
4-3若公式(5)和(6)同时满足,则将该活动窗口的中间点确定为姿势变换的边界点,并保存到边界点数组bp[j]=i+f,若不同时满足则继续重新进行步骤(2);
(6)若则调用步骤(1)建立的运动姿势分类模型clasM识别当前特征值的姿势类别,若则调用步骤(1)建立的静止姿势分类模型clasML识别当前特征值的姿势类别;最后运动姿势分类模型clasM或静止姿势分类模型clasML输出当前状态的识别结果。
进一步地,步骤(6)中,利用公式(8)对两边界点之间的特征值Fture[i]进行分类,最后运动姿势分类模型clasM或静止姿势分类模型clasML输出当前状态的识别结果;
其中pose存放姿势识别结果的数组;pose[j]是识别结果的第j个元素;j=1,...,p,p是数组pose的长度;i=1,...,s,s是静止姿势类别数组ml或运动姿势类别数组m的长度。
进一步地,事先定义的闽值th1,th1可设定为0.1。
进一步地,步骤(6)中,th2可设定为1.3。
本发明可以实时将被识别对象的姿势变化用信号图形进行直观显示,并且当被识别对象从运动姿势突然变成躺的姿势时,如由下楼梯转变成躺,或在非睡眠时段出现躺姿时识,识别系统会自动在该信号图形上标注红色的“Help”字样,显示的结果如图5所示,图5中,纵坐标表示Ay信号,即采集的加速度信号在Y轴上的分量;横坐标由两部分内容组成,其中横向数字表示采集的Ay信号采样实例,如横向数字50代表了第50个采样实例,竖向数字表示姿势变换的时间点,如图中显示由跑姿变换成躺姿的时间是14:26:41。当应用本发明方法对被识别对象进行姿势识别后,识别的结果作为激励,识别系统产生响应并通过图像显示出结果,如图5中的stand、walk、run,分别表示被识别对象在该时间下的姿势状态值,该姿势状态值来自于运动姿势模型clasM输出的被识别对象在运动状态下的不同姿势以及静止姿势模型clasML输出的被识别对象在静止状态下的不同姿势。这样将加速度信号按姿势变换的边界点进行分割并分段进行姿势识别的方法可以及时发现被识别对象的姿势是否发生了突变,是否有异常情况发生。注明:将加速度信号按姿势变换的边界点进行分割并分段进行姿势识别的方法,理论上同一段采样信号中的各采样实例应该获得相同的姿势识别结果,但实际上由于各采样实例间加速度信号的波动,不同的采样实例有可能获得不同的姿势识别结果,为了使图示结果清晰展示,本发明使用相对多数投票法统计同一信号分割段内所有姿势识别结果中各类别的数量,并将票数最多的姿势类别确定为该信号段最终的姿势识别结果。
本发明优势主要体现在:
1.通过建立运动姿势模型clasM和静止姿势模型clasML,可以将被识别对象的运动姿势和静止姿势分开识别,减少了易混淆姿势之间的干扰,提高了识别的准确性和可靠性。
2.本发明利用自适应加速度信号分割法对采集的数据信号进行了预处理,这样不仅有利于将身体姿势识别结果用信号图形直观展示,还能及时判定人体姿势是否发生了突变,是否有异常情况发生。
3.本发明能够准确的识别日常生活中常见的身体姿势,如运动姿势中的慢走、快走、跑和上、下楼梯及静止姿势中的站、坐、仰卧、侧卧和俯卧,并能用信号图形直观显示实时识别结果,进而能够及时发现被识别对象是否有健康的日常生活习惯,例如可从识别结果图直观看到被识别对象每天睡眠情况、运动强度和运动时长等;是否发生了异常情况,例如从运动姿势突然变成躺姿;及健康状况是否发生了变化,例如锻炼方式由原来的快走变成慢走。
4.本发明可以应用与居家养老的安全监护,当应用于居家养老时,由于现在独居老人越来越多,所以需要关注独居老人的生活状态和健康问题,本发明可以实时了解老人的日常生活习惯情况,及时发现老人健康状况的变化,对老人出现的异常情况可及时采取援救措施,所以本发明可以有重大的社会意义和推广价值。
本实施例为将上述的本发明方法应用于居家养老领域的安全监护,具体可分为在家中与外出两种情况。
实施例1
如图2所示,当本发明方法应用于居家养老领域时,被识别对象为独居在家的老人,将加速度传感器穿戴在老人的腰部,同时不影响老人的日常生活,将按照本发明上述的方法对被识别对象的身体姿势识别,可以及时了解老人在家的日常活动情况,当发现老人近段时间缺乏运动时,及时提醒老人要增加运动量;同时还可实时发现独居老人的异常情况,为了提高对被识别对象安全施救的及时性,可将本发明的身体姿势识别与家中安装的摄像头功能相结合,这样当独居在家的老人在非睡眠时段,其身体姿势突然发生躺的时候,监护人员可通过手机立即远程打开家中的摄像头,逐一查看各个房间,及时发现老人躺的具体位置,并通过摄像头的对话功能与老人通话,这样可以先确认老人状态再决定是否施救。
实施例2
如图3所示,当本发明方法应用于居家养老领域时,被识别对象为外出的老人,将加速度传感器穿戴在老人的腰部,同时不影响老人的日常生活,将按照本发明方法对被识别对象的身体姿势识别,可以及时发现外出老人的异常情况,为了提高对被识别对象异常情况施救的及时性,可将本发明的身体姿势识别与现有的定位技术相结合,例如将现有的定位手表戴到老人手腕上,并与监护人员的手机连接,这样当老人外出锻炼或购物时,若发现按照本发明方法的姿势识别结果为不同躺姿中的任一种时(侧躺,俯卧,仰卧),可以及时获得老人发生异常情况的地点,及时采取施救措施。另外,若发现近段时间内老人外出锻炼时总是比前段时间走的慢,可与老人交流沟通慢走的原因,发现老人健康状况的变化,及时为老人提供身体调理的措施。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:其包括以下步骤,
(1)建立运动姿势模型clasM和静止姿势模型clasML:
所述运动姿势模型clasM和静止姿势模型clasML的输入均为通过加速度传感器采集的被识别对象的传感器数据;运动姿势模型clasM的输出为被识别对象在运动状态下的不同姿势,静止姿势模型clasML的输出为被识别对象在静止状态下的不同姿势;
(2)通过穿戴在被识别对象身上的加速度传感器获取数据:所述数据为Ax,Ay,Az和t;t为时间,Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值;
(3)获得信号特征值:根据步骤(2)采集到的数据,计算得到信号特征值Axyz和ΔA,将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
其中Axyz为三维加速度;ΔA为相邻的两个Axyz之间变化的绝对值;i=1,…,a,a是采集的加速度数据信号的长度;
(4)获取被识别对象姿势变换的边界点:
4-1设定在步骤(3)得到的ΔA信号中存在第i个活动窗口w,大小为w=2f,边界是[i,i+2f],其中f是加速度传感器的采样频率,w是活动窗口;
4-2利用公式(5)对每个所述活动窗口计算其前半窗ΔA的平均值和后半窗ΔA的平均值,计算二者之差,并判断其是否大于等于事先定义的闽值th1,同时利用公式(6)判断该活动窗口的中间点与上一个边界点的时间差是否大于2秒钟;
4-3若公式(5)和(6)同时满足,则将该活动窗口的中间点确定为姿势变换的边界点,并保存到边界点数组bp[j]=i+f,若不同时满足则继续进行步骤(2);
5.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:
步骤(1)中,运动姿势模型clasM的输出包括跑,快走,慢走,上楼梯,下楼梯,静止姿势模型clasML的输出包括站,坐,侧躺,俯卧,仰卧。
6.根据权利要求5所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:运动姿势模型clasM和静止姿势模型clasML的建立过程包括以下步骤,
a.训练对象在运动状态下的不同姿势用数组m存储,表达为:m={跑,快走,慢走,上楼梯,下楼梯};在静止状态下的不同姿势用数组ml存储,表达为ml={站,坐,侧躺,俯卧,仰卧};
b.训练对象将加速度传感器设备穿戴在身上,然后分别完成指定的静止姿势,所述静止姿势来自数组ml,每个姿势保持T1秒钟,把数组ml中的所有姿势都进行一遍;然后完成数组m指定的运动姿势,每个姿势保持T2秒钟,把数组m中的所有姿势都进行一遍;通过穿戴在人体上的加速度传感器获取每个姿势下对应的数据,所述数据为Ax,Ay,Az和t;其中t为采集时间;Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值;
c.利用公式(1)和公式(2)获得信号特征值Axyz和ΔA;将计算得到的所述信号特征值Axyz和ΔA和步骤(2)采集的加速度分量值Ax,Ay,Az都存储到数组Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Ax,Ay,Az分别为加速度在X、Y、Z三个轴上加速度分量值,Axyz为三维加速度;ΔA为相邻两个Axyz之间的变化的绝对值;i=1,…,a,a是采集的加速度数据信号的长度;
d.将训练对象静止状态的不同姿势下对应的数组Fture数据存储到静止姿势训练数组trainML,并标上相应的静止姿势标签ml[i],trainML[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],ml[i]];同时将训练对象在运动状态的不同姿势下对应的数组Fture数据存储到运动姿势训练数组trainM,并标上相应的运动姿势标签m[i],trainM[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i],m[i]];
e.利用公式(3)和(4)分别学习获得静止姿势分类模型clasML和运动姿势分类模型clasM:将上述训练数据trainML和trainM分别作为公式(3)和(4)的输入数据,采用机器学习系统中的一种算法自动训练学习得到分类模型,即运动姿势模型clasM和静止姿势模型clasML;
公式(3)和(4)中,ωi是一组加权系数;k是一个反应每一时刻的特征值Fture[i]与静止姿势类别ml[i]或运动姿势类别m[i]之间关系的函数;i=1,…,l,l是数组trainML或trainM的长度;当用训练数据学习结束时,将会得到确定的ω和k,同时也就获得了两个模型即运动姿势模型clasM和静止姿势模型clasML。
7.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:
步骤4-2中,事先定义的闽值th1,th1=0.1。
8.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:步骤(6)中,th2=1.3。
9.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:应用于居家养老领域。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911403080.4A CN111166340B (zh) | 2019-12-31 | 2019-12-31 | 基于自适应加速度信号分割的人体姿势实时识别方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911403080.4A CN111166340B (zh) | 2019-12-31 | 2019-12-31 | 基于自适应加速度信号分割的人体姿势实时识别方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111166340A CN111166340A (zh) | 2020-05-19 |
| CN111166340B true CN111166340B (zh) | 2022-11-18 |
Family
ID=70623712
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201911403080.4A Active CN111166340B (zh) | 2019-12-31 | 2019-12-31 | 基于自适应加速度信号分割的人体姿势实时识别方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111166340B (zh) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111870248A (zh) * | 2020-06-05 | 2020-11-03 | 安徽建筑大学 | 基于3d加速度信号的运动状态特征提取及识别方法 |
| CN212391879U (zh) * | 2020-07-02 | 2021-01-22 | 黄河交通学院 | 基于多个六轴传感器的人体非正常姿势矫正装置 |
| CN115328299B (zh) * | 2022-07-07 | 2025-12-30 | 广东虚拟现实科技有限公司 | 位姿确定方法、装置、计算机设备及存储介质 |
| CN116369876A (zh) * | 2023-04-13 | 2023-07-04 | 中国人民解放军空军特色医学中心 | 一种飞行员呼救装置 |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9999376B2 (en) * | 2012-11-02 | 2018-06-19 | Vital Connect, Inc. | Determining body postures and activities |
| CN103961109B (zh) * | 2014-05-05 | 2016-02-24 | 北京航空航天大学 | 基于加速度信号和角速度信号的人体姿态检测装置 |
| CN104268577B (zh) * | 2014-06-27 | 2017-05-03 | 大连理工大学 | 一种基于惯性传感器的人体行为识别方法 |
| JP6356616B2 (ja) * | 2015-02-17 | 2018-07-11 | 日本電信電話株式会社 | 逐次姿勢識別装置および自律神経機能情報取得装置、方法ならびにプログラム |
| WO2017050140A1 (zh) * | 2015-09-23 | 2017-03-30 | 歌尔股份有限公司 | 一种人体动作识别方法、识别用户动作的方法和智能终端 |
| CN105929940B (zh) * | 2016-04-13 | 2019-02-26 | 哈尔滨工业大学深圳研究生院 | 基于细分特征值法的快速三维动态手势识别方法及系统 |
| CN106095787A (zh) * | 2016-05-30 | 2016-11-09 | 重庆大学 | 时间序列数据的一种符号化表示方法 |
| CN106237604A (zh) * | 2016-08-31 | 2016-12-21 | 歌尔股份有限公司 | 可穿戴设备及利用其监测运动状态的方法 |
| CN106473265B (zh) * | 2016-12-03 | 2018-01-12 | 石家庄学院 | 一种智能跌倒监护t恤及其跌倒检测算法 |
| CN106919958B (zh) * | 2017-03-21 | 2020-06-26 | 电子科技大学 | 一种基于智能手表的人体手指动作识别方法 |
| JP2019042209A (ja) * | 2017-09-04 | 2019-03-22 | 社会福祉法人清和園 | 歩行姿勢解析方法及び歩行姿勢解析装置 |
| CN109993037B (zh) * | 2018-01-02 | 2021-08-06 | 中国移动通信有限公司研究院 | 动作识别方法、装置、穿戴设备及计算机可读存储介质 |
| CN108392208B (zh) * | 2018-02-23 | 2020-12-15 | 大同公元三九八智慧养老服务有限公司 | 一种基于多阶段模型的跌倒判断方法 |
| CN108898062B (zh) * | 2018-05-31 | 2021-12-10 | 电子科技大学 | 一种基于改进的信号片段提取算法的手部动作识别方法 |
| CN110327050B (zh) * | 2019-05-05 | 2020-07-03 | 北京理工大学 | 用于可穿戴装备的人跌倒状态嵌入式智能检测方法 |
| CN110575176B (zh) * | 2019-08-26 | 2024-03-26 | 南京理工大学 | 基于两层滑动窗口阈值的动作分割方法 |
-
2019
- 2019-12-31 CN CN201911403080.4A patent/CN111166340B/zh active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN111166340A (zh) | 2020-05-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111166340B (zh) | 基于自适应加速度信号分割的人体姿势实时识别方法 | |
| US12236767B2 (en) | Machine learning based monitoring system | |
| Feng et al. | Deep learning for posture analysis in fall detection | |
| CN105310696B (zh) | 一种跌倒检测模型构建方法及相应的跌倒检测方法和装置 | |
| KR102449905B1 (ko) | 전자 장치 및 이의 제어 방법 | |
| EP3355761B1 (en) | Emotional/behavioural/psychological state estimation system | |
| CN109558865A (zh) | 一种基于人体关键点的对需特别看护人员的异常状态检测方法 | |
| Nandy et al. | Detailed human activity recognition using wearable sensor and smartphones | |
| CN103211599A (zh) | 一种监测跌倒的方法及装置 | |
| CN115089135A (zh) | 一种基于毫米波雷达老人健康状态检测方法及系统 | |
| Jain et al. | Ambient intelligence-based multimodal human action recognition for autonomous systems | |
| Zhao et al. | Recognition of human fall events based on single tri-axial gyroscope | |
| CN116965781B (zh) | 一种驾驶员生命体征和驾驶行为监控方法及系统 | |
| CN112750277A (zh) | 融合轨迹数据与传感器姿态的室内跌倒检测系统及方法 | |
| CN105303183A (zh) | 一种基于穿戴设备的儿童姿态识别分析系统和方法 | |
| CN110464315A (zh) | 一种融合多传感器的老年人摔倒预测方法和装置 | |
| CN115462782A (zh) | 一种基于多维度特征参数的人体跌倒动态监测方法及系统 | |
| Nizam et al. | Classification of daily life activities for human fall detection: A systematic review of the techniques and approaches | |
| Xu et al. | A two-step fall detection algorithm combining threshold-based method and convolutional neural network | |
| CN107103271A (zh) | 一种人脸检测方法 | |
| CN211484541U (zh) | 一种融合多传感器的老年人摔倒预测装置 | |
| CN120983030A (zh) | 基于生物传感器的实时健康状态监测系统及方法 | |
| Liu et al. | A wearable fall detection system based on 1D CNN | |
| CN119851421A (zh) | 一种老年人居家安全监测与预警系统 | |
| Wang et al. | Fall detection based on convolutional neural networks using smart insole |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |