CN116831565A - 一种人体步态监测及评估方法 - Google Patents
一种人体步态监测及评估方法 Download PDFInfo
- Publication number
- CN116831565A CN116831565A CN202310907343.5A CN202310907343A CN116831565A CN 116831565 A CN116831565 A CN 116831565A CN 202310907343 A CN202310907343 A CN 202310907343A CN 116831565 A CN116831565 A CN 116831565A
- Authority
- CN
- China
- Prior art keywords
- gait
- subject
- joint angle
- value
- identity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种人体步态监测及评估方法,拍摄受试者带有深度信息的视频图像帧,输入至经过训练的关节点检测模型,得到受试者的骨骼关节点坐标;构造人体关节空间向量并计算膝关节角度和髋关节角度,膝关节角度和髋关节角度以屈伸角度数值的方式记录,进而得到基于时间序列的膝关节角度和髋关节角度步态数据;根据当前受试者画面帧的采集时间与步态周期计算步频,根据人体几何中心在不同帧间的相对位移计算其步速;然后对当前受试者的步频、步速、髋关节角度和膝关节角度等步态参数进行综合分数计算的评估,并识别当前受试者的身份,将受试者的综合分数与其历史分值进行差异比较。
Description
技术领域
本发明属于机器视觉和智能监测及评估技术领域,具体涉及一种人体步态监测及评估方法。
背景技术
人体步态是指人体在行走或跑步时所呈现出来的特征性动作,它反映了人体的运动能力和健康状况。步态特征会因年龄增长和慢性病等因素发生不易察觉的变化,一些步态功能失调会导致跌倒情况的发生甚至威胁自身生命安全。因此,步态的长期监测及评估对于人体运动的研究和康复医学具有重要意义。
随着计算机科学、传感器技术和人工智能的发展,人体步态特征的检测和评估也得到了改进。经典的步态异常评估方式大多是医生通过观察病人行走进行主观评定,外加医学影像技术等医学检查予以辅助判断,但这些方法的诊断结果依赖于医生的职业经验,并且拍摄处理医学影像成本高、操作复杂,针对大多数老年受试者会导致不同程度的心理负担。此外,一些便携式、低成本的传感器如加速度计、陀螺仪等设备,可以通过对人体运动时的生物力学参数进行测量和分析,来实现对人体步态特征的监测和评估。但是这些手持物、标记物或穿戴设备会影响受试者的行动和步态,另外存在受试者遗忘携带或携带附加物不适等情况,以上所列举外界因素均会导致步态长期监测和评估的功能无法实现。
目前,通过无标记物动作捕捉算法对人体步态特征进行评估的工作逐渐成为主流方法,但大多需要受试者进行主动配合,单独占用受试者时间进行步态检测和评估分析,无法达到步态长期监测和评估的效果。
发明内容
本发明的目的在于针对现有技术的不足,提供一种人体步态监测及评估方法。
本发明是通过以下技术方案实现的:
一种人体步态监测及评估方法,包括以下步骤:
S1:布置深度视觉传感器,拍摄受试者带有深度信息的视频图像帧;
S2:对带有灰度信息的深度图像进行处理,分割出作为前景的人体轮廓,获得带有深度信息的受试者剪影,过滤非有效步态信息;
S3:将经过上述处理后的深度图像信息输入至经过训练的关节点检测模型,得到受试者的骨骼关节点坐标;
使用皮尔逊相关系数来判断两步态参数之间的相关性,选取两个受测特征间相关系数在(-0.5,0.5)范围内作为待监测步态参数;通过输出相关性系数热力图选取步频、步速、髋关节角度和膝关节角度作为待监测的步态参数;
构造人体关节空间向量并计算膝关节角度和髋关节角度,膝关节角度和髋关节角度以屈伸角度数值的方式记录,进而得到基于时间序列的膝关节角度和髋关节角度步态特征数据;根据当前受试者画面帧的采集时间与步态周期计算步频,根据人体几何中心在不同帧间的相对位移计算其步速;
S4:对当前受试者的步频、步速、髋关节角度和膝关节角度等步态参数进行综合分数计算的评估;
将各步态参数的对综合分数的占比转化为比较每个参数基尼指数的平均值,假设参数m是第k类的概率为pk,则基尼指数表示为:
分别取所述各步态参数的基尼指数为εi,并进行归一化处理,则当前受试者综合分数的计算方式为:p=ε1θ1+ε2θ2+ε3H+ε4V,
其中,θ1表示膝关节角度,θ2表示髋关节角度,H代表步频数值,V代表步速数值;
S5:根据步骤S1采集的视频图像识别当前受试者的身份;
S6:将步骤S4得到的受试者的综合分数结果作为评估指标存入该受试者身份所对应的个人加密数据库中,并与该受试者身份所对应的个人加密数据库中的历史分值进行差异比较,若差值超过设定阈值,则记录予以生成警示信息。
在上述技术方案中,采用的深度视觉传感器为微软Azure Kinect DK,并以本设备固定位置为中心。
在上述技术方案中,步骤2包括以下步骤:
S2.1:首先对深度视觉传感器采集的图像像素进行全局标准化,该步骤公式表示如下:
其中Iw×h为图像像素数,Pi为图像像素点,gmin为所采集深度图中最小灰度表示值,gmax为所采集深度图中最大灰度表示值;
S2.2:对捕获的当前受试者画面帧进行灰阶梯度的初步划分,设置大于深度门限值的前景阶梯有大数值参数α,设置小于深度门限值的后景阶梯有小数值参数β;
S2.3:对画面帧之间的像素点进行差值计算,对当前帧的像素点灰度值与该像素点的下一帧像素灰度值相减,若该像素点处于前景阶梯则乘以大数值参数α,若该像素点处于后景阶梯则乘以小数值参数β,将此计算结果与分离极限值ε相比来界定当前像素点是否为人体轮廓及以内,计算公式表示如下:
式中为第j帧的第i个像素点;Phuman表示判定当前像素点为人体轮廓及以内像素;Pbackground表示判定当前像素点为背景像素;Tvideo表示捕获当前受试者步态画面的视频时长。
S2.4:对于判定非零的人体Phuman像素点,需要进行下一步的条件判定,若以该像素点为中心的半径内所有其他像素点P(x,y)均低于分离极限值ε,则认定为误判点并归为Pbackground。
在上述技术方案中,步骤S3,关节点检测模型采用深度学习训练模型V2V-Posenet,该模型的损失函数是计算所有预测点的体素坐标与真实点体素坐标之间欧式距离的加权和,通过反向传播算法更新模型权重。
在上述技术方案中,步骤S3,记录受试者在有效场地被捕获的画面帧的采集时间,选取人体下肢骨骼关节点中的:左髋关节、左膝关节、左踝关节、右髋关节、右膝关节和右踝关节,生成受试者下肢关节点在世界坐标系下三维坐标的运动曲线。
在上述技术方案中,步骤S5中,采用训练好的深度学习模型来识别室内流通环境中的受试人员的身份,构建该深度学习模型的具体步骤方法如下:
S5.1:通过Kinect相机的RGB图像采集模块获取输入数据,以Resnet-50作为骨干网络提取有效工作范围内受试者身体特征;
S5.2:训练一个服装分类器,用于同一身份下不同着装的类别的分类,其交叉熵损失函数表示为:
其中M表示训练样本批次的大小;N表示训练集中所有服装的类别总和;fi θ为分类器在参数θ下所预测的归一化结果;δj为各服装类别的归一化权重参数;yi是为各服装标注的真值标签;τ为温度参数;
S5.3:将同一身份的不同着装同归为正类且赋予同样的权重参数,使得特征提取网络专注于学习服装之外的人体特征,设计多正类分类器损失函数表示为:
其中,w(j)表示第j个着装类的交叉熵损失权重参数,具体地:
其中,Si是与所提取样本特征具有相同身份的服装类型集合;Di是与所提取样本特征具有不同身份的服装类型集合;δk是集合Di中对应到第k个服装类别的权重参数;K是集合Si中服装类别总数量;ε∈(0,1]是一个超参数,用于避免相同身份且相同服装情况下的低准确率情况;
S5.4:加入该领域常用的人员身份分类器的损失函数进行联合优化,在训练阶段的每次迭代都包括上述S5.2与S5.3中的两步优化,最终表示如下所示。
其中为人员身份分类器所预测的结果,表示所标注的身份真值标签。
本发明采用无标记物动作捕捉算法,不需要在受试者身上特定位置精确地佩戴传感器,也不必主动要求受试者在固定区域做出特定动作,受试者仅仅在日常生活区域完成自然走动便可以采集并实时评估其步态数据。通过监测和评估受试者不同时间段的步态数据变化,有助于发现有助于发现慢性病、老年性疾病等导致的微弱步态变化,从而实现早期预警和健康管理,帮助医生或健康专业人士进行更早的诊断和治疗。
附图说明
图1为本发明人体步态监测及评估方法的步骤流程图。
图2为本发明中下肢关节骨骼点及关节角度的组成示意图。
对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据以上附图获得其他的相关附图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合具体实施例进一步说明本发明的技术方案。
参见附图1,本发明提供了一种人体步态监测方法,包括以下步骤:
S1:布置深度视觉传感器,拍摄受试者带有深度信息的视频图像帧,并将采集到的图像信息传入计算机中心处理器。
具体的讲,本实施例中采用的深度视觉传感器为微软Azure Kinect DK,并以本设备固定位置为中心,本方法有效场地设定为该设备视场前1.2米至3.5米,水平视场角度范围为±57.5°。
S2:采用一种帧间灰阶差值算法,对带有灰度信息的深度图像进行处理,分割出作为前景的人体轮廓,获得带有深度信息的受试者剪影,过滤非有效步态信息。
具体的讲,通过预设深度参数与帧间像素计算初步获取受试者步态轮廓剪影,步骤为:
S2.1:首先对深度视觉传感器采集的图像像素进行全局标准化,该步骤公式表示如下。
其中Iw×h为图像像素数,Pi为图像像素点,gmin为所采集深度图中最小灰度表示值,gmax为所采集深度图中最大灰度表示值。
S2.2:对捕获的当前受试者画面帧进行灰阶梯度的初步划分,具体门限值的数值根据所布置深度视觉传感器的焦距和场景位置适应设定,设置大于深度门限值的前景阶梯有大数值参数α,设置小于深度门限值的后景阶梯有小数值参数β。
S2.3:对画面帧之间的像素点进行差值计算,对当前帧的像素点灰度值与该像素点的下一帧像素灰度值相减,若该像素点处于前景阶梯则乘以大数值参数α,若该像素点处于后景阶梯则乘以小数值参数β,将此计算结果与分离极限值ε相比来界定当前像素点是否为人体轮廓及以内。计算公式表示如下。
式中为第j帧的第i个像素点;Phuman表示判定当前像素点为人体轮廓及以内像素;Pbackground表示判定当前像素点为背景像素;Tvideo表示捕获当前受试者步态画面的视频时长。
S2.4:特别地,对于判定非零的人体Phuman像素点,需要进行下一步的条件判定。若以该像素点为中心的半径内所有其他像素点P(x,y)均低于分离极限值ε,则认定为误判点并归为Pbackground。
具体地,由于超出本系统预期工作范围的图像数据带有一定的干扰和噪声,在本实施例中通过设定所述帧间灰阶差值算法阈值来滤除这类信息段,取消记录本次捕获的步态数据。对于记录于本方法有效场地前的受试者步态动作,作为有效信息存取并进行后续处理。为获取清晰且完整的步态特征数据,对所计算的人体区域内像素点深度距离进行有效数据判断:以距传感器1.2m±0.2m的深度值为上距离阈值,以距传感器3.5m±0.2m的深度值为下距离阈值。
S3:将经过上述处理后的深度图像信息输入至经过训练的关节点检测模型,得到受试者的骨骼关节点坐标,然后计算基于时间序列的关节角度步态曲线及步频、步速等参数。具体地,步骤为:
S3.1:在本实施例中采用的深度学习训练模型为V2V-Posenet,该模型可以从单个深度图像中估计人体姿态。该模型的损失函数是计算所有预测点的体素坐标与真实点体素坐标之间欧式距离的加权和,通过反向传播算法更新模型权重,本实施例中使用该模型从深度图像中精准预测人体三维关节点坐标。
S3.2:在本实施例中,对于步态特征的定量分析,记录受试者在有效场地被捕获的画面帧的采集时间,选取人体下肢骨骼关节点中的:左髋关节、左膝关节、左踝关节、右髋关节、右膝关节和右踝关节,参考图2。生成受试者下肢关节点在世界坐标系下三维坐标的运动曲线。
S3.3:由于本领域内常用于步态分析的各参数之间存在特征重叠与冗余,为保证本系统运行的实时性与高效性,分析各步态参数之间的相关性并综合考虑筛选出关键特征。使用皮尔逊相关系数来判断两步态参数之间的相关性。设两个关键特征为u、v,则皮尔逊相关系数表示为如下公式。
式中ρuv是u特征与v特征之间的皮尔逊相关系数,n是特征样本个数。相关系数的值域为(-1,1),越接近于值域边界,步态参数间的相关性越强,其反应的步态信息重叠越多。选取两个受测特征间相关系数在(-0.5,0.5)范围内作为待监测步态参数。通过输出相关性系数热力图选取步频、步速、髋关节角度和膝关节角度作为步态监测特征。
S3.4:构造人体关节空间向量并计算膝关节角度和髋关节角度,本发明中两空间向量间的关节角度(即膝关节角度和髋关节角度)以屈伸角度数值的方式记录,对于该画面帧下的第i个三维关节点xi,其与相邻两三维关节点xi+1、xi-1所构成的关节屈伸角度数值计算方式如下所示,进而得到基于时间序列的关节角度步态特征曲线数据。
根据当前受试者画面帧的采集时间与步态周期计算步频,同时根据人体几何中心在不同帧间的相对位移计算其步速。
S4:对当前受试者的步态参数(步频、步速、髋关节角度和膝关节角度)进行综合分数计算的评估。
采用随机森林算法中基尼指数的算法思路对所述受监测的步态参数进行重要性评估,将各步态参数的对综合分数的占比转化为比较每个参数基尼指数的平均值,假设参数m是第k类的概率为pk,则基尼指数表示为:
分别取所述各步态参数的基尼指数为εi,并进行归一化处理,则当前受试者综合分数的计算方式为:p=ε1θ1+ε2θ2+ε3H+ε4V,
其中,θ1表示膝关节角度,θ2表示髋关节角度,H代表步频数值,V代表步速数值。
S5:根据步骤S1采集的视频图像识别当前受试者的身份。
本发明方法立足于针对室内流通环境中人员长期步态监测的功能下,对于受试人员身份识别所需的特征提取充分考虑相同人员身份不同着装的前提。本实施例采用训练好的深度学习模型来识别室内流通环境中的受试人员的身份,构建该深度学习模型的具体步骤方法如下:
S5.1:通过Kinect相机的RGB图像采集模块获取输入数据,以Resnet-50作为骨干网络提取有效工作范围内受试者身体特征。
S5.2:训练一个服装分类器,用于同一身份下不同着装的类别的分类,其交叉熵损失函数表示为:
其中M表示训练样本批次的大小;N表示训练集中所有服装的类别总和;fi θ为分类器在参数θ下所预测的归一化结果;δj为各服装类别的归一化权重参数;yi是为各服装标注的真值标签;τ为温度参数。
S5.3:将同一身份的不同着装同归为正类且赋予同样的权重参数,使得特征提取网络专注于学习服装之外的人体特征如面部、体型和发型等等。设计多正类分类器损失函数表示为:
其中,w(j)表示第j个着装类的交叉熵损失权重参数,具体地:
其中,Si是与所提取样本特征具有相同身份的服装类型集合;Di是与所提取样本特征具有不同身份的服装类型集合;δk是集合Di中对应到第k个服装类别的权重参数;K是集合Si中服装类别总数量;ε∈(0,1]是一个超参数,用于避免相同身份且相同服装情况下的低准确率情况。
S5.4:在上述的基础上加入该领域常用的人员身份分类器的损失函数进行联合优化,在训练阶段的每次迭代都包括上述S5.2与S5.3中的两步优化,最终表示如下所示。
其中为人员身份分类器所预测的结果,表示所标注的身份真值标签。
S6:将步骤S4得到的受试者的综合分数结果作为评估指标存入该受试者身份所对应的个人加密数据库中,并与该受试者身份所对应的个人加密数据库中的历史分值进行差异比较,若差值超过历史分值的20%,则记录予以生成警示信息。
进一步的,本发明专利涉及一种对个人生物信息等隐私数据进行长期存储与管理更新的软件模块。具体地,使用关系型数据库SQL Server实现上述模块,包括一种自建加密用户数据库,用于存储受试者的两类生物特征信息,第一生物特征信息是人员身份特征信息,第二生物特征信息是人体步态特征信息。
其中设计数据库考虑的第一生物特征信息包括:存储每个受试者的身份特征信息,如面部、体型和发型,存储每个受试者的身份标识符,如姓名、性别和身份编号。
设计数据库考虑的第二生物特征信息包括:存储该受试者当前步态信息中下肢关节的三维空间变化曲线与髋、膝关节屈伸角度变化曲线,存储当前受试者的步速信息与步频信息。
所述加密数据库更新模块具体包括,针对自建加密数据库中所存储的每位受试者步态信息,保留近30次的有效步态信息录入。一方面,每次的新增当前步态特征应分别与加密数据库中最早的数据曲线和最近的数据曲线作差异性分析,以防一些慢性病、老年性疾病导致的微弱步态变化在多次差异值计算中连续低于阈值;另一方面,通过限定每位受试者步态信息存储条数以保证计算机存储单元的内存余量和系统的长期运行。
对于受试者数据处理,为提高人员身份匹配的准确度与步态捕获效率并设置步态特征初始值,在搭建系统时预先对本场所内的常驻人员进行信息录入,内容包括第一生物特征信息中的受试者身份标识符,如姓名、性别、身份编号、面部照片等等。
以上对本发明做了示例性的描述,应该说明的是,在不脱离本发明的核心的情况下,任何简单的变形、修改或者其他本领域技术人员能够不花费创造性劳动的等同替换均落入本发明的保护范围。
Claims (6)
1.一种人体步态监测及评估方法,其特征在于,包括以下步骤:
S1:布置深度视觉传感器,拍摄受试者带有深度信息的视频图像帧;
S2:对带有灰度信息的深度图像进行处理,分割出作为前景的人体轮廓,获得带有深度信息的受试者剪影,过滤非有效步态信息;
S3:将经过上述处理后的深度图像信息输入至经过训练的关节点检测模型,得到受试者的骨骼关节点坐标;
使用皮尔逊相关系数来判断两步态参数之间的相关性,选取两个受测特征间相关系数在(-0.5,0.5)范围内作为待监测步态参数;通过输出相关性系数热力图选取步频、步速、髋关节角度和膝关节角度作为待监测的步态参数;
构造人体关节空间向量并计算膝关节角度和髋关节角度,膝关节角度和髋关节角度以屈伸角度数值的方式记录,进而得到基于时间序列的膝关节角度和髋关节角度步态特征数据;根据当前受试者画面帧的采集时间与步态周期计算步频,根据人体几何中心在不同帧间的相对位移计算其步速;
S4:对当前受试者的步频、步速、髋关节角度和膝关节角度等步态参数进行综合分数计算的评估;
将各步态参数的对综合分数的占比转化为比较每个参数基尼指数的平均值,假设参数m是第k类的概率为pk,则基尼指数表示为:
分别取所述各步态参数的基尼指数为εi,并进行归一化处理,则当前受试者综合分数的计算方式为:p=ε1θ1+ε2θ2+ε3H+ε4V,
其中,θ1表示膝关节角度,θ2表示髋关节角度,H代表步频数值,V代表步速数值;
S5:根据步骤S1采集的视频图像识别当前受试者的身份;
S6:将步骤S4得到的受试者的综合分数结果作为评估指标存入该受试者身份所对应的个人加密数据库中,并与该受试者身份所对应的个人加密数据库中的历史分值进行差异比较,若差值超过设定阈值,则记录予以生成警示信息。
2.根据权利要求1所述的人体步态监测及评估方法,其特征在于:采用的深度视觉传感器为微软Azure Kinect DK,并以本设备固定位置为中心。
3.根据权利要求1所述的人体步态监测及评估方法,其特征在于:步骤2包括以下步骤:
S2.1:首先对深度视觉传感器采集的图像像素进行全局标准化,该步骤公式表示如下:
其中Iw×h为图像像素数,Pi为图像像素点,gmin为所采集深度图中最小灰度表示值,gmax为所采集深度图中最大灰度表示值;
S2.2:对捕获的当前受试者画面帧进行灰阶梯度的初步划分,设置大于深度门限值的前景阶梯有大数值参数α,设置小于深度门限值的后景阶梯有小数值参数β;
S2.3:对画面帧之间的像素点进行差值计算,对当前帧的像素点灰度值与该像素点的下一帧像素灰度值相减,若该像素点处于前景阶梯则乘以大数值参数α,若该像素点处于后景阶梯则乘以小数值参数β,将此计算结果与分离极限值ε相比来界定当前像素点是否为人体轮廓及以内,计算公式表示如下:
式中为第j帧的第i个像素点;Phuman表示判定当前像素点为人体轮廓及以内像素;Pbackground表示判定当前像素点为背景像素;Tvideo表示捕获当前受试者步态画面的视频时长。
S2.4:对于判定非零的人体Phuman像素点,需要进行下一步的条件判定,若以该像素点为中心的半径内所有其他像素点P(x,y)均低于分离极限值ε,则认定为误判点并归为Pbackground。
4.根据权利要求1所述的人体步态监测及评估方法,其特征在于:步骤S3,关节点检测模型采用深度学习训练模型V2V-Posenet,该模型的损失函数是计算所有预测点的体素坐标与真实点体素坐标之间欧式距离的加权和,通过反向传播算法更新模型权重。
5.根据权利要求1所述的人体步态监测及评估方法,其特征在于:步骤S3,记录受试者在有效场地被捕获的画面帧的采集时间,选取人体下肢骨骼关节点中的:左髋关节、左膝关节、左踝关节、右髋关节、右膝关节和右踝关节,生成受试者下肢关节点在世界坐标系下三维坐标的运动曲线。
6.根据权利要求1所述的人体步态监测及评估方法,其特征在于:步骤S5中,采用训练好的深度学习模型来识别室内流通环境中的受试人员的身份,构建该深度学习模型的具体步骤方法如下:
S5.1:通过Kinect相机的RGB图像采集模块获取输入数据,以Resnet-50作为骨干网络提取有效工作范围内受试者身体特征;
S5.2:训练一个服装分类器,用于同一身份下不同着装的类别的分类,其交叉熵损失函数表示为:
其中M表示训练样本批次的大小;N表示训练集中所有服装的类别总和;fi θ为分类器在参数θ下所预测的归一化结果;δj为各服装类别的归一化权重参数;yi是为各服装标注的真值标签;τ为温度参数;
S5.3:将同一身份的不同着装同归为正类且赋予同样的权重参数,使得特征提取网络专注于学习服装之外的人体特征,设计多正类分类器损失函数表示为:
其中,w(j)表示第j个着装类的交叉熵损失权重参数,具体地:
其中,Si是与所提取样本特征具有相同身份的服装类型集合;Di是与所提取样本特征具有不同身份的服装类型集合;δk是集合Di中对应到第k个服装类别的权重参数;K是集合Si中服装类别总数量;ε∈(0,1]是一个超参数,用于避免相同身份且相同服装情况下的低准确率情况;
S5.4:加入该领域常用的人员身份分类器的损失函数进行联合优化,在训练阶段的每次迭代都包括上述S5.2与S5.3中的两步优化,最终表示如下所示。
其中为人员身份分类器所预测的结果,表示所标注的身份真值标签。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310907343.5A CN116831565A (zh) | 2023-07-23 | 2023-07-23 | 一种人体步态监测及评估方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310907343.5A CN116831565A (zh) | 2023-07-23 | 2023-07-23 | 一种人体步态监测及评估方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116831565A true CN116831565A (zh) | 2023-10-03 |
Family
ID=88167062
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310907343.5A Pending CN116831565A (zh) | 2023-07-23 | 2023-07-23 | 一种人体步态监测及评估方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116831565A (zh) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116530976A (zh) * | 2023-05-19 | 2023-08-04 | 河北工业大学 | 一种人体步态监测方法 |
| CN118351592A (zh) * | 2024-03-22 | 2024-07-16 | 北京历源金成科技有限公司 | 基于动物的步态分析方法和终端设备 |
| CN118948262A (zh) * | 2024-10-16 | 2024-11-15 | 青岛理工大学 | 一种基于机器学习决策分类的异常步态检测方法及系统 |
| CN118948259A (zh) * | 2024-08-02 | 2024-11-15 | 北京健康有益科技有限公司 | 步态健康监测与分析方法及系统 |
| CN119385556A (zh) * | 2025-01-02 | 2025-02-07 | 山东爱优动体育健康服务有限公司 | 基于生理信号和动作反馈的步态评价分析设备及其系统 |
| CN119723666A (zh) * | 2024-12-17 | 2025-03-28 | 南京邮电大学 | 一种基于步态分析与姿态估计的人体髋关节炎步态特征检测方法 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180094253A (ko) * | 2017-02-15 | 2018-08-23 | 연세대학교 산학협력단 | 사용자 자세 추정 장치 및 방법 |
| CN110046675A (zh) * | 2019-04-25 | 2019-07-23 | 河北工业大学 | 一种基于改进的卷积神经网络的下肢运动能力评估方法 |
| CN110801233A (zh) * | 2019-11-05 | 2020-02-18 | 上海电气集团股份有限公司 | 一种人体步态监测方法及装置 |
| CN111027432A (zh) * | 2019-12-02 | 2020-04-17 | 大连理工大学 | 基于步态特征的视觉跟随机器人方法 |
| CN112396014A (zh) * | 2020-11-26 | 2021-02-23 | 河北工业大学 | 基于特征融合的视触融合步态识别方法 |
| CN113255462A (zh) * | 2021-04-29 | 2021-08-13 | 深圳大学 | 步态评分方法、系统、计算机程序产品及可读存储介质 |
| EP3872520A2 (en) * | 2020-02-25 | 2021-09-01 | Origin Wireless, Inc. | Device and method for vehicle related wireless monitoring based on multipath channel information |
| CN114495267A (zh) * | 2022-01-04 | 2022-05-13 | 哈尔滨工业大学(威海) | 基于多维数据融合的老人跌倒风险评估方法 |
| US20230114610A1 (en) * | 2021-10-01 | 2023-04-13 | Realtek Semiconductor Corporation | Neural network construction method and apparatus having average quantization mechanism |
-
2023
- 2023-07-23 CN CN202310907343.5A patent/CN116831565A/zh active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180094253A (ko) * | 2017-02-15 | 2018-08-23 | 연세대학교 산학협력단 | 사용자 자세 추정 장치 및 방법 |
| CN110046675A (zh) * | 2019-04-25 | 2019-07-23 | 河北工业大学 | 一种基于改进的卷积神经网络的下肢运动能力评估方法 |
| CN110801233A (zh) * | 2019-11-05 | 2020-02-18 | 上海电气集团股份有限公司 | 一种人体步态监测方法及装置 |
| CN111027432A (zh) * | 2019-12-02 | 2020-04-17 | 大连理工大学 | 基于步态特征的视觉跟随机器人方法 |
| EP3872520A2 (en) * | 2020-02-25 | 2021-09-01 | Origin Wireless, Inc. | Device and method for vehicle related wireless monitoring based on multipath channel information |
| CN112396014A (zh) * | 2020-11-26 | 2021-02-23 | 河北工业大学 | 基于特征融合的视触融合步态识别方法 |
| CN113255462A (zh) * | 2021-04-29 | 2021-08-13 | 深圳大学 | 步态评分方法、系统、计算机程序产品及可读存储介质 |
| US20230114610A1 (en) * | 2021-10-01 | 2023-04-13 | Realtek Semiconductor Corporation | Neural network construction method and apparatus having average quantization mechanism |
| CN114495267A (zh) * | 2022-01-04 | 2022-05-13 | 哈尔滨工业大学(威海) | 基于多维数据融合的老人跌倒风险评估方法 |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116530976A (zh) * | 2023-05-19 | 2023-08-04 | 河北工业大学 | 一种人体步态监测方法 |
| CN118351592A (zh) * | 2024-03-22 | 2024-07-16 | 北京历源金成科技有限公司 | 基于动物的步态分析方法和终端设备 |
| CN118948259A (zh) * | 2024-08-02 | 2024-11-15 | 北京健康有益科技有限公司 | 步态健康监测与分析方法及系统 |
| CN118948262A (zh) * | 2024-10-16 | 2024-11-15 | 青岛理工大学 | 一种基于机器学习决策分类的异常步态检测方法及系统 |
| CN119723666A (zh) * | 2024-12-17 | 2025-03-28 | 南京邮电大学 | 一种基于步态分析与姿态估计的人体髋关节炎步态特征检测方法 |
| CN119385556A (zh) * | 2025-01-02 | 2025-02-07 | 山东爱优动体育健康服务有限公司 | 基于生理信号和动作反馈的步态评价分析设备及其系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN116831565A (zh) | 一种人体步态监测及评估方法 | |
| Rohan et al. | Human pose estimation-based real-time gait analysis using convolutional neural network | |
| CN113887486B (zh) | 基于时空注意力增强图卷积的异常步态识别方法及系统 | |
| Loureiro et al. | Using a skeleton gait energy image for pathological gait classification | |
| CN104408718B (zh) | 一种基于双目视觉测量的步态数据处理方法 | |
| CN116530976A (zh) | 一种人体步态监测方法 | |
| CN110991268A (zh) | 一种基于深度图像的帕金森手部运动量化分析方法和系统 | |
| CN118822947A (zh) | 深度学习神经网络的呼吸模式检测方法、装置及控制器 | |
| CN117690583B (zh) | 基于物联网的康复护理交互式管理系统及方法 | |
| Zhen et al. | Hybrid Deep‐Learning Framework Based on Gaussian Fusion of Multiple Spatiotemporal Networks for Walking Gait Phase Recognition | |
| CN116543455A (zh) | 建立帕金森症步态受损评估模型、使用方法、设备及介质 | |
| Bora et al. | Understanding human gait: A survey of traits for biometrics and biomedical applications | |
| CN111401340B (zh) | 目标对象的运动检测方法和装置 | |
| CN116504393B (zh) | 基于多模态数据的脊髓型颈椎病运动功能辅助评估系统 | |
| CN113255462A (zh) | 步态评分方法、系统、计算机程序产品及可读存储介质 | |
| CN118072385A (zh) | 一种基于视频步态分析的帕金森病评估方法 | |
| CN110765925B (zh) | 基于改进的孪生神经网络的携带物检测与步态识别方法 | |
| Anandha Praba et al. | HARNet: automatic recognition of human activity from mobile health data using CNN and transfer learning of LSTM with SVM | |
| CN117373109A (zh) | 一种基于人体骨骼点和动作识别的体态评估方法 | |
| Nouredanesh et al. | Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool | |
| CN113197558B (zh) | 心率与呼吸率检测方法、系统及计算机存储介质 | |
| CN118648892B (zh) | 一种人体跌倒预测方法、装置、电子设备及存储介质 | |
| Le et al. | Learning to estimate critical gait parameters from single-view rgb videos with transformer-based attention network | |
| Albuquerque et al. | Remote pathological gait classification system | |
| CN117752328A (zh) | 一种基于计算机视觉的轻量级病理步态分析方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |