CN108846344A - 一种融合深度学习的行人姿势多特征智能辨识方法 - Google Patents
一种融合深度学习的行人姿势多特征智能辨识方法 Download PDFInfo
- Publication number
- CN108846344A CN108846344A CN201810574972.XA CN201810574972A CN108846344A CN 108846344 A CN108846344 A CN 108846344A CN 201810574972 A CN201810574972 A CN 201810574972A CN 108846344 A CN108846344 A CN 108846344A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- krill
- individual
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合深度学习的行人姿势多特征智能辨识方法,通过对行人检测框和行人位置标签向量的提取,以行人位置标签向量作为行人轨迹点,准确的实现了对所有行人的跟踪,相比于现有技术而言,检测准确:在行人检测采用基于神经网络的深度学习方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下;再识别率高,由神经网络自动对跟踪目标提取高层抽象特征,实现对跟踪目标高效快速的匹配再识别;使用优化算法对神经网络参数进行调优处理,大大提高行人识别精准度,鲁棒性高。
Description
技术领域
本发明属于人工智能领域,特别涉及一种融合深度学习的行人姿势多特征智能辨识方法。
背景技术
随着科学技术的飞速发展,利用计算机视觉相关技术的行人检测技术已经广泛应用于生活的各个方面,如智能列车、车辆自动驾驶等领域。交通的安全是永恒的话题。在车辆碰撞类事故中,车辆与行人之间的碰撞也占了很大的比重。现如今,安全带、安全气囊等的传统安全技术已经全面普及,然而这些都是被动的保护方法。人们希望能研究出车辆的主动保护安全系统,而对行人准确的识别和跟踪是研究的重点。
目前多采用的行人跟踪方法为描述法,即将行人的外貌特征如衣服颜色等作为判断特征,提取图像的颜色直方图,进而通过欧氏距离或巴氏距离计算相似度,此种方法鲁棒性较低,效果不理想。还有学者提出用多特征融合的描述方法对行人进行匹配识别,但浅层特征易受到描述能力的限制,且具有较高的主观因素。
中国专利CN201610317720公开了一种基于循环神经网络的多目标跟踪方法,包括以下步骤:1:构建标注了每帧行人位置的监控视频数据集;2:对标注了每帧行人位置的监控视频数据集进行人工扩充,得到训练集样本;3:对训练集样本进行分组,得到多个训练组;4:构建多目标跟踪网络;5:将各训练组以序列为单位输入多目标跟踪网络进行训练;6:将待测视频数据输入训练后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹。该专利所述方案中存在以下几点问题:1.行人跟踪系统中未考虑行人在视频中短暂消失重现或者中途有新行人进入的状况,以上两种情况均可能导致系统判断失误;2.需要对行人数据集进行人工扩充,使得判断系统繁琐,效率下降;3.使用循环神经网络算法容易出现局部收敛。
发明内容
本发明提供了一种融合深度学习的行人姿势多特征智能辨识方法,其目的在于克服现有技术的监控视频中,行人跟踪处理结果简单、准确度不高的情况。
一种融合深度学习的行人姿势多特征智能辨识方法,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
步骤3:构建基于小波神经网络的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对小波神经网络进行训练,得到基于小波神经网络的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述小波神经网络的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于深度学习的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于小波神经网络的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对深度学习模型进行训练,获得基于深度学习的行人跟踪模型;
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的跟踪结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的行人位置标签向量添加到第一帧中人的记录中;
其中,所述深度学习模型设置有三层隐藏层,输入层和第一隐藏层构成第一层限制玻儿兹曼机RBM,第一隐藏层和第二隐藏层构成第二层限制玻儿兹曼机RBM,第二隐藏层和第三隐藏层构成BP层,使用逐层训练的方法依次对两层限制玻儿兹曼机RBM进行训练,使用BP算法反馈调节对深度学习模型进行微调,得到深度学习模型的权值矩阵、可见层偏置以及隐藏层偏置参数;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于小波神经网络的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图和对应的行人位置标签向量输入所述基于深度学习的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行深度学习,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识;
进一步地,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域,得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
进一步地,使用教与学算法对基于小波神经网络的行人检测模型中的小波神经网络的权值和阈值进行优化,具体步骤如下:
步骤B1:将学员个体成绩作为小波神经网络的权值和阈值,初始化教与学算法参数;
随机初始化所有班级学员个体成绩,种群规模为Np,取值范围为[60,200],作为搜索空间维数的学生所学科目数为2,学习因子Ct,取值范围[0.4,1.2];
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将学员个体成绩对应的权值和阈值代入基于小波神经网络的行人检测模型中,并利用学员个体成绩确定的基于小波神经网络的行人检测模型预测输入图像中包含的行人的标签向量,将输入图像中包含的所有行人标签向量的预测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:选取第一适应度函数值最大的学员个体成绩的学员作为老师,并以当前老师对其余学员个体教学,提高学员个体成绩;
其中,表示班级中学员个体i在迭代次数为t+1时的成绩,表示班级中学员个体i在迭代次数为t时的成绩;Mean为班级所有学员个体的初始成绩的平均值,表示老师的成绩,T为教学因子,T=round[1+rand(0,1)],round为四舍五入法取整函数,rand(0,1)为随机函数,在(0,1)之间随机取值;
步骤B4:学员个体之间相互学习;
每一个学员个体在班级中随机挑选另一名学员个体进行相互学习,通过成绩好的学员个体带成绩差的学员个体,提高学员个体成绩,具体公式如下:
其中,分别是学员个体i和学员个体k的迭代次数为t时的第一适应度函数值,为在迭代次数为t时,班级中除学员个体i以外随机选择的学员个体k的成绩;
步骤B5:班级中所有学员个体成绩更新;
如果学员个体在迭代次数t+1的成绩大于在迭代次数t时的成绩,则,以迭代次数为t+1时的成绩作为学员个体的当前成绩,否则,以迭代次数为t时的成绩作为学员个体的当前成绩;
步骤B6:判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最好学员个体成绩对应的小波神经网络权值与阈值,获得基于小波神经网络的行人检测模型。
进一步地,所述基于深度学习行人跟踪模型中的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数采用磷虾算法进行优化,具体步骤如下:
步骤C1:以磷虾个体位置作为深度学习网络的权值矩阵、可见层偏置以及隐藏层偏置参数,随机初始化磷虾种群并设置磷虾种群参数,磷虾种群包含多个磷虾个体;
磷虾种群规模的取值范围为[50,180],诱导惯性权重wy的取值范围为[0.24,0.65],觅食惯性权重wm的取值范围为[0.4,0.8],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.175],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.3,1.4],最大迭代次数T的取值范围为[500,2000],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值矩阵、可见层偏置以及隐藏层偏置参数代入基于深度学习网络的深度学习行人跟踪模型中,将磷虾个体位置确定的基于深度学习网络的深度学习行人跟踪模型得到的输出和实际输出做差的绝对值作为第二适应度函数f2(x);
适应度值为0则磷虾个体优秀,适应度值为1则磷虾个体不优秀;
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第二适应度函数f2(x)确定当前最优磷虾位置;
磷虾速度和位置由以下三个运动改变:
(1)磷虾受周围磷虾的诱导,向周围磷虾移动,方向为αi,进行诱导运动,公式如下:
(2)磷虾受“食物”的吸引,进行觅食活动,方向为βi,公式如下:
(3)磷虾进行随机扩散,随机得到方向δi,公式如下:
其中,为迭代次数t时的诱导速度,觅食速度和扩散速度,为迭代次数t+1时的诱导速度,觅食速度和扩散速度,αi,βi,δi分别代表诱导方向,觅食方向和扩散方向,t为当前迭代次数,tmax为最大迭代次数;
由三个运动速度分量共同构成磷虾的运动速度:
根据上式得到位置更新公式:
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C3,直到满足最大迭代次数后,以第二适应度函数值最小时对应的磷虾个体位置,确定基于深度学习网络的行人跟踪模型的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数。
有益效果
本发明提供了一种融合深度学习的行人姿势多特征智能辨识方法,通过对行人检测框和行人位置标签向量的提取,以行人位置标签向量作为行人轨迹点,准确的实现了对所有行人的跟踪,相比于现有技术而言,具有以下优点:
1.检测准确:在行人检测采用基于神经网络的深度学习方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下;
2.再识别率高,由神经网络自动对跟踪目标提取高层抽象特征,实现对跟踪目标高效快速的匹配再识别;
3.使用优化算法对神经网络参数进行调优处理,大大提高行人识别精准度,鲁棒性高。
附图说明
图1为本发明所述方法的流程示意图。
具体实施方式
下面将结合附图和实例对本发明做进一步的说明。
如图1所示,一种融合深度学习的行人姿势多特征智能辨识方法包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域,得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
步骤3:构建基于小波神经网络的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对小波神经网络进行训练,得到基于小波神经网络的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述小波神经网络的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
使用教与学算法对基于小波神经网络的行人检测模型中的小波神经网络的权值和阈值进行优化,具体步骤如下:
步骤B1:将学员个体成绩作为小波神经网络的权值和阈值,初始化教与学算法参数;
随机初始化所有班级学员个体成绩,种群规模为Np,取值范围为[60,200],作为搜索空间维数的学生所学科目数为2,学习因子Ct,取值范围[0.4,1.2];
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将学员个体成绩对应的权值和阈值代入基于小波神经网络的行人检测模型中,并利用学员个体成绩确定的基于小波神经网络的行人检测模型预测输入图像中包含的行人的标签向量,将输入图像中包含的所有行人标签向量的预测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:选取第一适应度函数值最大的学员个体成绩的学员作为老师,并以当前老师对其余学员个体教学,提高学员个体成绩;
其中,表示班级中学员个体i在迭代次数为t+1时的成绩,表示班级中学员个体i在迭代次数为t时的成绩;Mean为班级所有学员个体的初始成绩的平均值,表示老师的成绩,T为教学因子,T=round[1+rand(0,1)],round为四舍五入法取整函数,rand(0,1)为随机函数,在(0,1)之间随机取值;
步骤B4:学员个体之间相互学习;
每一个学员个体在班级中随机挑选另一名学员个体进行相互学习,通过成绩好的学员个体带成绩差的学员个体,提高学员个体成绩,具体公式如下:
其中,分别是学员个体i和学员个体k的迭代次数为t时的第一适应度函数值,为在迭代次数为t时,班级中除学员个体i以外随机选择的学员个体k的成绩;
步骤B5:班级中所有学员个体成绩更新;
如果学员个体在迭代次数t+1的成绩大于在迭代次数t时的成绩,则,以迭代次数为t+1时的成绩作为学员个体的当前成绩,否则,以迭代次数为t时的成绩作为学员个体的当前成绩;
步骤B6:判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最好学员个体成绩对应的小波神经网络权值与阈值,获得基于小波神经网络的行人检测模型。
步骤4:构建基于深度学习的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于小波神经网络的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对深度学习模型进行训练,获得基于深度学习的行人跟踪模型;
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的跟踪结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的行人位置标签向量添加到第一帧中人的记录中;
其中,所述深度学习模型设置有三层隐藏层,输入层和第一隐藏层构成第一层限制玻儿兹曼机RBM,第一隐藏层和第二隐藏层构成第二层限制玻儿兹曼机RBM,第二隐藏层和第三隐藏层构成BP层,使用逐层训练的方法依次对两层限制玻儿兹曼机RBM进行训练,使用BP算法反馈调节对深度学习模型进行微调,得到深度学习模型的权值矩阵、可见层偏置以及隐藏层偏置参数;
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行深度学习,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识。
所述基于深度学习行人跟踪模型中的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数采用磷虾算法进行优化,具体步骤如下:
步骤C1:以磷虾个体位置作为深度学习网络的权值矩阵、可见层偏置以及隐藏层偏置参数,随机初始化磷虾种群并设置磷虾种群参数,磷虾种群包含多个磷虾个体;
磷虾种群规模的取值范围为[50,180],诱导惯性权重wy的取值范围为[0.24,0.65],觅食惯性权重wm的取值范围为[0.4,0.8],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.175],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.3,1.4],最大迭代次数T的取值范围为[500,2000],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值矩阵、可见层偏置以及隐藏层偏置参数代入基于深度学习网络的深度学习行人跟踪模型中,将磷虾个体位置确定的基于深度学习网络的深度学习行人跟踪模型得到的输出和实际输出做差的绝对值作为第二适应度函数f2(x);
适应度值为0则磷虾个体优秀,适应度值为1则磷虾个体不优秀;
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第二适应度函数f2(x)确定当前最优磷虾位置;
磷虾速度和位置由以下三个运动改变:
磷虾受周围磷虾的诱导,向周围磷虾移动,方向为αi,进行诱导运动,公式如下:
磷虾受“食物”的吸引,进行觅食活动,方向为βi,公式如下:
磷虾进行随机扩散,随机得到方向δi,公式如下:
其中,为迭代次数t时的诱导速度,觅食速度和扩散速度,为迭代次数t+1时的诱导速度,觅食速度和扩散速度,αi,βi,δi分别代表诱导方向,觅食方向和扩散方向,t为当前迭代次数,tmax为最大迭代次数;
由三个运动速度分量共同构成磷虾的运动速度:
根据上式得到位置更新公式:
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C3,直到满足最大迭代次数后,以第二适应度函数值最小时对应的磷虾个体位置,确定基于深度学习网络的行人跟踪模型的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数。
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于小波神经网络的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图和对应的行人位置标签向量输入所述基于深度学习的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.一种融合深度学习的行人姿势多特征智能辨识方法,其特征在于,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
步骤3:构建基于小波神经网络的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对小波神经网络进行训练,得到基于小波神经网络的行人检测模型;
所述小波神经网络的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于深度学习的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于小波神经网络的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对深度学习模型进行训练,获得基于深度学习的行人跟踪模型;
所述前一帧行人图像中的行人在后一帧行人图像中的跟踪结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
其中,所述深度学习模型设置有三层隐藏层,输入层和第一隐藏层构成第一层限制玻儿兹曼机RBM,第一隐藏层和第二隐藏层构成第二层限制玻儿兹曼机RBM,第二隐藏层和第三隐藏层构成BP层,使用逐层训练的方法依次对两层限制玻儿兹曼机RBM进行训练,使用BP算法反馈调节对深度学习模型进行微调,得到深度学习模型的权值矩阵、可见层偏置以及隐藏层偏置参数;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于小波神经网络的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图和对应的行人位置标签向量输入所述基于深度学习的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
2.根据权利要求1所述的方法,其特征在于,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
3.根据权利要求1所述的方法,其特征在于,使用教与学算法对基于小波神经网络的行人检测模型中的小波神经网络的权值和阈值进行优化,具体步骤如下:
步骤B1:将学员个体成绩作为小波神经网络的权值和阈值,初始化教与学算法参数;
随机初始化所有班级学员个体成绩,种群规模为Np,取值范围为[60,200],作为搜索空间维数的学生所学科目数为2,学习因子Ct,取值范围[0.4,1.2];
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将学员个体成绩对应的权值和阈值代入基于小波神经网络的行人检测模型中,并利用学员个体成绩确定的基于小波神经网络的行人检测模型预测输入图像中包含的行人的标签向量,将输入图像中包含的所有行人标签向量的预测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:选取第一适应度函数值最大的学员个体成绩的学员作为老师,并以当前老师对其余学员个体教学,提高学员个体成绩;
其中,表示班级中学员个体i在迭代次数为t+1时的成绩,表示班级中学员个体i在迭代次数为t时的成绩;Mean为班级所有学员个体的初始成绩的平均值,表示老师的成绩,T为教学因子,T=round[1+rand(0,1)],round为四舍五入法取整函数,rand(0,1)为随机函数,在(0,1)之间随机取值;
步骤B4:学员个体之间相互学习;
每一个学员个体在班级中随机挑选另一名学员个体进行相互学习,通过成绩好的学员个体带成绩差的学员个体,提高学员个体成绩,具体公式如下:
其中,分别是学员个体i和学员个体k的迭代次数为t时的第一适应度函数值,为在迭代次数为t时,班级中除学员个体i以外随机选择的学员个体k的成绩;
步骤B5:班级中所有学员个体成绩更新;
如果学员个体在迭代次数t+1的成绩大于在迭代次数t时的成绩,则,以迭代次数为t+1时的成绩作为学员个体的当前成绩,否则,以迭代次数为t时的成绩作为学员个体的当前成绩;
步骤B6:判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最好学员个体成绩对应的小波神经网络权值与阈值,获得基于小波神经网络的行人检测模型。
4.根据权利要求1-4任一项所述的方法,其特征在于,所述基于深度学习行人跟踪模型中的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数采用磷虾算法进行优化,具体步骤如下:
步骤C1:以磷虾个体位置作为深度学习网络的权值矩阵、可见层偏置以及隐藏层偏置参数,随机初始化磷虾种群并设置磷虾种群参数,磷虾种群包含多个磷虾个体;
磷虾种群规模的取值范围为[50,180],诱导惯性权重wy的取值范围为[0.24,0.65],觅食惯性权重wm的取值范围为[0.4,0.8],最大诱导速度Ymax的取值范围为[0.03,0.075],最大觅食速度Mmax的取值范围为[0.03,0.175],最大扩散速度Dmax的取值范围为[0.003,0.01],步长缩放因子的Ct取值范围为[0.3,1.4],最大迭代次数T的取值范围为[500,2000],时间常量为Δt=0.4;
步骤C2:设定适应度函数,确定初始最优磷虾个体位置和迭代次数t,t=1;
将磷虾个体对应的权值矩阵、可见层偏置以及隐藏层偏置参数代入基于深度学习网络的深度学习行人跟踪模型中,将磷虾个体位置确定的基于深度学习网络的深度学习行人跟踪模型得到的输出和实际输出做差的绝对值作为第二适应度函数f2(x);
步骤C3:磷虾进行诱导运动、觅食活动以及随机扩散,对磷虾个体的位置和速度进行更新,根据第二适应度函数f2(x)确定当前最优磷虾位置;
磷虾速度和位置由以下三个运动改变:
磷虾受周围磷虾的诱导,向周围磷虾移动,方向为αi,进行诱导运动,公式如下:
磷虾受“食物”的吸引,进行觅食活动,方向为βi,公式如下:
磷虾进行随机扩散,随机得到方向δi,公式如下:
其中,为迭代次数t时的诱导速度,觅食速度和扩散速度,为迭代次数t+1时的诱导速度,觅食速度和扩散速度,αi,βi,δi分别代表诱导方向,觅食方向和扩散方向,t为当前迭代次数,tmax为最大迭代次数;
由三个运动速度分量共同构成磷虾的运动速度:
根据上式得到位置更新公式:
步骤C4:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C3,直到满足最大迭代次数后,以第二适应度函数值最小时对应的磷虾个体位置,确定基于深度学习网络的行人跟踪模型的深度学习网络使用的BP反馈调节微调阶段的权值矩阵、可见层偏置以及隐藏层偏置参数。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810574972.XA CN108846344B (zh) | 2018-06-05 | 2018-06-05 | 一种融合深度学习的行人姿势多特征智能辨识方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810574972.XA CN108846344B (zh) | 2018-06-05 | 2018-06-05 | 一种融合深度学习的行人姿势多特征智能辨识方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN108846344A true CN108846344A (zh) | 2018-11-20 |
| CN108846344B CN108846344B (zh) | 2022-05-17 |
Family
ID=64210403
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201810574972.XA Active CN108846344B (zh) | 2018-06-05 | 2018-06-05 | 一种融合深度学习的行人姿势多特征智能辨识方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN108846344B (zh) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109658436A (zh) * | 2018-12-04 | 2019-04-19 | 郑州轻工业学院 | 一种混合goa和tlbo搜索的快速运动目标跟踪方法 |
| CN111402632A (zh) * | 2020-03-18 | 2020-07-10 | 五邑大学 | 一种交叉口行人运动轨迹的风险预测方法 |
| WO2021022698A1 (zh) * | 2019-08-08 | 2021-02-11 | 平安科技(深圳)有限公司 | 尾随检测方法、装置、电子设备及存储介质 |
| CN115862132A (zh) * | 2022-11-23 | 2023-03-28 | 国网安徽省电力有限公司超高压分公司 | 基于多融合网络的深度学习的行为识别与动作的检测方法 |
| CN119152581A (zh) * | 2024-11-14 | 2024-12-17 | 罗普特科技集团股份有限公司 | 基于多模态语义信息的行人重识别方法、装置及设备 |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102622765A (zh) * | 2012-02-28 | 2012-08-01 | 中国科学院自动化研究所 | 基于黎曼流型度量的鱼群算法的目标跟踪方法 |
| CN103699873A (zh) * | 2013-09-22 | 2014-04-02 | 杭州电子科技大学 | 基于ga-bp神经网络下肢平地行走步态识别方法 |
| US20160140424A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Object-centric Fine-grained Image Classification |
| CN105787478A (zh) * | 2016-04-14 | 2016-07-20 | 中南大学 | 基于神经网络和灵敏度参数的人脸转向识别方法 |
| CN106022237A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种端到端的卷积神经网络的行人检测方法 |
| US20160328643A1 (en) * | 2015-05-07 | 2016-11-10 | Siemens Aktiengesellschaft | Method and System for Approximating Deep Neural Networks for Anatomical Object Detection |
| CN106778595A (zh) * | 2016-12-12 | 2017-05-31 | 河北工业大学 | 基于高斯混合模型的人群中异常行为的检测方法 |
| CN107122736A (zh) * | 2017-04-26 | 2017-09-01 | 北京邮电大学 | 一种基于深度学习的人体朝向预测方法及装置 |
| CN107622258A (zh) * | 2017-10-16 | 2018-01-23 | 中南大学 | 一种结合静态底层特征和运动信息的快速行人检测方法 |
| CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
| CN107863153A (zh) * | 2017-11-24 | 2018-03-30 | 中南大学 | 一种基于智能大数据的人体健康特征建模测量方法与平台 |
| CN107908113A (zh) * | 2017-12-29 | 2018-04-13 | 安徽理工大学 | 基于改进tlbo算法的自抗扰控制器参数整定方法 |
| CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
-
2018
- 2018-06-05 CN CN201810574972.XA patent/CN108846344B/zh active Active
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102622765A (zh) * | 2012-02-28 | 2012-08-01 | 中国科学院自动化研究所 | 基于黎曼流型度量的鱼群算法的目标跟踪方法 |
| CN103699873A (zh) * | 2013-09-22 | 2014-04-02 | 杭州电子科技大学 | 基于ga-bp神经网络下肢平地行走步态识别方法 |
| US20160140424A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Object-centric Fine-grained Image Classification |
| US20160328643A1 (en) * | 2015-05-07 | 2016-11-10 | Siemens Aktiengesellschaft | Method and System for Approximating Deep Neural Networks for Anatomical Object Detection |
| CN105787478A (zh) * | 2016-04-14 | 2016-07-20 | 中南大学 | 基于神经网络和灵敏度参数的人脸转向识别方法 |
| CN106022237A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种端到端的卷积神经网络的行人检测方法 |
| CN106778595A (zh) * | 2016-12-12 | 2017-05-31 | 河北工业大学 | 基于高斯混合模型的人群中异常行为的检测方法 |
| CN107122736A (zh) * | 2017-04-26 | 2017-09-01 | 北京邮电大学 | 一种基于深度学习的人体朝向预测方法及装置 |
| CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
| CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
| CN107622258A (zh) * | 2017-10-16 | 2018-01-23 | 中南大学 | 一种结合静态底层特征和运动信息的快速行人检测方法 |
| CN107863153A (zh) * | 2017-11-24 | 2018-03-30 | 中南大学 | 一种基于智能大数据的人体健康特征建模测量方法与平台 |
| CN107908113A (zh) * | 2017-12-29 | 2018-04-13 | 安徽理工大学 | 基于改进tlbo算法的自抗扰控制器参数整定方法 |
Non-Patent Citations (5)
| Title |
|---|
| HAIYAN YANG 等: "Improvement of crowd flow segmentation using new streakflow similarity", 《2017 INTERNATIONAL CONFERENCE ON WAVELET ANALYSIS AND PATTERN RECOGNITION》 * |
| XI-WEI MI 等: "Wind speed forecasting method using wavelet, extreme learning machine and outlier correction algorithm", 《ENERGY CONVERSION AND MANAGEMENT》 * |
| 刘辉: "铁路沿线风信号智能预测算法研究", 《中国博士学位论文全文数据库 工程科技Ⅱ辑》 * |
| 张婧: "基于粒子滤波和神经网络的行人跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
| 许启胜: "基于多特征的行人层级识别研究:", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109658436A (zh) * | 2018-12-04 | 2019-04-19 | 郑州轻工业学院 | 一种混合goa和tlbo搜索的快速运动目标跟踪方法 |
| CN109658436B (zh) * | 2018-12-04 | 2020-09-01 | 郑州轻工业学院 | 一种混合goa和tlbo搜索的快速运动目标跟踪方法 |
| WO2021022698A1 (zh) * | 2019-08-08 | 2021-02-11 | 平安科技(深圳)有限公司 | 尾随检测方法、装置、电子设备及存储介质 |
| CN111402632A (zh) * | 2020-03-18 | 2020-07-10 | 五邑大学 | 一种交叉口行人运动轨迹的风险预测方法 |
| CN115862132A (zh) * | 2022-11-23 | 2023-03-28 | 国网安徽省电力有限公司超高压分公司 | 基于多融合网络的深度学习的行为识别与动作的检测方法 |
| CN119152581A (zh) * | 2024-11-14 | 2024-12-17 | 罗普特科技集团股份有限公司 | 基于多模态语义信息的行人重识别方法、装置及设备 |
| CN119152581B (zh) * | 2024-11-14 | 2025-02-11 | 罗普特科技集团股份有限公司 | 基于多模态语义信息的行人重识别方法、装置及设备 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN108846344B (zh) | 2022-05-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102682302B (zh) | 一种基于关键帧的多特征融合的人体姿态识别方法 | |
| CN108846344B (zh) | 一种融合深度学习的行人姿势多特征智能辨识方法 | |
| CN106650806B (zh) | 一种用于行人检测的协同式深度网络模型方法 | |
| CN102663429B (zh) | 运动目标的运动模式分类和动作识别的方法 | |
| CN106778796B (zh) | 基于混合式协同训练的人体动作识别方法及系统 | |
| CN111680655A (zh) | 一种面向无人机航拍影像的视频目标检测方法 | |
| CN103279768B (zh) | 一种基于增量学习人脸分块视觉表征的视频人脸识别方法 | |
| CN109492581A (zh) | 一种基于tp-stg框架的人体动作识别方法 | |
| CN112070010B (zh) | 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 | |
| CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
| CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
| CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
| CN106709449A (zh) | 一种基于深度学习和强化学习的行人重识别方法及系统 | |
| CN107239762A (zh) | 一种基于视觉的公交车内乘客人数统计方法 | |
| KR102178469B1 (ko) | 교사-학생 프레임워크 기반의 소프트 타겟 학습방법을 이용한 보행자 포즈 방향 추정 방법 및 시스템 | |
| CN103810500B (zh) | 一种基于有监督学习概率主题模型的地点图像识别方法 | |
| CN106650619A (zh) | 一种人体动作识别方法 | |
| CN109583379A (zh) | 一种基于随机擦除行人对齐网络的行人重识别方法 | |
| CN112395951A (zh) | 一种面向复杂场景的域适应交通目标检测与识别方法 | |
| CN102214309A (zh) | 一种基于头肩模型的特定人体识别方法 | |
| CN106407958A (zh) | 基于双层级联的面部特征检测方法 | |
| CN115497122A (zh) | 遮挡行人重识别方法、装置、设备和计算机可存储介质 | |
| Amanatiadis et al. | ViPED: On-road vehicle passenger detection for autonomous vehicles | |
| CN109460704A (zh) | 一种基于深度学习的疲劳检测方法、系统和计算机设备 | |
| CN109325546A (zh) | 一种结合步法特征的成趟足迹识别方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |