CN110008861A - 一种基于全局和局部特征学习的行人再识别方法 - Google Patents
一种基于全局和局部特征学习的行人再识别方法 Download PDFInfo
- Publication number
- CN110008861A CN110008861A CN201910219450.2A CN201910219450A CN110008861A CN 110008861 A CN110008861 A CN 110008861A CN 201910219450 A CN201910219450 A CN 201910219450A CN 110008861 A CN110008861 A CN 110008861A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature
- neural network
- global
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于全局和局部特征学习的行人再识别方法,包括以下步骤:S1、获取训练数据集,将训练数据进行预处理以及数据增强;S2、构建深度卷积神经网络;步骤S3、利用训练数据训练所述网络;S4、获取测试数据集,且对其进行预处理,然后利用训练好的网络提取每个测试集图像的特征;S5、计算每个Query数据的特征与Gallery数据集里的特征的相似度得分;S6、对所有的相似度得分排序,得分最高的Gallery行人图像可以认为和与之对应的query行人是同一个行人,进而得到待识别图像的结果。本发明提出的网络,不仅简单,而且不需要额外的行人信息就能取得比其他经典方法更高的准确率。
Description
技术领域
本发明涉及行人再识别技术领域,具体涉及用一种基于全局和局部特征学习的行人再识别方法。
背景技术
随着社会经济和科技的逐步发展,智能监控技术越来越受到人们的关注。学校,医院,火车站,机场等人流量较大的公共场所都安装了大量的摄像头,将这些海量的视频数据进行研究分析,这在公共安全,刑侦等领域具有重大意义。
行人再识别技术是指在某一个摄像头已经出现过一个行人,当该行人在另一个摄像头在再次出现的时候,我们需要将他识别出来。行人再识别技术不同于人脸识别。人脸识别中使用到的人脸图像背景比较单一,人脸比较清晰,易于辨析。而行人再识别中的行人图像分辨率较低,人脸信息模糊,背景较为复杂,难以正确匹配;其次,不同摄像头之间的拍摄角度存在很大差异,行人在每次出现的姿态或者是体貌特征都有可能发生变化。基于这些特点,使得我们对图像的分析,行人特征的提取都非常困难。目前的行人再识别领域的技术大致分为两类:第一类是研究行人对象的特征表示方法,提取更具有鲁棒性的鉴别特征对行人进行表示;第二类使用距离度量学习方法,通过学习一个有判别力的距离度量函数,使得同一个人的图像距离小于不同行人图像间的距离。最近几年随着深度学习的发展,更多的方法关注在行人的特征表示这一方面,主流的技术有三种:第一类是全局特征,全局特征关注的是全局信息,比如行人的性别,身体形态,衣服颜色等。但是,全局特征往往容易丢失细节上的信息以及行人检测上的错误。第二类是局部特征,很多方法直接将整个行人图片分成几个固定的部分,然后将它们输入神经网络中训练,但是这种方式忽略了行人的姿态变化和遮挡对切分的图片的影响。第三类是结合全局特征和局部信息,这种方式直接融合全局和局部信息来作为行人最后的特征描述符,其缺点是往往会有更大的计算代价和额外的存储空间。由此看来,上述的三类方法,都不能充分挖掘行人的全局与局部特征。
发明内容
本发明的目的是提出一种基于全局和局部特征学习的行人再识别方法,以解决现有的深度学习方法无法充分挖掘行人的全局和局部特征的技术问题。
本发明的目的至少通过如下技术方案实现。
基于全局和局部特征学习的行人再识别方法,包括以下步骤:
步骤S1、获取训练数据集,将训练数据进行预处理以及数据增强;
步骤S2、构建深度卷积神经网络;
步骤S3、利用处理好的训练数据训练所述深度卷积神经网络;
步骤S4、获取测试数据集,且对其进行预处理,然后利用训练好的网络提取每个测试集
图像的特征;
步骤S5、计算每个查询集(Query)数据的特征与候选集(Gallery)数据集里的特征的相似度得分;
步骤S6、对所有的相似度得分排序,得分最高的Gallery行人图像可以认为和与之对应的Query行人是同一个行人,进而得到待识别图像的结果。
进一步的,所述测试数据集包括Query数据集和Gallery数据集。
进一步的,所述步骤S1的预处理是把每个行人的RGB图像大小调整成256*144,并且对其均值归一化;数据增强方式包括随机裁剪即将图像尺寸大小裁剪为256*128和水平翻转等。
进一步的,所述步骤S2深度卷积神经网络的构建包括以下步骤:
步骤S21、截取Resnet50的最后一层卷积层(Conv5层)的之前的所有网络层(卷积层Conv5)并且使用在数据集ImageNet上预训练好的参数对其初始化;所述参数包括权重向量θ1,θ2,…,θm,…θn和偏置;
步骤S22、在实际中,考虑到行人图像的垂直方向可以直觉地分为不同的部分,例如头部,胸部,腿部,还有脚等。在Conv5层后,对Conv5的输出X进行局部池化(LocalAverage Pooling),即是将该输出切分成k个部分(Part),再分别对这k个部分池化,其池化的感受野是(H/k)*W,其中H,W和k分别是Conv5的输出的长和宽和切分的部分的数量,每个Part的每个元素表示为:
这里,Xc,i,j表示卷积层Conv5输出的每个元素,i,j分别表示在长和宽方向上的索引,c表示第c维通道。Δ=H/k。
步骤S23、对切分得到的每个Part进行映射(Mapping)学习,映射之后的结果为:
其中σ1和σ2分别是线性整流函数(ReLU)和Sigmoid函数。均为卷积核参数。
步骤S24、考虑到行人图像中相近区域的信息相似,所以将由映射学习得到的每个Part先复制(Repeat)一次,然后在高度(H)维度拼接(Cat)起来;
步骤S25、将拼接起来的张量(Tensor)和X逐点相乘,实现局部特征的选择,选择的结果表示为:
其中,Xc,i,j表示卷积层Conv5输出的每个元素,Sc,i,j表示映射学习得到的结果,表示逐点相乘的运算。
步骤S26、对步骤S25得到的结果进行全局特征的融合,即全局平均池化(GlobalAveragePooling)操作。
进一步的,所述步骤S3的训练包括以下步骤:
步骤S31、将训练数据按需要组织排列好,输入步骤S2所述网络。
步骤S32、设置好所述深度卷积神经网络的损失函数:
其中,λ1、λ2、λ3、λ4和u是对应损失函数的系数,分别设置为0.1、0.1、0.1、0.1和0.6,p1、p2、p3、p4和G分别表示分别对应所述k个部分中的各部分,G对应所述切分之前的整体;和分别表示对应部分的损失函数;
步骤S33、通过所述损失函数和深度卷积神经网络的参数,得到前向传播损失值;所述参数包括权重向量θ1,θ2,…,θm,…θn。
步骤S34、反向传播得到训练误差。
进一步的,本方法对局部特征和全局特征都使用Softmax分类函数;对于Softmax损失函数,首先要计算出图像样本(x(z))属于每个类别的概率。假设所有样本共分为n类,对输入样本x(z)(z表示第z个样本),其属于类别m的概率值为:
其中,θ1,θ2,…,θm,…θn是深度卷积神经网络的参数,由Sm的公式得到Softmax损失函数:
其中,y是一个1*n的向量,ym表示当该样本对应的位置是真实类别时为1。
进一步的,所述步骤S4中的测试数据集其预处理方式是将图像大小调整为256*144,并且对其均值归一化。
进一步的,所述步骤S5的相似度量使用欧氏距离,该欧氏距离公式为:
其中xu和xv分别表示Query数据集中的第u个行人的特征和Gallery中的第v个行人的特征.
本发明与现有技术相比,具有的有益效果:本发明针对现有的深度学习技术不能充分挖掘行人的全局和局部的特征的问题,提出了一种新的网络结构。该结构能够自动实现局部和全局信息的选择学习,并同时对局部特征和全局特征使用Softmax损失函数来进行约束,得到一个具有非常鲁棒的特征描述符,从而提高行人再识别匹配的正确率。
附图说明
图1是行人再识别的基本流程;
图2为本发明基于行人的全局和局部特征选择的深度网络结构图。
具体实施方式
为了使本发明的技术方案和优势更加清晰,下面结合具体实施方式并参照附图来对本发明进一步详细说明。
如图1所示的一种基于全局和局部特征学习的行人再识别方法,包括以下步骤:
步骤S1、获取训练数据集,将训练数据进行预处理以及数据增强
本发明使用的是三个公开的行人再识别数据库:Market-1501,DukeMTMC-reID和CUHK03。由于原始数据集里的图片大小不同,不能满足神经网络的输入需要,所以把每张RGB图片Resize成256*144大小,并且对其均值归一化。然后为了提升深度学习网络学习的鲁棒性,防止过拟合,对得到的数据进行数据增强,其方式包括随机裁剪(尺寸大小是256*128),水平翻转等方式。
步骤S2、构建深度卷积神经网络
如图2所示,所述步骤S2包括以下步骤:
步骤S21、截取Resnet-50(深度残差网路-50)的最后一层卷积层Conv5(包含Conv5层)的之前的所有网络层作为基础网络(Base Network),并且使用在ImageNet上预训练好的参数对其初始化,添加的网络结构采用高斯初始化。
步骤S22、在Conv5层后,对Conv5的输出X进行局部池化(Local Average Pooling,LAP),其池化的感受野是(H/k)*W,其中H,W和k分别是Conv5的输出的长和宽和切分的part数量,如果输入图片的大小是256*128,那么H和W分别为8和4。在实际中,考虑到行人的垂直方向可以直觉地分为不同的部分,例如头部,胸部,腿部,还有脚等。所以可以将k取值为1,2,3,4等,本实施例k的取值为4。
每个部分中的每个元素可以表示为:
这里,Xc,i,j表示卷积层Conv5输出的每个元素,i,j分别表示在长和宽方向上的索引,c表示第c维通道。Δ=H/k,
步骤S23、对切分得到的每个part进行映射学习。每个映射都是由卷积层,ReLU函数,卷积层,sigmoid函数级联,并且这部分的参数不进行共享。
映射之后的结果为:
其中σ1和σ2分别是ReLU函数和Sigmoid函数,和均为是卷积核参数,
步骤S24、考虑到行人图像中相近区域的信息相似,所以将由映射(Mapping)学习得到的每个Part先复制(Repeat)一次,然后在高度(H)维度拼接(Cat)起来;
步骤S25、将拼接起来的Tensor和X逐点相乘,实现局部特征的选择。选择(selection)的结果为:
其中,Xc,i,j表示卷积层Conv5输出的每个元素,Sc,i,j表示映射学习得到的结果,表示逐点相乘的运算,
步骤S26、对步骤S25得到的结果进行全局特征的融合,即全局平均池化(GlobalAveragePooling,GAP)操作。
步骤S3、利用处理好的训练数据训练所述深度卷积神经网络
其中,所述步骤S3包含以下步骤:
步骤S31、将训练数据按需要组织排列好,输入步骤S2所述网络;
本发明实施时将每个不同类别的行人图像单独放在一起。
步骤S32、设置好所述深度卷积神经网络的损失函数。本方法对局部特征和全局特征都使用了Softmax分类函数,计算出样本(x(z))属于每个类别的概率,计算过程如下:
假设所有样本共分为n类,对输入样本x(z)(z表示第z个样本),其属于类别m的概率值为:
其中,θ1,θ2,…,θm,…θn是深度卷积神经网络的参数,由Sm的公式得到Softmax损失函数:
其中,y是一个1*n的向量,ym表示当该样本对应的位置是真实类别时为1。
如图2所示,本实施例中使用的损失函数是5个分类损失函数(Loss),分别对局部特征和全局特征约束。深度卷积神经网络最终的损失函数为:
其中,λ1、λ2、λ3、λ4和u是对应损失函数的系数,分别设置为0.1、0.1、0.1、0.1和0.6,p1、p2、p3、p4和G分别对应所述k个部分中的各部分,G对应所述切分之前的整体;和分别表示对应部分的损失函数;
步骤S33、通过所述损失函数和深度卷积神经网络参数(包括权重和偏置)得到前向传播损失值;
本发明使用的深度学习优化算法是随机梯度下降法,一共训练60次迭代(Epoch),其中前40个epoch的学习率设置为0.1,之后20个Epoch的学习率设置为0.01。批量大小(Batchsize)设置为32。
步骤S34、反向传播得到训练误差
利用步骤S32中所述的Lloss作为基准,反向传递训练误差。
步骤S4、获取测试数据集(包含Query数据集和Gallery数据集),且对其进行预处理,然
后利用训练好的网络提取测试集中所有图像的特征;
其中,所述步骤S4中的测试数据集需要重新设置大小,统一裁剪为256*144,并且对其均值归一化。
步骤S5、计算每个Query数据的特征与所述Gallery数据集里的特征的相似度得分;所述的特征是指步骤S4中的特征。
其中,所述步骤S5中的相似度量使用欧氏距离:
其中xu和xv分别表示Query数据集中的第u个行人的特征和Gallery中的第v个行人的特征
步骤S6、对所有的相似度得分排序,得分最高的Gallery行人图像可以认为和与之对应的Query行人是同一个行人,进而得到待识别图像的结果。
本发明中对结果的评价标准使用了Rank-1指标和mAP指标。
以上所述仅为本发明的说明性实施例,并不用以限制本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于全局和局部特征学习的行人再识别方法,其特征在于,所述方法包括以下步骤:
步骤S1、获取训练数据集,将训练数据进行预处理以及数据增强;
步骤S2、构建深度卷积神经网络;
步骤S3、利用处理好的训练数据训练所述深度卷积神经网络;
步骤S4、获取测试数据集,且对其进行预处理,然后利用训练好的深度卷积神经网络提取测试数据集中所有图像的特征;
步骤S5、计算每个查询集(Query)数据的特征与候选集(Gallery)数据集里的特征的相似度得分;所述的特征是指步骤S4中的特征;
步骤S6、对所有的相似度得分排序,得分最高的Gallery行人图像则认为和与之对应的Query行人是同一个行人,进而得到待识别图像的结果。
2.根据权利要求1所述的行人再识别方法,其特征在于,所述测试数据集包括Query数据集和Gallery数据集。
3.根据权利要求1所述的行人再识别方法,其特征在于,所述步骤S1的预处理是把每个行人的RGB图像大小调整成256*144,并且对其均值归一化;数据增强方式包括随机裁剪即将图像尺寸大小裁剪为256*128以及水平翻转方式。
4.根据权利要求1所述的行人再识别方法,其特征在于,所述步骤S2深度卷积神经网络的构建包括以下步骤:
步骤S21、截取Resnet50的最后一层卷积层Conv5的之前的所有网络层,包括卷积层Conv5,并且使用在ImageNet数据集上预训练好的参数对其初始化;所述参数包括权重向量θ1,θ2,...,θm,...θn;
步骤S22、对Conv5的输出X进行局部池化(Local Average Pooling),即是将该输出切分成k个部分(Part),再分别对这k个部分池化,其池化的感受野是(H/k)*W,其中H,W和k分别是Conv5的输出的长和宽和切分的部分的数量,每个Part的每个元素表示为:
这里,Xc,i,j表示卷积层Conv5输出的每个元素,i,j分别表示在长和宽方向上的索引,c表示第c维通道,Δ=H/k;
步骤S23、对切分得到的每个Part进行映射(Mapping)学习,映射之后的结果为:
其中,Vc,k表示映射学习得到的结果,σ1和σ2分别是线性整流函数(ReLU)和Sigmoid函数,和均为卷积核参数;
步骤S24、考虑到行人图像中相近区域的信息相似,所以将由映射学习得到的每个Part先复制(Repeat)一次,然后在高度(H)维度拼接(Cat)起来;
步骤S25、将拼接起来的张量(Tensor)和X逐点相乘,实现局部特征的选择,选择的结果表示为:
其中,Xc,i,j表示卷积层Conv5输出的每个元素,Sc,i,j表示映射学习得到的结果,表示逐点相乘的运算;
步骤S26、对步骤S25得到的结果进行全局特征的融合,即全局平均池化(GlobalAverage Pooling)操作。
5.根据权利要求4所述的方法,其特征在于,所述步骤S3的训练包括以下步骤:
步骤S31、将训练数据输入步骤S2所述深度卷积神经网络;
步骤S32、设置好所述深度卷积神经网络的损失函数:
其中,λ1、λ2、λ3、λ4和u是对应损失函数的系数,分别设置为0.1、0.1、0.1、0.1和0.6,p1、p2、p3、p4分别对应所述k个部分中的各部分,G对应所述切分之前的整体;和分别表示对应部分的损失函数;
步骤S33、通过所述损失函数和深度卷积神经网络的参数,得到前向传播损失值;
步骤S34、反向传播得到训练误差。
6.根据权利要求1所述的方法,其特征在于,对局部特征和全局特征均采用Softmax分类函数,计算出图像样本x(z)属于每个类别的概率,计算过程如下:
假设所有样本共分为n类,对输入样本x(z),z表示第z个样本,其属于类别m的概率值为:
其中,θ1,θ2,...,θm,...θn是深度卷积神经网络的参数,由Sm的公式得到Softmax损失函数:
其中,y是一个l*n的向量,ym表示当该样本对应的位置是真实类别时为1。
7.根据权利要求1所述的方法,其特征在于,步骤S4中所述预处理是将图像大小调整为256*144,并且对其均值归一化。
8.根据权利要求1所述的方法,其特征在于,所述步骤S5的相似度量使用欧氏距离,该欧氏距离公式为:
其中xu和xv分别表示Query数据集中的第u个行人的特征和Gallery中的第v个行人的特征。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910219450.2A CN110008861A (zh) | 2019-03-21 | 2019-03-21 | 一种基于全局和局部特征学习的行人再识别方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910219450.2A CN110008861A (zh) | 2019-03-21 | 2019-03-21 | 一种基于全局和局部特征学习的行人再识别方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN110008861A true CN110008861A (zh) | 2019-07-12 |
Family
ID=67167747
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201910219450.2A Pending CN110008861A (zh) | 2019-03-21 | 2019-03-21 | 一种基于全局和局部特征学习的行人再识别方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN110008861A (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110688976A (zh) * | 2019-10-09 | 2020-01-14 | 创新奇智(北京)科技有限公司 | 基于图像识别的门店比对方法 |
| CN110781817A (zh) * | 2019-10-25 | 2020-02-11 | 南京大学 | 一种解决部件不对齐的行人再识别方法 |
| CN111275712A (zh) * | 2020-01-15 | 2020-06-12 | 浙江工业大学 | 一种面向大尺度图像数据的残差语义网络训练方法 |
| CN112149517A (zh) * | 2020-08-31 | 2020-12-29 | 三盟科技股份有限公司 | 一种人脸考勤方法、系统、计算机设备及存储介质 |
| CN112200093A (zh) * | 2020-10-13 | 2021-01-08 | 北京邮电大学 | 一种基于不确定性估计的行人再识别方法 |
| CN113269070A (zh) * | 2021-05-18 | 2021-08-17 | 重庆邮电大学 | 融合全局和局部特征的行人重识别方法、存储器及处理器 |
| CN117133018A (zh) * | 2023-08-28 | 2023-11-28 | 浙江师范大学 | 一种基于深度学习的行人检测与重识别方法、系统及终端 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107506703A (zh) * | 2017-08-09 | 2017-12-22 | 中国科学院大学 | 一种基于无监督局部度量学习和重排序的行人再识别方法 |
| CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
| CN108875696A (zh) * | 2018-07-05 | 2018-11-23 | 五邑大学 | 基于深度可分离卷积神经网络的脱机手写汉字识别方法 |
| CN108960140A (zh) * | 2018-07-04 | 2018-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于多区域特征提取和融合的行人再识别方法 |
| CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
| CN109271926A (zh) * | 2018-09-14 | 2019-01-25 | 西安电子科技大学 | 基于gru深度卷积网络的智能辐射源识别方法 |
-
2019
- 2019-03-21 CN CN201910219450.2A patent/CN110008861A/zh active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107506703A (zh) * | 2017-08-09 | 2017-12-22 | 中国科学院大学 | 一种基于无监督局部度量学习和重排序的行人再识别方法 |
| CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
| CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
| CN108960140A (zh) * | 2018-07-04 | 2018-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于多区域特征提取和融合的行人再识别方法 |
| CN108875696A (zh) * | 2018-07-05 | 2018-11-23 | 五邑大学 | 基于深度可分离卷积神经网络的脱机手写汉字识别方法 |
| CN109271926A (zh) * | 2018-09-14 | 2019-01-25 | 西安电子科技大学 | 基于gru深度卷积网络的智能辐射源识别方法 |
Non-Patent Citations (2)
| Title |
|---|
| 李姣等: "多置信度重排序的行人再识别算法", 《模式识别与人工智能》 * |
| 王鹏 等: "Local-Global Extraction Unit for Person Re-identification", 《 INTERNATIONAL CONFERENCE ON BRAIN INSPIRED COGNITIVE SYSTEM》 * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110688976A (zh) * | 2019-10-09 | 2020-01-14 | 创新奇智(北京)科技有限公司 | 基于图像识别的门店比对方法 |
| CN110781817A (zh) * | 2019-10-25 | 2020-02-11 | 南京大学 | 一种解决部件不对齐的行人再识别方法 |
| CN111275712A (zh) * | 2020-01-15 | 2020-06-12 | 浙江工业大学 | 一种面向大尺度图像数据的残差语义网络训练方法 |
| CN112149517A (zh) * | 2020-08-31 | 2020-12-29 | 三盟科技股份有限公司 | 一种人脸考勤方法、系统、计算机设备及存储介质 |
| CN112200093A (zh) * | 2020-10-13 | 2021-01-08 | 北京邮电大学 | 一种基于不确定性估计的行人再识别方法 |
| CN113269070A (zh) * | 2021-05-18 | 2021-08-17 | 重庆邮电大学 | 融合全局和局部特征的行人重识别方法、存储器及处理器 |
| CN117133018A (zh) * | 2023-08-28 | 2023-11-28 | 浙江师范大学 | 一种基于深度学习的行人检测与重识别方法、系统及终端 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111160297B (zh) | 基于残差注意机制时空联合模型的行人重识别方法及装置 | |
| CN112926396B (zh) | 一种基于双流卷积注意力的动作识别方法 | |
| US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
| CN110110642B (zh) | 一种基于多通道注意力特征的行人重识别方法 | |
| CN109948425B (zh) | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 | |
| CN110008861A (zh) | 一种基于全局和局部特征学习的行人再识别方法 | |
| CN109034044B (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
| CN111783576B (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
| CN112199983B (zh) | 一种多层次筛选的长时间大范围行人再识别方法 | |
| CN115171165A (zh) | 全局特征与阶梯型局部特征融合的行人重识别方法及装置 | |
| CN106096561B (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
| CN111709311A (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
| CN108921107B (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
| CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
| CN109784197B (zh) | 基于孔洞卷积与注意力学习机制的行人再识别方法 | |
| CN110263697A (zh) | 基于无监督学习的行人重识别方法、装置及介质 | |
| CN111898736A (zh) | 基于属性感知的高效行人重识别方法 | |
| CN111259850A (zh) | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 | |
| CN109299657B (zh) | 基于语义注意力保留机制的群体行为识别方法及装置 | |
| CN108427921A (zh) | 一种基于卷积神经网络的人脸识别方法 | |
| CN109815814B (zh) | 一种基于卷积神经网络的人脸检测方法 | |
| CN110909605A (zh) | 基于对比相关的跨模态行人重识别方法 | |
| CN112699954B (zh) | 一种基于深度学习和词袋模型的闭环检测方法 | |
| CN112507853B (zh) | 一种基于互注意力机制的跨模态行人重识别方法 | |
| CN113065409A (zh) | 一种基于摄像分头布差异对齐约束的无监督行人重识别方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190712 |