[go: up one dir, main page]

CN110992301A - 一种气体轮廓识别方法 - Google Patents

一种气体轮廓识别方法 Download PDF

Info

Publication number
CN110992301A
CN110992301A CN201910970793.2A CN201910970793A CN110992301A CN 110992301 A CN110992301 A CN 110992301A CN 201910970793 A CN201910970793 A CN 201910970793A CN 110992301 A CN110992301 A CN 110992301A
Authority
CN
China
Prior art keywords
gas
layer
image
neural network
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910970793.2A
Other languages
English (en)
Inventor
付泽强
马玉宇
郭靖宜
张树峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Order Of Magnitude Shanghai Information Technology Co Ltd
Original Assignee
Order Of Magnitude Shanghai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Order Of Magnitude Shanghai Information Technology Co Ltd filed Critical Order Of Magnitude Shanghai Information Technology Co Ltd
Priority to CN201910970793.2A priority Critical patent/CN110992301A/zh
Publication of CN110992301A publication Critical patent/CN110992301A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种气体轮廓识别方法,包括识别模型的构建过程:构建卷积神经网络;于卷积神经网络的每个卷积层之后构建数据处理层,用于在向对应层输入数据前进行归一化处理;对卷积神经网络中的池化层进行卷积运算和反卷积运算以构建全卷积神经网络;采集多个气体样本图像,并对每个气体样本图像进行图像特征的类型标注后形成对应的标注图像,将标注图像和对应的气体样本图像关联形成训练数据集;采用训练数据集对全卷积神经网络模型进行训练,得到识别模型;还包括采用识别模型对气体轮廓进行识别的过程:采用识别模型对待识别的气体图像进行识别,输出气体轮廓识别结果。本发明的有益效果在于:有效提高气体轮廓识别的准确性和泛化性。

Description

一种气体轮廓识别方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种气体轮廓识别方法。
背景技术
近年来,红外高光谱成像技术高速发展,采用高光谱红外成像技术为工业界气体的现场检测提供了可能,因此红外高光谱成像技术可以直接基于大气中气体目标的红外吸收光谱和背景红外辐射光谱进行探测,不需要提供人工红外光源。这种技术与传统的化学取样方法相比具有很大的优势:实现了对大范围的对气体进行远距离实时监测,并且提高检测效率。
由于高光谱红外图像的数据量非常大,如何从海量的数据中分析提取出有用的信息并对检测区域的气体的类别、浓度和范围进行现场级测量是急需解决的问题。因此现有技术中采用opencv库运用图像处理方法针对气体检测的高光谱红外图像进行图像形态学处理或者设定阈值等进行判别。然而由于气体图像多种多样和现场环境复杂多样的问题,导致上述现有技术的判别方法比较粗糙,并且鲁棒性很差,以及检测的准确率不高,从而造成检测过程更加耗时、耗力,以及泛化性不强。
发明内容
针对现有技术中存在的上述问题,现提供一种旨在有效提高气体轮廓识别的准确性和泛化性的气体轮廓识别方法。
具体技术方案如下:
一种气体轮廓识别方法,其中,
包括一识别模型的构建过程:
步骤A1,构建一卷积神经网络;
步骤A2,于卷积神经网络的每个卷积层之后均构建一数据处理层,数据处理层用于在向对应层输入数据前进行归一化处理;
步骤A3,对卷积神经网络中的每个池化层进行卷积运算,并且对多个预设的池化层进行反卷积运算,以构建全卷积神经网络;
步骤A4,采集多个气体样本图像,并对每个气体样本图像进行图像特征的类型标注后形成对应的标注图像,将标注图像和对应的气体样本图像关联形成训练数据,并最终形成一训练数据集;
步骤A5,采用训练数据集对全卷积神经网络模型进行训练,最终训练得到识别模型;
还包括一采用识别模型对气体轮廓进行识别的过程:
步骤B1,获取待识别的气体图像;
步骤B2,采用识别模型对气体图像进行识别,输出气体图像的气体轮廓识别结果。
优选的,气体轮廓识别方法,其中,在执行步骤A1之后,首先执行下述步骤:
步骤A11,将卷积神经网络中的分类层删除;
步骤A12,将卷积神经网络中的全连接层转化为卷积层,随后转向步骤 A2。
优选的,气体轮廓识别方法,其中,步骤A12包括以下步骤:
步骤A121,于每层全连接层中增加与全连接层的输入数据的尺寸相同的卷积核;
步骤A122,对每层全连接层的输入数据,分别采用对应的卷积核进行卷积运算,以将全连接层转化为卷积层,随后转向步骤A2。
优选的,气体轮廓识别方法,其中,于步骤A5包括:通过添加正则化项计算全卷积神经网络的损失函数。
优选的,气体轮廓识别方法,其中,步骤A5具体包括以下步骤:
步骤A51,采用一标准数据集对全卷积神经网络模型进行训练,以得到具有初始的权重参数的初始权重网络模型;
步骤A52,将训练数据集输入至初始权重网络模型中;
步骤A53,通过不断迭代训练将初始权重网络模型的损失函数的输出值降低至一预设数值范围内,从而形成具有最优的权重参数的识别模型。
优选的,气体轮廓识别方法,其中,步骤B2具体包括以下步骤:
步骤B21,将待识别的气体图像输入至识别模型中,得到气体轮廓划分结果;
步骤B22,将气体轮廓划分结果进行细化划分处理得到气体轮廓识别结果。
优选的,气体轮廓识别方法,其中,步骤B22具体包括以下步骤:
步骤B221,将气体轮廓划分结果外接矩形框,以得到矩形框内图像;
步骤B222,将矩形框内图像进行灰度阈值划分,以得到灰度阈值划分结果;
步骤B223,融合气体轮廓划分结果和灰度阈值划分结果,以得到气体轮廓识别结果。
优选的,气体轮廓识别方法,其中,数据处理层采用下述公式对输入数据进行归一化处理;
Figure RE-GDA0002394212660000041
Figure RE-GDA0002394212660000042
Figure RE-GDA0002394212660000043
Figure RE-GDA0002394212660000044
其中,i用于表示卷积层输出的特征图中像素点的编号;
xi用于表示卷积层输出的特征图中像素点的像素值;
m用于表示卷积层输出的特征图中像素点的数量;
μB用于表示卷积层输出的特征图中所有像素点像素值的均值;
Figure RE-GDA0002394212660000045
用于表示卷积层输出的特征图中所有像素点像素值的方差;
ε用于表示层的归一化偏置;
Figure RE-GDA0002394212660000046
用于表示卷积层输出的特征图中第i个像素点像素值的归一化值;
γ表示数据处理层的学习权重;
β表示数据处理层的学习偏置;
yi表示数据处理层的输出值。
优选的,气体轮廓识别方法,其中,在识别模型的构建过程,将卷积神经网络中的常规激活函数ReLU更换为激活函数Leaky ReLU。
优选的,气体轮廓识别方法,其中,步骤A4中,以红外相机的视角可见范围内的气体为目标气体进行采集得到气体样本图像。
优选的,气体轮廓识别方法,其中,图像特征的类型包括:
用于勾勒气体样本图像中的目标气体的气体轮廓类型;
用于表示气体样本图像中的移动物体的动体类型;以及
用于标记气体样本图像中除去目标气体和移动物体外的其他像素点的背景类型。
上述技术方案具有如下优点或有益效果:
第一、有效提高气体轮廓定位、判定的准确性和泛化性;
第二、有效地避免气体样本图像中可能存在的对抗噪声、光线和遮挡的影响,从而减缓对抗噪声、光线和遮挡对神经网络的不良效应,进而提高了复杂环境下的抗干扰能力,以及确保了气体轮廓的定位识别的鲁棒性。
附图说明
参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。
图1为本发明气体轮廓识别方法实施例的卷积神经网络的结构示意图;
图2为本发明气体轮廓识别方法实施例的识别模型的构建过程的流程图;
图3为本发明气体轮廓识别方法实施例的采用识别模型对气体轮廓进行识别的过程的流程图;
图4为本发明气体轮廓识别方法实施例的步骤A2之前的过程的流程图;
图5为本发明气体轮廓识别方法实施例的步骤A12的流程图;
图6为本发明气体轮廓识别方法实施例的步骤A3的流程图;
图7为本发明气体轮廓识别方法实施例的步骤A5的流程图;
图8为本发明气体轮廓识别方法实施例的步骤B2的流程图;
图9为本发明气体轮廓识别方法实施例的步骤B22的流程图;
图10A-10C为本发明气体轮廓识别方法实施例的待识别的气体图像的示意图;
图11A-11C为本发明气体轮廓识别方法实施例的气体轮廓识别结果的气体图像的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明包括一种气体轮廓识别方法,
包括一识别模型的构建过程,如图2所示:
步骤A1,构建一卷积神经网络;
步骤A2,于卷积神经网络的每个卷积层之后均构建一数据处理层,数据处理层用于在向对应层输入数据前进行归一化处理;
步骤A3,对卷积神经网络中的每个池化层进行卷积运算,并且对多个预设的池化层进行反卷积运算,以构建全卷积神经网络;
步骤A4,采集多个气体样本图像,并对每个气体样本图像进行图像特征的类型标注后形成对应的标注图像,将标注图像和对应的气体样本图像关联形成训练数据,并最终形成一训练数据集;
步骤A5,采用训练数据集对全卷积神经网络模型进行训练,最终训练得到识别模型;
还包括一采用识别模型对气体轮廓进行识别的过程,如图3所示:
步骤B1,获取待识别的气体图像;
步骤B2,采用识别模型对气体图像进行识别,输出气体图像的气体轮廓识别结果。
进一步地,在上述实施例中,基于卷积神经网络(Convolutional NeuralNetworks,CNN)来构建全卷积神经网络模型并进行网络训练以得到识别模型,从而简化构建全卷积神经网络模型的流程,进而加快构建识别模型的速度;
采用上述识别模型对气体图像进行识别,可以有效地避免气体图像中可能存在的对抗噪声、光线和遮挡的影响,从而提高了复杂环境下的抗干扰能力,以及确保了气体轮廓的定位识别的鲁棒性和准确性,并且提高泛化性;数据处理层为BN(Batch Normalization)层,并且数据处理层设置在卷积层和激活层之间,可以实现通过数据处理层对每一层之前的输入数据进行归一化处理,以提高神经网络的泛化能力,并且避免构建得到的识别模型在每次迭代都去学习适应不同的数据分布,以改善识别模型的梯度,从而避免梯度爆炸和梯度消失的问题,进而提高识别模型的构建速度。
进一步地,在上述实施例中,在执行步骤A1之后,如图4所示,首先执行下述步骤:
步骤A11,将卷积神经网络中的分类层删除;
步骤A12,将卷积神经网络中的全连接层转化为卷积层,随后转向步骤 A2。
进一步地,在上述实施例中,如图5所示,步骤A12包括以下步骤:
步骤A121,于每层全连接层中增加与全连接层的输入数据的尺寸相同的卷积核;
步骤A122,对每层全连接层的输入数据,分别采用对应的卷积核进行卷积运算,以将全连接层转化为卷积层,随后转向步骤A2。
进一步地,作为优选的实施方式,步骤A3中对卷积神经网络中的每个池化层进行卷积运算,并且可以对最后三个池化层进行反卷积运算,从而构建全卷积神经网络;
如图1所示,本实施方式中的卷积神经网络中的每一个池化层和卷积层相邻设置,并且上述卷积神经网络包括五个池化层;
将训练数据集输入至卷积神经网络中,依次对卷积神经网络中的第一个至第五个池化层进行卷积运算,随后卷积神经网络的最后一个卷积层(其中图1中的第五个池化层之后还有三个卷积层,卷积神经网络的最后一个卷积层为第五个池化层之后的第三个卷积层)、第四个池化层和第三个池化层可以进行反卷积运算;
其中,第一个池化层和第二个池化层不进行反卷积运算;具体如图6所示,步骤A3具体包括:
步骤A31,对最高池化层(即图1中的卷积神经网络的最后一个卷积层) 进行反卷积运算,以得到第一上采样层,并使得第一上采样层的维度等于最高池化层的上一层池化层(即图1中的第四个池化层)的维度,随后将最高池化层的上一层池化层和第一上采样层进行上采样和池化融合,以得到第一预测结果;
步骤A32,对第一预测结果进行反卷积运算,以得到第二上采样层,并使得第二上采样层的维度等于最高池化层的上一层池化层的上一层池化层 (即图1中的第三个池化层)的维度,随后将最高池化层的上一层池化层的上一层池化层和第一上采样层进行上采样和池化融合,以得到第二预测结果;
步骤A33,对第二预测结果进行反卷积运算,得到最终卷积层,其中最终卷积层输出维度为整个卷积神经网络的判断物体种类的个数,从而完成全卷积神经网络的构建。
其中,步骤A33中的最终卷积层输出维度于本实施方式中可以为3,最后根据最终卷积层和训练数据集之间的误差建立损失函数。
进一步地,在上述实施例中,于步骤A5包括:通过添加正则化项计算全卷积神经网络的损失函数。
在上述实施例中,通过在原始的损失函数后添加L1正则化项用来进行当前全卷积神经网络的损失函数;
需要说明的是,上述当前全卷积神经网络的损失函数用下述公式(1) 表示:
Figure RE-GDA0002394212660000091
其中,
J用于表示当前全卷积神经网络的损失函数;
J0用于表示原始的损失函数;
Figure RE-GDA0002394212660000092
用于表示L1正则化项;
α用于表示正则化系数。
进一步地,在上述实施例中,如图7所示,步骤A5具体包括以下步骤:
步骤A51,采用一标准数据集对全卷积神经网络模型进行训练,以得到具有初始的权重参数的初始权重网络模型;
步骤A52,将训练数据集输入至初始权重网络模型中;
步骤A53,通过不断迭代训练将初始权重网络模型的损失函数的输出值降低至一预设数值范围内,从而形成具有最优的权重参数的识别模型。
进一步地,作为优选的实施方式,标准数据集可以为COCO(Common Objects inContext)数据集;
通过上述COCO数据集对全卷积神经网络模型进行预训练,当全卷积神经网络模型的模型误差下降到合适的范围后结束训练,获得预训练后的权重网络,预训练后的权重网络记为初始权重;随后将带有气体的实际标记图像的训练数据集输入至采用初始权重的全卷积神经网络模型中,通过不断迭代训练将损失函数的输出值降低至预设范围内,以得到全卷积神经网络模型的最优权重,从而得到识别模型。
需要说明的是,COCO数据集是现有技术中的一种新的图像识别、分割和图像语义数据集,是一个大规模的图像识别、分割、标注数据集。
在上述实施例中,通过不断迭代训练将损失函数的输出值降低至预设范围内,可以有效地避免训练数据集中可能存在的对抗噪声、光线和遮挡的影响,进而能够有效减轻训练数据集中的对抗噪声对全卷积神经网络的攻击效应,和减少训练数据集中的光线对全卷积神经网络的不良效应,以及减缓遮挡对全卷积神经网络的不良效应,从而提高了复杂环境下的抗干扰能力,以及确保了鲁棒性。
进一步地,在上述实施例中,如图8所示,步骤B2具体包括以下步骤:
步骤B21,将待识别的气体图像输入至识别模型中,得到气体轮廓划分结果,上述气体轮廓划分结果为待识别的气体图像的粗糙的气体轮廓划分结果;
步骤B22,将气体轮廓划分结果进行细化划分处理得到气体轮廓识别结果,上述气体轮廓识别结果为待识别的气体图像的精确的气体轮廓识别结果。
上述实施例中,通过实行由粗到细的气体轮廓识别策略,可以实现通过粗识别先过滤一部分图像特征,随后采用细识别进一步对气体轮廓划分结果进行识别,从而实现保证识别结果准确性的基础上提高了识别效率。
进一步地,在上述实施例中,如图9所示,步骤B22具体包括以下步骤:
步骤B221,将气体轮廓划分结果外接矩形框,以得到矩形框内图像;
步骤B222,将矩形框内图像进行灰度阈值划分,以得到灰度阈值划分结果;
步骤B223,融合气体轮廓划分结果和灰度阈值划分结果,以得到气体轮廓识别结果。
在上述实施例中,于步骤B221中,可以采用图像形态学的技术根据气体轮廓划分结果找到最小的矩形框,并将气体轮廓划分结果外接该最小的矩形框;
于步骤B222中,可以设置一个灰度阈值,并将上述最小的矩形框内的图像根据灰度阈值进行划分,从而得到灰度阈值划分结果;
其中,当图像的灰度值小于灰度阈值时,确定该图像为气体图像;
于步骤B223中,将气体轮廓划分结果和灰度阈值划分结果进行融合,将两个轮廓重复的气体轮廓区域提取出来,以得到气体轮廓识别结果;即两个轮廓重复的气体轮廓区域为气体轮廓识别结果。
并且上述实施例通过在由全卷积神经网络得到的识别模型的基础上融合阈值分割技术,对识别模型得到的气体轮廓划分结果进行补充,实现了由粗到细的渐进式气体轮廓识别策略,粗识别可以过滤掉不相似的图像,而细识别可以进一步改善气体轮廓识别结果,从而提高了气体轮廓识别的准确度和泛化能力,为进一步的气体分析提供更准确的信息。
进一步地,在上述实施例中,数据处理层采用下述公式(2)-(5)对输入数据进行归一化处理;
Figure RE-GDA0002394212660000111
Figure RE-GDA0002394212660000112
Figure RE-GDA0002394212660000113
Figure RE-GDA0002394212660000114
其中,i用于表示卷积层输出的特征图中像素点的编号;
xi用于表示卷积层输出的特征图中像素点的像素值;
m用于表示卷积层输出的特征图中像素点的数量;
μB用于表示卷积层输出的特征图中所有像素点像素值的均值;
Figure RE-GDA0002394212660000115
用于表示卷积层输出的特征图中所有像素点像素值的方差;
ε用于表示层的归一化偏置;
Figure RE-GDA0002394212660000121
用于表示卷积层输出的特征图中第i个像素点像素值的归一化值;
γ表示数据处理层的学习权重;
β表示数据处理层的学习偏置;
yi表示数据处理层的输出值。
进一步地,在上述实施例中,在识别模型的构建过程,将卷积神经网络中的常规激活函数ReLU更换为激活函数Leaky ReLU。
其中,激活层中设置有激活函数。
通过将卷积神经网络中的常规激活函数ReLU换成收敛速度更快的激活函数LeakyReLU,以加快训练及识别速度。
上述激活函数Leaky ReLU可以用于处理全卷积神经网络模型的权重。
其中,激活函数Leaky ReLU可以用下述公式(6)表示:
Figure RE-GDA0002394212660000122
其中,ai用于表示(1,+∞)区间内的固定参数;
i用于表示卷积层输出的特征图中像素点的编号;
xi用于表示卷积层输出的特征图中像素点乘以卷积权重后得到的值;
yi用于表示数据处理层的输出值。
上述实施例中可以通过添加对数据归一化处理的BN层,和采用Leaky ReLU激活函数和当前的损失函数,从而改善fcn算法和增加识别气体轮廓的准确度,进而加快收敛速度。
进一步地,在上述实施例中,步骤A4中,以红外相机的视角可见范围内的气体为目标气体进行采集得到气体样本图像。
进一步地,在上述实施例中,图像特征的类型包括:
用于勾勒气体样本图像中的目标气体的气体轮廓类型;
用于表示气体样本图像中的移动物体的动体类型;以及
用于标记气体样本图像中除去目标气体和移动物体外的其他像素点的背景类型。
进一步地,作为优选的实施方式,采用红外相机采集第一数量的气体样本图像,并且采集第二数量的待识别的气体图像;
第一数量和第二数量可以一致,本实施方式中的气体样本图像和待识别的气体图像可以均为250,具体的可以根据使用者的需求来设置,其中,第一数量和第二数量也可以不一致;
本实施方式要识别的气体为甲烷气体;
其中待识别的气体图像如图10A-10C所示;
将250张气体样本图像对应的训练数据集输入全卷积神经网络模型中进行网络训练,以得到识别模型;
接着将250张待识别的气体图像输入识别模型得到气体轮廓划分结果,随后将气体轮廓划分结果进行细化划分处理得到气体轮廓识别结果;
其中,对应于图10A-10C所示的待识别的气体图像的气体轮廓识别结果的气体图像如图11A-11C所示;
得到的气体轮廓识别结果如下表所示:
Figure RE-GDA0002394212660000131
即上表中的气体轮廓识别结果中的正确重合率达到98%,而气体轮廓识别结果中的错误重合率为2%。
因此,本实施例中的气体轮廓识别方法可以提高气体轮廓识别结果的准确度。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (11)

1.一种气体轮廓识别方法,其特征在于,
包括一识别模型的构建过程:
步骤A1,构建一卷积神经网络;
步骤A2,于所述卷积神经网络的每个卷积层之后均构建一数据处理层,所述数据处理层用于在向对应层输入数据前进行归一化处理;
步骤A3,对所述卷积神经网络中的每个池化层进行卷积运算,并且对多个预设的所述池化层进行反卷积运算,以构建所述全卷积神经网络;
步骤A4,采集多个气体样本图像,并对每个所述气体样本图像进行图像特征的类型标注后形成对应的标注图像,将所述标注图像和对应的所述气体样本图像关联形成训练数据,并最终形成一训练数据集;
步骤A5,采用所述训练数据集对所述全卷积神经网络模型进行训练,最终训练得到所述识别模型;还包括一采用所述识别模型对气体轮廓进行识别的过程:
步骤B1,获取待识别的气体图像;
步骤B2,采用所述识别模型对所述气体图像进行识别,输出所述气体图像的气体轮廓识别结果。
2.如权利要求1所述的气体轮廓识别方法,其特征在于,在执行所述步骤A1之后,首先执行下述步骤:
步骤A11,将所述卷积神经网络中的分类层删除;
步骤A12,将所述卷积神经网络中的全连接层转化为所述卷积层,随后转向所述步骤A2。
3.如权利要求2所述的气体轮廓识别方法,其特征在于,所述步骤A12包括以下步骤:
步骤A121,于每层所述全连接层中增加与所述全连接层的输入数据的尺寸相同的卷积核;
步骤A122,对每层所述全连接层的输入数据,分别采用对应的所述卷积核进行卷积运算,以将所述全连接层转化为所述卷积层,随后转向所述步骤A2。
4.如权利要求1所述的气体轮廓识别方法,其特征在于,于所述步骤A5包括:通过添加正则化项计算所述全卷积神经网络的损失函数。
5.如权利要求4所述的气体轮廓识别方法,其特征在于,所述步骤A5具体包括以下步骤:
步骤A51,采用一标准数据集对所述全卷积神经网络模型进行训练,以得到具有初始的权重参数的初始权重网络模型;
步骤A52,将所述训练数据集输入至所述初始权重网络模型中;
步骤A53,通过不断迭代训练将所述初始权重网络模型的所述损失函数的输出值降低至一预设数值范围内,从而形成具有最优的所述权重参数的所述识别模型。
6.如权利要求1所述的气体轮廓识别方法,其特征在于,所述步骤B2具体包括以下步骤:
步骤B21,将待识别的所述气体图像输入至所述识别模型中,得到气体轮廓划分结果;
步骤B22,将所述气体轮廓划分结果进行细化划分处理得到所述气体轮廓识别结果。
7.如权利要求6所述的气体轮廓识别方法,其特征在于,所述步骤B22具体包括以下步骤:
步骤B221,将所述气体轮廓划分结果外接矩形框,以得到矩形框内图像;
步骤B222,将所述矩形框内图像进行灰度阈值划分,以得到灰度阈值划分结果;
步骤B223,融合所述气体轮廓划分结果和所述灰度阈值划分结果,以得到所述气体轮廓识别结果。
8.如权利要求2所述的气体轮廓识别方法,其特征在于,所述数据处理层采用下述公式对输入数据进行归一化处理;
Figure FDA0002231998860000031
Figure FDA0002231998860000032
Figure FDA0002231998860000033
Figure FDA0002231998860000034
其中,i用于表示所述卷积层输出的特征图中像素点的编号;
xi用于表示所述卷积层输出的特征图中像素点的像素值;
m用于表示所述卷积层输出的特征图中像素点的数量;
μB用于表示所述卷积层输出的特征图中所有像素点像素值的均值;
Figure FDA0002231998860000035
用于表示所述卷积层输出的特征图中所有像素点像素值的方差;
ε用于表示层的归一化偏置;
Figure FDA0002231998860000036
用于表示所述卷积层输出的特征图中第i个像素点像素值的归一化值;
γ表示所述数据处理层的学习权重;
β表示所述数据处理层的学习偏置;
yi表示所述数据处理层的输出值。
9.如权利要求1所述的气体轮廓识别方法,其特征在于,在所述识别模型的构建过程,将所述卷积神经网络中的常规激活函数ReLU更换为激活函数Leaky ReLU。
10.如权利要求1所述的气体轮廓识别方法,其特征在于,所述步骤A4中,以红外相机的视角可见范围内的气体为目标气体进行采集得到所述气体样本图像。
11.如权利要求1所述的气体轮廓识别方法,其特征在于,所述图像特征的类型包括:
用于勾勒所述气体样本图像中的目标气体的气体轮廓类型;
用于表示所述气体样本图像中的移动物体的动体类型;以及
用于标记所述气体样本图像中除去所述目标气体和所述移动物体外的其他像素点的背景类型。
CN201910970793.2A 2019-10-14 2019-10-14 一种气体轮廓识别方法 Pending CN110992301A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910970793.2A CN110992301A (zh) 2019-10-14 2019-10-14 一种气体轮廓识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910970793.2A CN110992301A (zh) 2019-10-14 2019-10-14 一种气体轮廓识别方法

Publications (1)

Publication Number Publication Date
CN110992301A true CN110992301A (zh) 2020-04-10

Family

ID=70081924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910970793.2A Pending CN110992301A (zh) 2019-10-14 2019-10-14 一种气体轮廓识别方法

Country Status (1)

Country Link
CN (1) CN110992301A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116962A (zh) * 2020-09-21 2020-12-22 河北工业大学 一种空气成分识别方法及系统
CN116452529A (zh) * 2023-04-04 2023-07-18 浙江大学 一种红外气体检测与气体轮廓自动识别方法
CN117147631A (zh) * 2023-10-30 2023-12-01 南京沃唐光电科技有限公司 一种基于区域环境分析的气体智能检测预警方法及系统
CN117173031A (zh) * 2023-06-01 2023-12-05 广州科易光电技术有限公司 针对气体的图像处理方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408562A (zh) * 2016-09-22 2017-02-15 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统
CN107527351A (zh) * 2017-08-31 2017-12-29 华南农业大学 一种融合fcn和阈值分割的哺乳母猪图像分割方法
CN107665498A (zh) * 2017-08-29 2018-02-06 北京航空航天大学 基于典型示例挖掘的全卷积网络飞机检测方法
CN110221346A (zh) * 2019-07-08 2019-09-10 西南石油大学 一种基于残差块全卷积神经网络的数据噪声压制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408562A (zh) * 2016-09-22 2017-02-15 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统
CN107665498A (zh) * 2017-08-29 2018-02-06 北京航空航天大学 基于典型示例挖掘的全卷积网络飞机检测方法
CN107527351A (zh) * 2017-08-31 2017-12-29 华南农业大学 一种融合fcn和阈值分割的哺乳母猪图像分割方法
CN110221346A (zh) * 2019-07-08 2019-09-10 西南石油大学 一种基于残差块全卷积神经网络的数据噪声压制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林高华: "基于动态纹理和卷积神经网络的视频烟雾探测方法研究" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116962A (zh) * 2020-09-21 2020-12-22 河北工业大学 一种空气成分识别方法及系统
CN116452529A (zh) * 2023-04-04 2023-07-18 浙江大学 一种红外气体检测与气体轮廓自动识别方法
CN117173031A (zh) * 2023-06-01 2023-12-05 广州科易光电技术有限公司 针对气体的图像处理方法、装置、电子设备及存储介质
CN117147631A (zh) * 2023-10-30 2023-12-01 南京沃唐光电科技有限公司 一种基于区域环境分析的气体智能检测预警方法及系统

Similar Documents

Publication Publication Date Title
CN114170526B (zh) 基于轻量化网络的遥感影像多尺度目标检测识别方法
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
CN111340738B (zh) 一种基于多尺度渐进融合的图像去雨方法
CN103258332B (zh) 一种抗光照变化的运动目标的检测方法
CN110992301A (zh) 一种气体轮廓识别方法
CN118865178B (zh) 一种基于深度学习与空间信息融合的洪水提取与定位方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN119027745B (zh) 一种口岸货物固体废物快速识别方法、介质及系统
CN116452556B (zh) 基于交叉特征融合的金属膜片表面缺陷检测方法
CN110533100A (zh) 一种基于机器学习进行cme检测和跟踪的方法
CN119152502A (zh) 一种基于弱监督的景观植物图像语义分割方法
CN120708004A (zh) 跨模态图像融合的高光谱点云废旧塑料瓶智能分拣方法
CN118865142A (zh) 一种野生植物分类遥感图像数据统计分析方法
CN112816408B (zh) 一种光学镜片的瑕疵检测方法
CN113705731A (zh) 一种基于孪生网络的端到端图像模板匹配方法
CN113538342A (zh) 一种基于卷积神经网络的铝质气雾罐涂层质量检测方法
CN117953343A (zh) 一种基于支持样本特征融合和注意力机制的小样本目标检测方法
CN110889418A (zh) 一种气体轮廓识别方法
CN119723643B (zh) 一种人脸表情识别方法及装置
CN114419529A (zh) 一种基于分布空间对齐的跨模态行人再识别方法及系统
CN120088265A (zh) 一种基于深度学习的汽车玻璃屏表面缺陷检测方法及系统
CN114445875A (zh) 基于深度学习的身份识别与人脸比对系统及训练方法
CN119274004A (zh) 基于生物图像识别模型的识别方法、装置、设备和介质
CN119028019A (zh) 基于轻量级神经网络的手语识别翻译方法
CN116310870A (zh) 基于高光谱图像的目标检测分类方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200410

RJ01 Rejection of invention patent application after publication