CN117932939A - 基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 - Google Patents
基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 Download PDFInfo
- Publication number
- CN117932939A CN117932939A CN202410116428.6A CN202410116428A CN117932939A CN 117932939 A CN117932939 A CN 117932939A CN 202410116428 A CN202410116428 A CN 202410116428A CN 117932939 A CN117932939 A CN 117932939A
- Authority
- CN
- China
- Prior art keywords
- graphsage
- debutanizer
- imatcn
- process data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0463—Neocognitrons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/08—Probabilistic or stochastic CAD
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/12—Timing analysis or timing optimisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于GraphSAGE‑I MATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备,所述方法包括:从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;对过程数据样本划分数据集并确定GraphSAGE‑I MATCN网络的结构和超参数;利用数据集训练GraphSAGE‑I MATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;将预处理后的实际过程数据输入GraphSAGE‑I MATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。本发明能够提高对脱丁烷塔中丁烷含量的预测准确性。
Description
技术领域
本发明涉及化工的软测量技术领域,尤其涉及一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备。
背景技术
在脱丁烷塔的丁烷测量过程中,丁烷成分测量的过程安全对保障生产运行至关重要。然而在许多情况下,确保丁烷成分测量所需的关键参数往往难以实时获取。近年来,软传感器在工业中的应用成为可行的解决方案。软传感器的本质是通过数学建模和计算技术,利用易于测量的辅助过程变量(例如温度、压力和流量)预测难以实时获取的关键质量变量,从而实现对丁烷成分测量的在线评估和监测。软传感器具有响应速度快、维护成本低和预测效果好等优点,被广泛应用于丁烷成分测量监测及控制优化。
一般而言,软传感器主要分为两大类型:第一原理模型和数据驱动模型。第一原理模型主要是基于生产工艺或自然规律开发模型。利用物理方程和系统知识来描述丁烷成分测量能够提供准确且可解释的结果。随着生产规模的扩大,构建可靠的软传感器对于确保丁烷成分测量安全稳定的运行变得愈发重要。
然而现代丁烷成分测量逐渐表现出高维非线性、非高斯性、高度耦合等特性,传统第一原理建模方法在提取复杂数据特征方面变得力不从心。由于无需考虑所得模型的物理解释,随着分布式控制系统的广泛使用,数据驱动建模引起了学者的广泛关注。数据驱动建模依靠工业传感器获得的生产数据,挖掘数据中的内部特征信息,因此过程数据质量对所得软传感器模型的性能也至关重要。
主成分回归(PCR)、偏最小二乘回归(PLSR)、局部近邻保持嵌入(NPE)等多元统计方法是线性数据驱动建模的典型代表。但这类基础方法只能提取数据的线性结构,为了处理丁烷成分测量的非线性耦合关系,核PCR、核PLS和支持向量机(SVM)被用来描述更复杂的数据特征。基于核函数的改进思想得到广泛研究应用并推动了软传感器在丁烷成分测量中的发展。人工神经网络(ANN)也被用于开发非线性软传感器建模,但这种浅层架构的软测量模型只有不超过一个隐藏层,在捕获复杂系统数据特征时表现出了不足。随着工控系统的升级改造和计算机算力的空前发展,深度学习成为丁烷成分测量软传感器建模的重要且有效的工具。深层神经网络具有强大的非线性特征表示能力,一般需要大量的数据训练模型,这种建模方法恰好与丁烷成分测量的发展趋势不谋而合。然而在某些特定的软传感器应用过程中,基于深度学习的性能并不一定比传统的浅层架构好,关键因素在于可用于建模型的标记数据有所不同。近年来,深度学习在软传感器领域成为研究热点,现已提出了许多不同的网络结构。其中,堆叠式自动编码器(SAE)、深度置信网络(DBN)、长短期记忆(LSTM)、卷积神经网络(CNN)、时域卷积网络(TCN)的应用最为广泛。SAE主要以无监督的形式构建软传感器模型,将多个自编码层堆叠可以提取更多的抽象特征。然而,SAE对标记数据的需求较大,在数据量有限的情况下,可能难以训练一个鲁棒的SAE模型。DBN通过快速贪婪算法进行分层预训练,可以自主适应数据分布的变化并描述丁烷成分测量的动态变化。但DBN同SAE一样,数据量不足会影响其模型性能。在过去的一段时间里,循环神经网络(RNN)及其衍生变体LSTM、门控循环单元(GRU)成为处理时间序列问题的代表。LSTM通过引入门控结构有效避免了RNN在处理长期时序时不可避免的梯度消失问题,为了减少模型参数量使得更易于训练,GRU作为LSTM的变体成为另一种选择。CNN因其参数共享机制减少了待学习参数量,有利于构建轻量化的软测量模型。同时池化层有助于CNN提取各种丁烷成分测量的多尺度信息。然而,对于CNN而言,处理丁烷成分测量数据中包含的时序信息时其结构可能不够灵活。因此,有人将CNN的优势与循环神经网络或注意力机制相结合来处理丁烷成分测量数据中的时序依赖关系。其中将CNN的卷积层与LSTM相结合提出基于ConvLSTM的软测量模型,该模型结合了两种特征提取器的优势但存在结构复杂占用计算资源的问题。上述模型依托深度学习,对高复杂性、多传感器的丁烷成分测量建立软传感器建模具有特殊意义。然而,深度学习模型以端到端的方式学习特征,这很复杂且对工程师的学习理解成本高。这样为了获得可靠的软测量模型,必须增强其可解释性。
发明内容
本发明实施例提供一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备,能够提高对脱丁烷塔中丁烷含量的预测准确性。
本发明一实施例提供一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法,包括:
步骤10,从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
步骤20,对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
步骤30,利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
步骤40,使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
步骤50,将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
作为上述方案的改进,所述从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,包括:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
作为上述方案的改进,在所述步骤S11与步骤S20之间,所述方法还包括:
步骤12,采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
本发明另一实施例对应提供了一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置,包括:
采集模块,用于从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
数据样本处理模块,用于对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
训练模块,用于利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
数据采集处理模块,用于使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
预测模块,用于将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
作为上述方案的改进,所述采集模块具体用于:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
作为上述方案的改进,所述装置还包括:
数据剔除模块,用于采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
本发明另一实施例提供了一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述发明实施例所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法。
本发明另一实施例提供了一种存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述发明实施例所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法。
相比于现有技术,本发明实施例具有如下有益效果:
通过离线建模训练学习GraphSAGE-IMATCN模型参数并保存GraphSAGE-IMATCN模型结构,然后将在线采集的过程数据输入训练好的GraphSAGE-IMATCN模型,这样可以实现对脱丁烷塔中丁烷含量的实时预测,从而能够提高对脱丁烷塔中丁烷含量的预测准确性。
附图说明
图1是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法的流程示意图;
图2是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量流程图;
图3是本发明一实施例提供的一种脱丁烷塔过程流程图;
图4是本发明一实施例提供的一种测试比对结果图;
图5是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置的结构示意图;
图6是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法的流程示意图。所述基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法包括:
步骤10,从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
步骤20,对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
步骤30,利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
步骤40,使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
步骤50,将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
相比于现有技术,本发明实施例通过离线建模训练学习GraphSAGE-IMATCN模型参数并保存GraphSAGE-IMATCN模型结构,然后将在线采集的过程数据输入训练好的GraphSAGE-IMATCN模型,这样可以实现对脱丁烷塔中丁烷含量的实时预测,从而能够提高对脱丁烷塔中丁烷含量的预测准确性。
作为上述方案的改进,所述从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,包括:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
在本实施例中,通过对采集到的过程数据样本进行归一标准化,这样可以保证过程数据样本的一致性,提高了后续的模型训练效果。
作为上述方案的改进,在所述步骤S11与步骤S20之间,所述方法还包括:
步骤12,采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
在本实施例中,通过采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量,这样可以保证过程数据样本的有效性,提高了后续的模型训练效果。
为了便于理解,在此对上述实施例进行以下具体方案说明:
图采样聚合神经网络(GraphSample and Aggregated,GraphSAGE)是GraphConvolutional Network(GCN)的一种变体,GCN属于图神经网络的范畴,其核心思想是将节点的邻居特征进行聚合来更新节点的表示。在GCN中,每个节点的邻居是固定的,将节点的特征与结构的信息同时作为输入,再利用节点之间的连接关系和邻居节点的信息进行节点表示,从而自动提取有效信息并捕捉图的结构和拓扑特征。然而,GCN的不足也在研究与应用中引起了人们的关注。首先,GCN在邻居聚合过程中只考虑直接邻居节点的信息,忽略了更远邻居节点的影响,从而限制了模型对节点与远离节点之间关系的理解能力。其次,GCN采用固定大小的邻居采样策略,无法适应不同节点邻居数量的差异,也无法处理大规模图数据。此外,GCN缺乏对节点自身特征的直接考虑,节点表示向量是通过邻居聚合得到的,导致模型难以捕捉节点自身的局部上下文信息。为了解决GCN的传导学习缺陷,Hamilton等人提出了GraphSAGE以更全面地考虑节点与邻居的关系,并有效处理大规模图数据。GraphSAGE引入了邻居采样和聚合邻居特征的机制,通过对每个节点进行邻居采样,可以获取更丰富的局部子图信息。并且通过聚合邻居特征和节点自身特征的方式更好地捕捉节点的上下文信息。这样,GraphSAGE能够更全面地考虑节点与其邻居的关系,并且能够有效处理大规模图数据。其中,GraphSAGE的基本原理如下:
1.邻居采样:GraphSAGE通常以随机选择或基于特定策略选择的方式对每个节点选择一定数量的邻居节点作为采样集合,接着对每个节点的邻居进行采样来获取局部子图。这种方式可以有效处理大规模的图数据。
2.聚合邻居特征:GraphSAGE对每个节点的邻居特征进行聚合,以获取其邻居节点的整体信息。以此将邻居节点的信息编码为一个固定长度的向量。
3.更新节点表示:GraphSAGE将聚合后的邻居特征与当前节点特征进行合并,以更新当前节点的表示向量。更新后的节点表示向量可以捕捉到节点的局部上下文信息。
4.重复采样和聚合过程:上述的邻居采样、聚合和节点表示更新过程可以重复多次,确保节点表示向量逐渐融合更多的上下文信息,以增强模型对图结构的理解能力。
通过重复的采样和聚合过程,GraphSAGE能够在节点级别上学习到具有丰富语义信息的表示向量,本发明采用直推式学习的GraphSAGE模型解决了GCN内存爆炸的问题,模型在训练和推理阶段使用整个图数据集的信息,从而得到最终的节点表示向量。在本发明软传感器建模过程中,为了提高GraphSAGE对复杂非线性关系的建模能力,对GraphSAGE添加了更深的图卷积层。这一改进有助于提高软测量模型对系统动态变化和复杂交互的理解,从而提升软测量的准确性和泛化性,使模型更适应工业过程中不同操作条件和环境变化。
多头自注意力(MHSA)是自注意力机制的一种扩展形式,通过引入多个独立的注意力头使得模型能够并行地学习不同的关注点和依赖关系。传统的自注意力机制(SA)使用单个注意力头计算注意力权重并对输入序列中的不同位置进行加权求和,将序列中的所有位置视为同等重要而忽略了不同位置之间的多样性。MHSA则通过查询对象(Q)、键(K)、值(V)三个参数捕捉数据内部的相关性。
首先,输入的信息分别与权重系数Wi Q、Wi K和Wi V进行相乘得到Qi、Ki和Vi,并分成多个头headi如式(1)所示。
headi=Attention(QWi Q,KWi K,VWi V) (1)
其中,i表示注意力头的序号。然后每个头依次提取不同位置的特征,其对应注意力计算过程如式(2)所示。
其中,为缩放因子。最后整合多个头的计算结果并与线性映射矩阵W0相乘并进行线性变化得到最终的结果,如式(3)所示。
MultiHead(Q,K,V)=Concat(head1,…,headn)·W0 (3)
通过引入MHSA,软测量模型可以从多个角度和维度捕捉输入序列中的不同关系和特征。不同的注意力头可以关注不同的语义信息,从而提高模型的表达能力和学习能力。通过并行计算多个注意力头,模型可以更有效地处理长序列和复杂关系。
TCN是一种基于CNN改进的模型,其本质是通过卷积操作在时间维度上提取序列的局部特征并捕捉序列中的长期依赖关系,专门用于处理时间序列数据。卷积操作的平移不变性可以捕捉时序数据中的局部模式和关联关系而不依赖其具体位置,这使得TCN能够更好地处理时序数据中的长期依赖关系。同时,TCN采用多层不同大小的卷积核可以提取不同时间尺度上的特征,从而区分并处理时序中的局部和全局信息。与传统时间序列建模的网络相比,TCN依靠卷积操作可以实现并行计算并跨时间步提取特征,在推理和训练过程中计算速度更快,因此在大规模的批处理过程数据建模中更具有优势。简单来说,最初的TCN被设计为如下表达:
TCN=1D FCN+causal convolutions (4)
式中1D FCN表示一维全卷积网络,相当于把CNN的全连接层换成卷积层从而保证TCN产生与输入相同维度的输出。causal convolutions表示因果卷积,引入因果卷积可以使t时刻的输出仅与时刻t和前一层较早的元素进行卷积操作,从而确保未来的信息不可能泄漏到过去的因果事实。
然而,最初的设计并不能很好地处理大规模的工业数据,上述因果卷积无法有效捕获长时间序列的上下文信息或训练时间无法满足批处理过程监控的实时性要求。因此Bai等人在此基础上提出了扩张卷积实现指数级增大的感受野。假设有一维输入序列为X∈RT,使用一个过滤器f:{0,...,k-1}→R对输入序列进行扩张卷积操作,一维序列中的元素x对应的卷积结果定义如下:
式中d表示扩张因子,k表示滤波器大小,s-d·i表示过去的方向。一般将扩张因子设置为{1,2,4,8},可以很大程度上减少训练时长。
此外,TCN还增加了残差连接,用于提高特征提取过程中的信息保留和模型准确率。引入的残差模块主要由两个连续的环节组成,包括因果卷积和激活函数,并在此基础上增加了权值规范化和随机失活排列。这种残差连接通过将原始输入与经过卷积和激活函数处理后的输出进行相加操作,将信息直接传递给后续层从而促进信息流动,有效避免梯度消失问题并提升模型收敛速度。
然而,现有基于权值规范化的残差模块在时序预测领域有明显的缺陷。对大规模的批处理过程建模时,权值规范化需要对每个权重进行标准化操作,这增加了计算的复杂性。不仅如此,当模型中存在卷积操作时可能存在稀疏权重,权值规范化可能会导致不稳定性或不良效果。本发明将传统残差模块中的权值规范化模块替换成了谷歌提出的归一化层(Filter Response Normalization,FRN)。在前向传播过程中将TCNs处理过的输出特征图[B,W,H,C]传递给FRN层进行特征细化,进一步优化模型的特征表示和提升性能。这种FRN层包括归一化层和激活层,归一化层的定义如下:
式中N∈W×H,xi∈X,X表示输入特征向量,ν2是X的二次范数的平均值。正则化X,如式(4)所示:
然后仿射变换抵消归一化带来的尺度变化,由公式(4)可简化仿射变换定义如下:
式中yi∈Y,Y表示归一化层的输出结果,γ和β都是可学习的参数。ε是一个很小的常量,用来确保公式(5)对所有情况都成立。这种归一化可以消除卷积操作带来的尺度问题,但没有去均值的操作可能导致归一化的结果发生偏移。针对这个问题,归一化后引入一个带有可学习截断值τ的激活函数PReLU,定义如下:
式中zi∈Z,Z表示TLU层的输出结果。总体而言,在残差模块中引入FRN层不仅简化了模型复杂性而且通过引入特征细化机制,进一步优化模型的表达能力和泛化能力。
为了进一步优化模型性能,本发明对残差模块中的ReLU激活函数替换为更加优秀的Parametric ReLU(PReLU)激活函数,其定义如下:
式中ω是可学习的参数,用于调整负半轴的斜率,PReLU是一种具有可学习参数的激活函数,它允许每个神经元拥有自适应的斜率,以更好地适应输入数据的不同特征分布。引入PReLU可以捕捉输入数据中的非线性关系,并提升模型的表达能力。相较于传统的ReLU,本申请的PReLU算法的参数化斜率可以自适应地调整,更有利于处理具有不同尺度和分布的输入特征,从而提高模型的灵活性、适应性和性能。
将GraphSAGE与TCN结合建模在质量预测等任务中具有明显的优势。首先,引入GraphSAGE层能够捕捉复杂的非线性关系,将图的拓扑结构融入预测过程中,对于批处理过程数据能够更好的利用数据间的局部关联性。其次GraphSAGE能够利用节点之间的关联性增强数据的上下文信息,TCN结构相对简单,易于实现和解释。多头自注意力机制也具有较好的可解释性,因为每个注意力头都可以可视化其在序列中的权重分布。这些特性使得将多头自注意力与TCN结合在质量预测任务中具有很好的灵活性和可解释性。因此,最后通过改进TCN并引入多头自注意力机制有效捕捉序列中的不同时间跨度的依赖关系,建立高精度的轻量化预测模型。
变量选择对于建立精确的轻量化过程监测模型至关重要。近年来,基于深度神经网络的工业过程监测模型得到了快速的发展。针对工业的流程复杂化和大数据的发展趋势,提出的各种监测模型逐渐可以充分提取工业数据中的特征信息实现比较精准的过程监测,但是模型的可解释性一直难以直观表达。最大信息系数可以充分考虑批处理过程的非线性关系,并有效量化过程变量与质量变量的相关性。MIC是一种非参数的度量方法,用于衡量两个变量之间的最大信息相关性。与互信息相比,该方法通过引入等频分箱和最大信息系数的思想而不受变量尺度和分布的限制,在实际的批处理过程监测中具有更大的应用前景。因此,我们提出了一种融合最大信息系数和核密度估计的统计学方法,提高模型的性能和可解释性。
首先,生成1000组独立的随机序列对,即S=[(sx1,sy1),(sx2,sy2),...,(sxt,syt),t=1150],每组序列设置1150个服从高斯分布的变量对。然后对各个序列对计算互信息值,定义如下:
其中p(Sx,Sy)是随机变量Sx和Sy的联合概率分布函数,p(Sx)、p(Sy)分别是Sx和Sy的边缘概率分布函数。在计算MIC时,将数据划分成若干个分箱后计算每个分箱中变量对之间的MI,并选择具有最大MI值的分箱作为MIC的度量结果,定义如下:
其中,J=n0.5,n表示样本总数。MIC的取值范围约束在[0,1],MIC值越大,表示变量之间相关性越大。每组序列对可以得到1150个值,MICS=(MIC1,MIC2,...,MICt),然后通过核密度估计方法可以得到1000个MICS的概率密度函数。
其中w表示窗口宽度,t为样本个数。Γ表示核函数,本发明选用高斯核函数,定义如下:
然后将公式(14)转换为如下表达:
设置置信度α=0.99,则MIClim可以通过如下表达求得:
求解公式(6)可得到置信度为0.99时最大信息系数的阈值MIClim。作为示例,置信度为0.99时MIClim的值为0.148。
然后利用最大信息系数计算实际工业过程变量与质量变量的相关性,由于批处理数据的特殊性,本发明对每个批次分别计算MIC值,然后将每一个过程变量与质量变量的最大信息系数MICbx计算平均值,则数据集中各变量的MIC值为MICB,定义如下:
式中,nB表示工业数据集的批次总数。最后将各个过程变量与质量变量的最大信息系数MICB与阈值MIClim进行比较,从而确定相关性更显著性过程变量实现批处理数据的变量选择,应用于后续的质量预测建模。
GraphSAGE是一种基于图神经网络的变体,最初主要应用于节点分类和图表征学习。因其能够利用图结构中的邻居信息丰富节点的表示,从而捕捉时间序列中的动态特性和上下文信息,所以本发明考虑将其学习到的节点信息作为输入,构建质量预测模型实现时间序列的预测任务。
本发明主要将GraphSAGE层用于增强数据特征信息,首先,利用Min-Max方法将数据标准化,由于间歇过程数据变化明显,不同变量之间的量纲差异大,因而对用按变量方向展开的数据按Min-max方法进行归一化处理,归一化可以减少训练时间,防止模型的激活函数出现过饱和状态,处理方法定义为:
其中,xi、xmax和xmin依次表示标准化结果、采样值、最大值和最小值。标准化能够有效避免批处理数据中不同尺度和量纲的数据增加模型计算量。然后基于标准化的数据构建GraphSAGE的图结构,为了提升图结构的可解释性,本发明利用皮尔逊系数衡量两个节点a和b之间的线性关系程度,定义如下:
式中cov(*)表示协方差,σ*为标准差,E(*)表示数学期望。在数学领域,皮尔逊系数是广泛被接受的可靠方法。计算节点之间相关系数用于创建图结构,如果节点a和b之间相关系数不小于0.4则建立节点连接。在遍历完所有节点对(A,B)并根据相关系数建立节点连接后,可以将节点特征和边索引合成完整的图结构数据对象。然后,可以利用图结构数据对象中的节点和边信息进行特征信息的提取和聚合。通过图神经网络的聚合操作,可以将每个节点的特征与其邻居节点的特征进行交互和融合。GraphSAGE能够利用节点之间的连接关系来推断节点的特征表示,从而捕捉节点之间的结构信息和上下文关系。
在训练过程中,可以使用图结构数据对象作为输入,利用图神经网络模型对节点特征进行学习和表示。这样,通过聚合邻居信息并迭代更新节点特征,可以逐步提取图中节点的高级特征表示。在前向传播中,本发明将图卷积层的激活函数更换为ReLU。与ELU相比,ReLU能使一部分神经元输出为0造成网络的稀疏性,降低参数之间的相互关联,从而缓解过拟合现象的发生,定义如下:
可以看出x≤0时,ReLU激活函数没有复杂的指数运算计算效率更高,收敛速度更快;x>0时,ReLU激活函数没有饱和区不存在梯度消失的问题,这将有利于提升模型的训练效率和预测性能。
总之,GraphSAGE层的目标是通过重复进行采样、聚合和更新的过程逐渐扩展和丰富节点的特征表示,使得节点能够更好地捕捉到整个图结构中的信息和上下文。在上述特征提取的基础上,本发明结合TCN的改进策略将多头自注意力机制引入ITCN,提出一种基于GraphSAGE-IMATCN的工业过程软测量模型。
多头自注意力机制是一种用于捕捉序列中全局依赖关系的机制,将多头注意力应用于ITCN会改变TCN的结构。输入特征经过ITCN的卷积层进行特征提取得到卷积特征表示。接着将卷积特征作为多头自注意力机制的输入,对输入的卷积特征进行线性变换得到查询、键和值向量。然后对每个注意力头分别使用自注意力机制计算注意力权重,并将注意力权重与值向量进行加权求和得到每个注意力头的输出。将多个注意力头的输出进行拼接得到最终的多头自注意力输出。最后将多头自注意力输出与原始卷积特征进行拼接融合实现特征提取和预测。
注意力头的数量决定了模型可以同时关注的不同特征子空间,通过将多头自注意力机制与ITCN相结合,可以增强模型对序列中全局依赖关系的建模能力。这种组合可以使模型更好地捕捉长期依赖关系,并提高对输入序列的表示能力和预测性能。
使用GraphSAGE-IMATCN可以很容易地构建软传感器模型,图3给出了基于GraphSAGE-IMATCN的软传感器流程图,包括离线建模和在线预测。通过离线建模训练学习模型参数并保存模型结构,然后将在线采集的过程数据输入训练好的模型,实现关键质量变量的实时预测。主要步骤如下:
1)从工业过程中采集时间序列,将采集到的数据进行归一标准化;
2)采用所提出的变量选择方法结合核密度估计剔除与质量预测相关性较低的变量;
3)划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
4)训练模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
5)使用工控系统传感器在线采集辅助变量的数据,对在线数据采用离线建模时同样的方法进行数据预处理;
将在线预处理数据输入模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的质量变量预测结果。
为了证明GraphSAGE-IMATCN在批处理过程质量预测中的有效性,本节将它应用于脱丁烷塔过程,通过与该领域最具代表性的模型进行对比,验证本发明所提模型的可行性及优越性。为了量化模型的预测性能,本发明引入决定系数(R2)、均方根误差(RMSE)、平均绝对误差(MAE)以及估计标准误差(SEE)三个性能指标来定量地评价各模型质量预测效果。
R2代表模型的拟合效果,该指标取值范围为[0,1]。一般定义为:
式中,yi、和分别表示质量变量的真实值、预测值和均值,n表示用于预测性能评估的样本总数。R2越大,表明模型拟合效果越好,但R2会随着样本数增加而增加并不能定量描述拟合的准确度。因此进一步引入了MAE和RMSE,定义如下:
误差越大,MAE的值越大。RMSE表示真实值与预测值之间的误差,该值越小,表明模型的预测误差越小。
SEE可以衡量回归模型中预测值与实际观测值之间的平均差异,较小的SEE表示回归模型的预测能力较强,在一定程度上能够衡量模型的鲁棒性,定义如下:
式中,表示预测绝对误差,表示绝对误差的平均值。
仿真实验采用Python 3.7Pytorch框架,在AMD Ryzen 75800H with RadeonGraphics(3.20GHz)、16GB内存和NVIDIA GeForce RTX 3050Laptop GPU计算机上运行。
在炼油工业中,对单个单元和整个过程进行优化和监控具有重要意义。这样做可以显著提高产品质量和盈利能力的控制。脱丁烷塔是石油炼制工业的重要装置,其目的是裂解石脑油和脱硫。本节所研究的工业脱丁烷塔位于意大利锡拉丘兹,主要由热交换器、塔顶冷凝器、塔底再沸器、塔顶回流泵、分离器和回流蓄能器共6个反应模块组成,其流程如图3所示。首先,热交换器通过对进料进行预热,将不稳定的石脑油分解并送至脱丁烷塔。然后,脱丁烷塔负责脱除丙烷(丙烷)和丁烷(C4)中的稳定汽油(稳定汽油)。在汽油制备过程中,稳定汽油化合物的存在至关重要,而其中微量的丁烷可能对最终汽油产品的质量产生显著影响。为了满足炼油厂在汽油质量方面的高标准,实时准确地估算丁烷浓度显得尤为迫切。
对于过程控制和产品质量监控来说,塔底丁烷含量的实时测量对于塔的控制至关重要,因为需要尽量减少底部丁烷含量。但是,由于技术限制,无法直接在塔底流中测量丁烷含量,而是通过气相色谱仪在顺序脱异戊烷塔的塔顶馏出物上进行测量。这种测量方式通常导致较大的测量延迟,而且必须定期检查和维护气相色谱仪,期间没有丁烷含量的信息。为了解决这个问题,本节使用先进的模型预测技术来预测塔底丁烷含量。出于质量监控的研究目的,工厂已经部署了多个硬传感器以实时采集温度、压力和流量等关键变量。这些高频数据可以作为软传感器的辅助变量。在本次软传感器建模的过程中,这7个关键变量在流程图中用灰色圆圈标识,表1给出了这些变量的具体含义。通过对过去的操作数据进行建模和训练,根据其他测量变量,可以准确预测塔底丁烷含量的实时变化,为操作人员提供准确的过程信息和决策支持。
表1
| 变量 | 变量含义 |
| u1 | 塔顶温度 |
| u2 | 塔顶压力 |
| u3 | 回流流量 |
| u4 | 流向下一个流程 |
| u5 | 第6个托盘温度 |
| u6 | 底部温度A |
| u7 | 底部温度B |
| y | 丁烷含量 |
脱丁烷塔数据集包括7个过程变量,在此过程中收集了2394个样本。对于模型构建和测试,1300个样本用作训练样本,200个样本用于验证模型,其余数据用于测试软测量模型的预测效果。为了客观准确验证软测量模型的实际效果,本节同上述对其采样变量进行可视化分析。首先计算各个过程变量与丁烷的MIC值,第2个变量的MIC值低于统计学阈值。
考虑到该数据集过程变量较少,同样采用本发明所提模型对不同个数的过程变量子集作为模型输入,然后将预测结果的RMSE进行统计分析。值得注意的是,在过程变量个数为3,5,7时,RMSE达到极小值,而过程变量个数为6时,RMSE却达到极大值。为了保障数据特征的可靠性,选择过程变量个数为7进行接下来的实验验证。
与之前的实验类似,将提出的软测量模型与其他模型进行对比,以确保所提模型的有效性和可行性。选择了长短时间记忆网络(LSTM)、时域卷积网络(TCN)和卷积神经网络(CNN)进行比较。为了保证所有对比模型都有最好的预测效果,本节在模型参数一致的前提下通过网格搜索方法对个别参数进行了调整,进一步保证对比结果的客观有效。尤其对CNN的输入序列长度这一超参数进行试错调整,以获得合适的滑动窗口大小。其余设置与基于TCN的模型一致。具体的软测量模型参数设置如表2所示。
表2
| 模型参数 | LSTM | TCN | CNN | GraphSAGE-IMATCN |
| 输入维度 | 8 | 8 | 8 | 8 |
| 输入序列长度 | 128 | 128 | 16 | 128 |
| 学习率 | 0.001 | 0.001 | 0.001 | 0.001 |
| 隐含层大小 | 256 | 64 | 256 | [32,32] |
| 最大迭代次数 | 32 | 32 | 32 | 32 |
| 输出维度 | 1 | 1 | 1 | 1 |
为了验证所提模型的优势,借助评价指标对所有模型的预测结果进行量化对比。其中,TCN的预测效果最差,基本上不能跟踪丁烷含量的动态变化。根据其预测结果,只能大致判断丁烷含量的增减趋势,相比之下其它模型的预测效果更好一些。CNN能够充分地捕捉生产数据中的局部特征信息,提前预判丁烷含量变化趋势,但并没有关注到时序的动态特性,因此其预测结果并不能同步跟踪丁烷含量的实时变化。相比之下,LSTM及本发明提出的GraphSAGE-IMATCN具有更好的预测效果,但都有不同程度的漂移。LSTM的漂移更为严重,对于丁烷含量的所有趋势变化几乎都不能精准跟踪。然而,GraphSAGE-IMATCN在整个测试集上的预测都有较好的表现,可以用于丁烷含量的准确评估。
预测评价指标如表3所示,TCN的计算时间达到了412.84s,远远超过了其它模型。这种时间延迟不利于建立工业过程软测量模型。相比之下,GraphSAGE-IMATCN模型极大的缩减了运行时间,另外,GraphSAGE-IMATCN的RMSE、MAE、SEE与对比模型相比都有一定程度的提升。
表3
| 预测模型 | RMSE | MAE | SEE | 运行时长(秒) |
| LSTM | 0.2075 | 0.1606 | 0.1608 | 11.91 |
| TCN | 0.1926 | 0.1417 | 0.1024 | 412.84 |
| CNN | 0.1434 | 0.1048 | 0.1190 | 41.48 |
| GraphSAGE-IMATCN | 0.0331 | 0.0240 | 0.0275 | 47.18 |
GraphSAGE-IMATCN的SEE指标相比之下更小,说明所提模型在实际的工业软测量应用中具有更强的鲁棒性和稳定性。
为了验证本文提出模型的有效性设计消融实验如下,采用GraphSAGE-TCN和GraphSAGE-SA-TCN这两种模型作为对比模型具有很好的说服力,其模型参数与GraphSAGE-IMATCN保持一致,表4给出了预测结果对应的评价指标。本发明的软测量建模思路具有很好的结果,不仅减少了训练时间,而且预测性能也有极大的提升。图4给出了这三种模型的预测结果。从图4中可以发现,本文所提模型的预测跟踪效果更好,预测误差更小。
表4
| Models | R2 | RMSE | MAE | SEE | 运行时长(秒) |
| GraphSAGE-TCN | 0.8731 | 0.0630 | 0.0487 | 0.0404 | 252.99 |
| GraphSAGE-SA-TCN | 0.9320 | 0.0461 | 0.0347 | 0.0256 | 43.16 |
| GraphSAGE-IMATCN | 0.9650 | 0.0331 | 0.0240 | 0.0275 | 47.18 |
综上所述,本发明主要关注软传感器在工业中的应用,提出一种基于GraphSAGE-IMATCN的软测量模型,用于实际工业过程中关键质量变量的实时预测。首先,提出融合核密度估计的MIC方法并建立最大信息系数阈值函数,对过程数据进行变量选择以提取质量相关度更高的特征变量。其次,对图卷积网络的变体GraphSAGE引入更深的图卷积层,并利用图卷积的聚合结构捕捉关键节点的上下文信息。然后,通过引入FRN对TCN的残差块进行了优化,并将MHSA应用于时序处理以捕捉序列中的长程依赖。最后,将LSTM、TCN、CNN和提出的GraphSAGE-IMATCN应用于脱丁烷塔。实验结果表明GraphSAGE-IMATCN对丁烷含量的预测具有较好的效果,在复杂工况中所提模型的鲁棒性和泛化性能都较好。
参见图5,是本发明一实施例提供的一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置的结构示意图。基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置,包括:
采集模块10,用于从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
数据样本处理模块20,用于对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
训练模块30,用于利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
数据采集处理模块40,用于使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
预测模块50,用于将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
相比于现有技术,本发明实施例通过离线建模训练学习GraphSAGE-IMATCN模型参数并保存GraphSAGE-IMATCN模型结构,然后将在线采集的过程数据输入训练好的GraphSAGE-IMATCN模型,这样可以实现对脱丁烷塔中丁烷含量的实时预测,从而能够提高对脱丁烷塔中丁烷含量的预测准确性。
作为上述方案的改进,所述采集模块具体用于:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
作为上述方案的改进,所述装置还包括:
数据剔除模块,用于采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
参见图6,是本发明一实施例提供的GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的示意图。该实施例的GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备包括:处理器100、存储器101以及存储在所述存储器101中并可在所述处理器上运行的计算机程序,例如基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量程序。所述处理器100执行所述计算机程序时实现上述各个基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法实施例中的步骤。或者,所述处理器100执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备中的执行过程。
所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的示例,并不构成对GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的控制中心,利用各种接口和线路连接整个GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (8)
1.一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法,其特征在于,包括以下步骤:
步骤10,从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
步骤20,对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
步骤30,利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
步骤40,使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
步骤50,将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
2.如权利要求1所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法,其特征在于,所述从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,包括:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
3.如权利要求2所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法,其特征在于,在所述步骤S11与步骤S20之间,所述方法还包括:
步骤12,采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
4.一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置,其特征在于,包括:
采集模块,用于从脱丁烷塔的反应过程中按照时间序列采集过程数据样本;
数据样本处理模块,用于对过程数据样本划分数据集并确定GraphSAGE-IMATCN网络的结构和超参数;
训练模块,用于利用数据集训练GraphSAGE-IMATCN模型并不断计算量化预测结果,训练结束后保存最佳的模型参数;
数据采集处理模块,用于使用工控系统传感器在线采集辅助变量的实际过程数据,对在线采集的实际过程数据进行数据预处理;
预测模块,用于将预处理后的实际过程数据输入GraphSAGE-IMATCN模型进行预测,对其输出结果进行反归一化以在线得到初始量纲的丁烷含量预测结果。
5.如权利要求4所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置,其特征在于,所述采集模块具体用于:
从脱丁烷塔的反应过程中按照时间序列采集过程数据样本,将采集到的过程数据样本进行归一标准化。
6.如权利要求4所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置,其特征在于,所述装置还包括:
数据剔除模块,用于采用结合核密度估计算法的变量选择方法,剔除过程数据样本中与含量预测相关性低于阈值的变量。
7.一种基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量装置/终端设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至3中任意一项所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至3中任意一项所述的基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410116428.6A CN117932939A (zh) | 2024-01-29 | 2024-01-29 | 基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410116428.6A CN117932939A (zh) | 2024-01-29 | 2024-01-29 | 基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN117932939A true CN117932939A (zh) | 2024-04-26 |
Family
ID=90762930
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202410116428.6A Pending CN117932939A (zh) | 2024-01-29 | 2024-01-29 | 基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN117932939A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119539158A (zh) * | 2024-11-05 | 2025-02-28 | 成渝地区双城经济圈(泸州)先进技术研究院 | 白酒发酵质量的预测评估方法及系统 |
-
2024
- 2024-01-29 CN CN202410116428.6A patent/CN117932939A/zh active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119539158A (zh) * | 2024-11-05 | 2025-02-28 | 成渝地区双城经济圈(泸州)先进技术研究院 | 白酒发酵质量的预测评估方法及系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Garbin et al. | Dropout vs. batch normalization: an empirical study of their impact to deep learning | |
| Shen et al. | Wind speed prediction of unmanned sailboat based on CNN and LSTM hybrid neural network | |
| Yuan et al. | A layer-wise data augmentation strategy for deep learning networks and its soft sensor application in an industrial hydrocracking process | |
| Sun et al. | A causal model-inspired automatic feature-selection method for developing data-driven soft sensors in complex industrial processes | |
| Yan et al. | Deep relevant representation learning for soft sensing | |
| Yuan et al. | Deep learning for data modeling of multirate quality variables in industrial processes | |
| CN116109004A (zh) | 一种绝缘子泄漏电流的预测方法、装置、设备及介质 | |
| Chu et al. | CDA-LSTM: An evolutionary convolution-based dual-attention LSTM for univariate time series prediction | |
| CN117216525A (zh) | 一种基于cnn-lka的稀疏图注意力软测量建模方法 | |
| CN117932939A (zh) | 基于GraphSAGE-IMATCN的脱丁烷塔中丁烷含量的软测量方法、装置及设备 | |
| Kargar-Sharif-Abad et al. | Shap-driven explainability in survival analysis for predictive maintenance applications | |
| Zhu et al. | Dynamic graph convolutional recurrent network with spatiotemporal category information embedding for traffic flow prediction | |
| Singh et al. | Feature selection and hyper-parameter tuning technique using neural network for stock market prediction | |
| Jiang et al. | A deep graph convolution spatial-temporal attention learning model for traffic flow prediction | |
| Jin et al. | Graph convolutional neural network algorithms for bearing remaining useful life prediction: a review | |
| Wang et al. | Network Traffic Prediction with Decomposition and Multi-Scale Autocorrelation in Large-Scale Cloud Data Centers | |
| CN117952015A (zh) | 一种基于机器学习的光谱反演结构的学习方法及系统 | |
| Uniyal et al. | Wine quality evaluation using machine learning algorithms | |
| Yao et al. | Quality prediction of industrial process based on Kolmogorov–Arnold graph convolution aggregation temporal convolution network | |
| Jia et al. | A tool wear monitoring based on parallel residual channel attention network | |
| Wang et al. | A Hybrid Strategy Enhanced Sub-Sampled Recursive Second Order Algorithm for Chemical Process Intelligent Identification | |
| Rahutomo et al. | Machine Learning-Based Climate Prediction in Indonesia: A Baseline Experiment. | |
| Zhang et al. | Real-time imputation model for missing sensor data based on alternating attention mechanism | |
| Zhu et al. | Multi-Channel Gated CNN with self-attention for complex industrial ahead quality prediction | |
| Özese et al. | Tree-based sequential sampling for efficient designs in package electrical analysis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |