CN116523026A - 模型训练方法、装置、设备及计算机存储介质 - Google Patents
模型训练方法、装置、设备及计算机存储介质 Download PDFInfo
- Publication number
- CN116523026A CN116523026A CN202310507711.7A CN202310507711A CN116523026A CN 116523026 A CN116523026 A CN 116523026A CN 202310507711 A CN202310507711 A CN 202310507711A CN 116523026 A CN116523026 A CN 116523026A
- Authority
- CN
- China
- Prior art keywords
- training sample
- edge server
- training
- prediction model
- attack behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/50—Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种模型训练方法、装置、设备及计算机存储介质。该方法包括:接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息;获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息;基于第一流量和第二流量构建第一训练样本;利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本;基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型。如此能够提高第一预测模型的准确度,利用第一预测模型对攻击行为进行检测,提高了检测攻击行为的精度。
Description
技术领域
本申请属于物联网领域,尤其涉及一种模型训练方法、装置、设备及计算机存储介质。
背景技术
现有的物联网设备大多数存在计算资源和存储资源有限的问题,除此之外,由于地理位置分散和用户隐私等问题,通常需要在各区域中的边缘服务器上训练攻击行为预测模型,基于训练好的攻击行为预测模型对攻击行为进行检测,以保障资源存储的安全性,因此准确的训练攻击行为预测模型是非常必要的。
攻击行为预测模型通常是基于边缘服务器中已有的训练样本进行训练,但是有些边缘服务器中的样本过少,会导致攻击行为预测模型的准确度较低,现有的攻击层出不穷,利用这种训练方式得到的模型对攻击行为进行检测,检测攻击行为的精度较低。
发明内容
本申请实施例提供一种在模型训练方法、装置、设备及计算机存储介质,能够对攻击行为进行检测,提高检测攻击行为的精度。
第一方面,本申请实施例提供一种模型训练方法,该方法包括:
接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息;
获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息,第二流量为第二边缘服务器中的部分流量,第二边缘服务器为第一边缘服务器邻近的边缘服务器;
基于第一流量和第二流量构建第一训练样本;
利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,第二训练样本和第三训练样本分别表征用户的行为信息;
基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型,以识别攻击行为信息。
在一个可能实现的实施例中,生成对抗网络包括生成器和第一判别器,利用生成对抗网络生成第一训练样本对应的第二训练样本,包括:
利用生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征;
利用第一判别器将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,第三边缘服务器为除第一边缘服务器之外的其他边缘服务器,第三边缘服务器包括第二边缘服务器;
通过解码器对第二攻击行为特征进行解码,得到第二训练样本。
在一个可能实现的实施例中,生成对抗网络包括第二判别器,将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,包括:
利用第二判别器将第一攻击行为特征与第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
通过解码器对第三攻击行为特征进行解码,得到第三训练样本。
在一个可能实现的实施例中,还包括:
将第一预测模型的参数发送到云端服务器,以用于云端服务器计算至少一个第一边缘服务器发送的参数的加权平均值,确定全局参数,并基于全局参数更新全局预测模型。
在一个可能实现的实施例中,在将第一预测模型的参数发送到云端服务器之前,方法还包括:
判断第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值是否大于预设阈值;
在第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值大于预设阈值的情况下,将第一预测模型的参数发送到云端服务器。
第二方面,本申请实施例提供了一种模型训练装置,包括:
接收模块,用于接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息;
获取模块,用于获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息,第二流量为第二边缘服务器中的部分流量,第二边缘服务器为第一边缘服务器邻近的边缘服务器;
构建模块,用于基于第一流量和第二流量构建第一训练样本;
确定模块,用于利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,第二训练样本和第三训练样本分别表征用户的行为信息;
确定模块,还用于基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型,以识别攻击行为信息。
在一个可能实现的实施例中,确定模块包括:
提取单元,用于利用生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征;
确定单元,用于利用第一判别器将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,第三边缘服务器为除第一边缘服务器之外的其他边缘服务器,第三边缘服务器包括第二边缘服务器;
解码单元,通过解码器对第二攻击行为特征进行解码,得到第二训练样本。
在一个可能实现的实施例中,确定模块包括:
确定单元,还用于利用第二判别器将第一攻击行为特征与第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
解码单元,还用于通过解码器对第三攻击行为特征进行解码,得到第三训练样本。
第三方面,本申请实施例提供了一种电子设备,设备包括:
处理器以及存储有计算机程序指令的存储器;
处理器执行计算机程序指令时实现上述任意一项的在模型训练方法。
第四方面,本申请实施例提供了一种计算机存储介质,计算机可读存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现上述任意一项的模型训练方法。
第五方面,本申请实施例提供了一种计算机程序产品,其特征在于,计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备能够执行上述任意一项的模型训练方法。
本申请实施例的模型训练方法、装置、设备及计算机存储介质,接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息,获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息,第二流量为第二边缘服务器中的部分流量,第二边缘服务器为第一边缘服务器邻近的边缘服务器,基于第一流量和第二流量构建第一训练样本,利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,第二训练样本和第三训练样本分别表征用户的行为信息,基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型,以识别攻击行为信息。如此,利用第一边缘服务器与邻近的第二边缘服务器中的流量构建第一训练样本,通过生成对抗网络对第一训练样本进行扩展得到的第三训练样本与第一训练样本共同训练全局预测模型,确定第一预测模型,解决了模型的训练样本较少的问题,确定的第一预测模型能够识别出未知的攻击行为信息,提高了对攻击行为信息识别的准确度,利用第一预测模型对攻击行为进行检测,提高了检测攻击行为的精度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的模型训练方法的流程示意图;
图2是本申请另一个实施例提供的模型训练方法的流程示意图;
图3本申请又一个实施例提供的边缘服务器与云端服务器交互的示意图
图4是本申请再一个实施例提供的模型训练装置的结构示意图;
图5是本申请再一个实施例提供的电子设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
现有的物联网设备大多数存在计算资源和存储资源有限的问题,除此之外,由于地理位置分散和用户隐私等问题,通常需要在各区域中的边缘服务器上训练攻击行为预测模型,基于训练好的攻击行为预测模型对攻击行为进行检测,以保障资源存储的安全性,因此准确的训练攻击行为预测模型是非常必要的。
攻击行为预测模型通常是基于边缘服务器中已有的训练样本进行训练,但是有些边缘服务器中的样本过少,会导致攻击行为预测模型的准确度较低,现有的攻击层出不穷,利用这种训练方式得到的模型对攻击行为进行检测,检测攻击行为的精度较低。
为了解决现有技术问题,本申请实施例提供了一种模型训练方法、装置、设备及计算机存储介质。下面首先对本申请实施例所提供的模型训练方法进行介绍。
图1示出了本申请一个实施例提供的模型训练方法的流程示意图。
如图1所示,本申请实施例提供的模型训练方法包括S110至S150。
S110、接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息。
在一些实施例中,接收的全局预测模型为初始预测模型,全局预测模型可以是基于云端服务器储存的流量训练得到的初始预测模型,其中,云端服务器中储存的流量包括边缘服务器发送的流量,为全部边缘服务器中都包括的流量,表征用户的行为信息,这里,可以通过预定函数将用户行为信息转化为流量。
在一些实施例中,全局预测模型为基于云端服务器储存的流量训练得到的初始预测模型,可以识别已有的攻击行为信息。
在一些实施例中,全局预测模型可以但不限于包括BP神经网络模型或支持向量机模型。
S120、获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息,第二流量为第二边缘服务器中的部分流量,第二边缘服务器为第一边缘服务器邻近的边缘服务器。
其中,第一流量为第一边缘服务器的全部流量,第一流量表征第一边缘服务器中用户的行为信息,第二流量表征第二边缘服务器中用户的行为信息。
在一些实施例中,每个第一边缘服务器所管理的物联网设备是不同的,每一个第一边缘服务器包括的流量的分布具有很大的差异,可以采取随机抽样的方式获取邻近的第二边缘服务器的部分流量,例如,以5%-10%的比例随机抽取邻近的第二边缘服务器的部分流量,使得构建每个第一边缘服务器的样本时样本中的流量能够相互独立且同分布。
在一些实施例中,可以获取第一流量的时间序列和第二流量的时间序列。
S130、基于第一流量和第二流量构建第一训练样本。
这里,第一训练样本包括第一边缘服务器的全部流量和第二边缘服务器中的部分流量。
S140、利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,第二训练样本和第三训练样本分别表征用户的行为信息。
这里,生成对抗网络根据第一训练样本生成第二训练样本,基于第一训样本,将第一训练样本与第二训练样本进行对抗学习,使得得到的第三训练样本与第一样本越来越接近。
在一些实施例中,第一流量和第二流量包括用户行为信息以及是否为攻击行为信息的标签,可以通过预定函数将用户行为信息转化为流量,标签包括是或不是,例如,可以用“1”或“0”表示,其中,“1”表示用户行为信息是攻击行为信息,“0”表示用户行为信息不是攻击行为信息。将第一训练样本输入至生成对抗网络中,生成对抗网络可以基于第一训练样本中的用户行为信息以及是否为攻击行为信息的标签生成新的用户行为信息以及是否为攻击行为信息的标签,需要说明的是,第二训练样本包括新的用户行为信息以及是否为攻击行为信息的标签,新的用户行为信息可以包括未发生的用户行为的信息。
S150、基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型,以识别攻击行为信息。
在一些实施例中,第四训练样本包括第一训练样本和第三训练样本,需要说明的是,构建的第四训练样本可以包括大量的训练样本,例如,可以包括已知的攻击行为信息对应的流量,还可以包括未知的攻击行为信息对应的流量。在一些实施例中,基于已有的攻击行为信息对应的流量和未知的攻击行为信息对应的流量训练全局预测模型,得到第一预测模型。
这样,利用第一边缘服务器与邻近的第二边缘服务器中的流量构建第一训练样本,通过生成对抗网络对第一训练样本进行扩展得到的第三训练样本与第一训练样本共同训练全局预测模型,确定第一预测模型,解决了模型的训练样本较少的问题,确定的第一预测模型能够识别出未知的攻击行为信息,提高了对攻击行为信息识别的准确度,利用第一预测模型对攻击行为进行检测,提高了检测攻击行为的精度。
基于此,在一些实施例中,生成对抗网络包括生成器和第一判别器,上述S140具体可以包括:
利用生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征;
利用第一判别器将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,第三边缘服务器为除第一边缘服务器之外的其他边缘服务器,第三边缘服务器包括第二边缘服务器;
通过解码器对第二攻击行为特征进行解码,得到第二训练样本。
在一些实施例中,基于某一迭代次数中的第一训练样本,经过生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征,将第一攻击行为特征输入至第一判别器中,将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,在满足预定规则的情况下得到第二攻击行为特征,这里,满足预定规则可以是目标函数的值满足预定条件。
在一个示例中,生成对抗网络是一个无监督的神经网络,在对抗学习过程中生成的神经网络的目标函数如公式(1)所示:
其中,G表示生成器,D表示第一判别器,f*~prior(f)表示第三边缘服务器中第三流量对应的均匀分布的特征f*服从均匀分布,f*是第三边缘服务器中真实存在的流量对应的攻击行为特征,pd(X)表示生成器生成的攻击行为特征的分布,为第一攻击行为特征。在目标函数更新的过程中,对D更新k次后,才对G更新1次,min max可理解为当更新D时,需要最大化公式(1),而当更新G时,需要最小化公式(1),基于某一迭代次数i中的第一训练样本X,对于生成器生成的第一攻击行为特征f(x),第一判别器D,D(f*)的输出越接近于1,得到的第二攻击行为特征越接近第三边缘服务器中第三流量对应的均匀分布的真实的攻击行为特征,生成器G,Di(f(x))的输出越接近于0(即minG),log(1-Di(f(x)))输出越接近于1,得到的第二攻击行为特征越接近第三边缘服务器中第三流量对应的均匀分布的真实的攻击行为特征,即maxD。
在另一个示例中,对于某一迭代次数i中的第一训练样本X,经过生成器的编码网络得到的第一攻击行为特征的计算公式(2)如下:
f(X)=G(WG*X+bG) (2)
其中,G表示非线性激活函数Tanh,WG表示编码网络的权重,bG表示偏置,权重和偏置为生成对抗网络自动生成的。
在一些实施例中,通过生成器与第一判别器将第三边缘服务器中第三流量对应的均匀分布的特征加入至第一攻击行为特征中,合成第二攻击行为特征,得到新的攻击行为特征。
在一个示例中,第二攻击行为特征可以通过公式(3)计算得到,公式(3)如下:
其中,concat为提前设定好的函数,可以是在对抗学习过程中生成的神经网络的目标函数的值满足预定条件的情况下的确定的函数,c(e)表示第三边缘服务器中第三流量对应的均匀分布的特征,c(p)表示第三边缘服务器中第三流量对应的均匀分布的特征对应的是否为攻击行为信息的标签。
在一些实施例中,将第一训练样本输入至生成器中,经过特征提取得到第一攻击行为特征,通过将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,通过解码器对第二攻击行为特征进行解码,得到第二训练样本,得到的第二训练样本中包括新的用户行为信息对应的流量以及是否为攻击行为信息的标签,新的用户行为信息对应的流量可以包括未发生的用户行为的信息对应的流量。
在一些实施例中,在得到第二攻击行为特征之后,通过解码器对其进行反卷积操作,得到第二训练样本。
这样,通过生成对抗网络中的生成器和第一判别器第一训练样本加入其他边缘服务器中真实的用户行为信息,能够更准确的识别攻击行为信息。
基于此,在一些实施例中,生成对抗网络包括第二判别器,上述S140具体可以包括:
利用第二判别器将第一攻击行为特征与第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
通过解码器对第三攻击行为特征进行解码,得到第三训练样本。
在一些实施例中,将第一训练样本对应的第一攻击行为特征与第二攻击行为特征进行对抗学习,确定第三攻击行为特征,通过解码器对第三攻击行为特征进行解码,得到与第一训练样本接近的第三训练样本。这里,还可以将生成器生成的第一训练样本和第一训练样本中流量对应的是否为攻击行为信息的标签,与第二训练样本和第二训练样本中流量对应的是否为攻击行为信息的标签输入至判别器中进行对抗学习,其中,第一攻击行为特征对应第一训练样本和第一训练样本中流量对应的是否为攻击行为信息的标签,第二攻击行为特征对应第二训练样本第二训练样本中流量对应的是否为攻击行为信息的标签,在设置的目标函数的值满足预定条件的情况下,确定与第一训练样本接近的第三训练样本,设置的目标函数的计算公式(4)如下:
其中,X为第一训练样本,Y为第一训练样本中流量对应的是否为攻击行为信息的标签,为第二训练样本,y为第二训练样本中流量对应的是否为攻击行为信息的标签。
在一些实施例中,如图2所示,利用生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征,利用第一判别器将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,在设置的目标函数的值满足预定条件的情况下,确定第二攻击行为特征,通过解码器对第二攻击行为特征进行解码,得到第二训练样本,利用第二判别器将第一攻击行为特征与第二攻击行为特征进行对抗学习,在重新设置的目标函数的值满足预定条件的情况下,确定第三攻击行为特征。
这样,经过第一攻击行为特征与第二攻击行为特征进行对抗学习使得确定的第三训练样本中的流量更接近第一边缘服务器中的流量,即确定的第三训练样本中的用户行为信息更接近第一边缘服务器中的用户行为信息。
基于此,在一些实施例中,该方法还可以包括:
将第一预测模型的参数发送到云端服务器,以用于云端服务器计算至少一个第一边缘服务器发送的参数的加权平均值,确定全局参数,并基于全局参数更新全局预测模型。
在一些实施例中,每个第一边缘服务器利用第一训练样本和第三训练样本训练全局预测模型,形成多个识别攻击行为信息的第一预测模型,每个第一预测模型包括多个参数。
在一些实施例中,图3示出了边缘服务器与云端服务器交互的示意图,如图3所示,第一边缘服务器将第一预测模型的参数发送到云端服务器,云端服务器计算至少一个第一边缘服务器发送的参数的加权平均值,确定全局参数,并基于全局参数更新全局预测模型,第一边缘服务器接收云端服务器发送的全局预测模型的参数,第一边缘服务器根据分配的数据计算梯度,更新第一预测模型的初始训练模型中的参数,进而融合了分布式联邦学习实现边缘侧的智能物联网安全检测。
在一些实施例中,如果需要对某一区域的攻击行为信息进行识别,则在基站旁外挂边缘服务器,每一个边缘服务器则可基于现有的流量时间序列预测未来一段时间的流量,从而识别攻击行为信息。
在一个示例中,以全局预测模型为BP神经网络为例,若采用9-4-1的神经网络结构来预测该第一边缘服务器在未来一段时间内的流量,那么每一个第一边缘服务器都用该结构(9-4-1)的BP神经网络,那么每一个第一边缘服务器就要训练40(9×4+4*1,从输入层9个神经元到隐含层4个神经元一共有36个参数,从4个隐含层神经元到1个输出神经元有4个参数)个BP神经网络的参数。输入的9个神经元对应的是基站流量的时间序列,比如要预测2022年11月19日的流量,那么我们需要11月10日-11月18日的流量时间序列作为输入值。
在另一个示例中,对于BP神经网络,设置目标函数,目标函数的计算公式(5)如下:
其中,流量包括用户行为信息以及是否为攻击行为信息的标签,第四训练样本xi对应的真实标签为Yi,Ci表示第四训练样本对应的特征以及第四训练样本是否为攻击行为信息的标签(第四训练样本对应的特征是指通过深度学习模型对流量包大小的平均值、流量包最大值、流量包最小值进行特征学习得出的,其中流量包包括第四训练样本中的流量;第四训练样本是否为攻击行为信息的标签是采用深度学习模型对第四训练样本中的攻击行为信息进行特征学习得到的),Wi表示第一边缘服务器i训练全局预测模型,在第k轮基于第四训练样本训练的过程中所得到的第一训练模型的参数,W表示云端服务器全局预测模型的参数W,λ表示正则化系数,n表示第一边缘服务器的数量。
基于公式(5),当云端服务器发送同步请求时将第一预测模型的参数发送到云端服务器,并通过云端服务器对第一预测模型的参数进行整合(采用加权平均值的方法进行整合),形成全局预测模型的参数。在生成全局预测模型的参数的基础上,云端服务器将全局参数下发到边缘服务器上,更新每一个第一预测模型对应的初始预测模型。
以上述BP神经网络40个参数为例,每一个第一边缘服务器都训练了40个参数,每一个边缘服务器之间的参数是有区别的,假设抽样了5个边缘服务器,对后面隐含层-输出层的4个参数来进行说明,第一个第一边缘服务器后面4个参数为{1,2,1,2},其他四个第一边缘服务器后面4个参数为{2,2,0,2}、{2,2,2,1},{1,2,1,2},{2,2,2,2},根据整合的方法(加权平均值)来实现后面4个参数的整合{2,2,1.5,1.8},全局预测模型后面4个参数为:{2,2,1.5,1.8},全局预测模型后面4个参数的更新为{2,2,1.5,1.8},并将这个参数下发到第一边缘服务器中,让每一个第一边缘服务器的初始预测模型更新后面4个参数为{2,2,1.5,1.8}。
经过多轮第一训练样本的迭代,第四训练样本进行迭代,经过从k轮到k+1轮的训练样本的迭代,模型的参数进行更新,第k+1轮参数更新过程的计算公式(6)如下:
其中,流量包括用户行为信息以及是否为攻击行为信息的标签,第四训练样本xi对应的标签为Yi,Ci表示第四训练样本对应的特征以及第四训练样本是否为攻击行为信息的标签,Wi表示第一边缘服务器i训练全局预测模型在第k轮基于第四训练样本训练的过程中所得到的第一训练模型的参数,λ表示正则化系数,n表示第一边缘服务器的数量。
这样,通过第一边缘服务器与云端服务器之间的交互,对模型的参数进行更新,使得确定的全局预测模型更准确,进而确定的第一预测模型对攻击行为信息的识别也更准确。
基于此,在一些实施例中,在将第一预测模型的参数发送到云端服务器之前,该方法还可以包括:
判断第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值是否大于预设阈值;
在第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值大于预设阈值的情况下,将第一预测模型的参数发送到云端服务器。
作为一个示例,第一边缘服务器i训练全局预测模型,基于在第k轮基于第四训练样本训练的过程中所得到的第一训练模型的参数,与在第k+1轮基于第四训练样本训练的过程中所得到的第一训练模型的参数之间的差值判断是否将第一预测模型的参数发送到云端服务器,其中该差值的计算公式(7)如下:
在ΔWi大于预设阈值的情况下,将第一预测模型的参数发送到云端服务器。在ΔWi不大于预设阈值的情况下,边缘服务器不向云端服务器发送第一预测模型的参数。
这样,通过预设阈值控制参数的更新次数,减轻处理压力。
在本申请提供的实施例中,例如,上述第一个第一边缘服务器中第一预测模型后面4个参数为{1,2,1,2},其他四个第一边缘服务器中第一预测模型为{2,2,0,2}、{2,2,2,1},{1,2,1,2},{2,2,2,2},第2个第一边缘服务器中第一预测模型中后4个参数为{2,2,0,2},其中有一个是0的,那么很有可能由于这个第一边缘服务器的参数不足或者参数异常所产生的BP神经网络无法有效、合理反映先前的问题,在云端服务器将多个第一边缘服务器的第一预测模型整合后,得到{2,2,1.5,1.8},很明显,全局预测模型的第3个值1.5才是比较符合常规的。但是,如果第2个第一边缘服务器一直在于一个荒无人烟的地方,那么它所采集的用户行为信息肯定很有限的,说明它已经“尽力”了,如果生成对抗网络生成的有用样本,让第2个第一边缘服务器基于这些样本进行训练,那么第2个第一边缘服务器训练的4个参数值肯定更加合理,假如利用生成的样本训练4个参数为{2,2,1.5,2},这种情况更加接近全局预测模型的4个参数值{2,2,1.5,1.8},这样经过不断的迭代,第2个第一边缘服务器所产生的参数就与其他第一服务器越来越“趋同”,那么就能慢慢地提升全局预测模型的精准度。
在本申请提供的实施例中,基于样本的生成,第一预测模型将拥有独立、充足的数据来训练独立的模型,全局预测模型通过将多个第一预测模型进行融合,这样不仅保持了第一预测模型一定的独立自主性,还能在用户行为信息不共享的情况下共同建模,提升全局预测模型参数的准确性。如此,第一预测模型在缺乏有效样本的情况下,通过生成对抗网络生成有用的数据,实现第一边缘服务器的样本接近整体样本的分布,提升全局预测模型构建的精准性。
本申请提供的生成对抗网络生成新样本的方式比仅仅采用真实样本+噪音生成方式更加有效,降低了样本生成的不确定性,从而避免了新增样本采用简单增加噪音所产生而导致最终结果是样本质量是好是坏的问题。
基于上述实施例提供的模型训练方法,相应地,本申请还提供了模型训练装置的具体实现方式。请参见以下实施例。
首先参见图4,本申请实施例提供的模型训练装置300包括:
接收模块310,用于接收云端服务器发送的全局预测模型,全局预测模型用于识别攻击行为信息;
获取模块320,用于获取第一边缘服务器的第一流量和第二边缘服务器的第二流量,第一流量和第二流量分别表征用户的行为信息,第二流量为第二边缘服务器中的部分流量,第二边缘服务器为第一边缘服务器邻近的边缘服务器;
构建模块330,用于基于第一流量和第二流量构建第一训练样本;
确定模块340,用于利用生成对抗网络生成第一训练样本对应的第二训练样本,并将第一训练样本与第二训练样本进行对抗学习,得到第三训练样本,第二训练样本和第三训练样本分别表征用户的行为信息;
确定模块340,还用于基于第一训练样本和第三训练样本构建第四训练样本,并基于第四训练样本训练全局预测模型,得到第一预测模型,以识别攻击行为信息。
在一个可能实现的实施例中,生成对抗网络包括生成器和第一判别器,确定模块340可以包括:
提取单元,用于利用生成器的编码网络对第一训练样本进行特征提取,得到第一攻击行为特征;
确定单元,用于利用第一判别器将第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,第三边缘服务器为除第一边缘服务器之外的其他边缘服务器,第三边缘服务器包括第二边缘服务器;
解码单元,通过解码器对第二攻击行为特征进行解码,得到第二训练样本。
在一个可能实现的实施例中,生成对抗网络包括第二判别器,确定模块340可以包括:
确定单元,还用于利用第二判别器将第一攻击行为特征与第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
解码单元,还用于通过解码器对第三攻击行为特征进行解码,得到第三训练样本。
基于此,在一些实施例中,装置300还可以包括:
发送模块,用于将第一预测模型的参数发送到云端服务器,以用于云端服务器计算至少一个第一边缘服务器发送的参数的加权平均值,确定全局参数,并基于全局参数更新全局预测模型。
基于此,在一些实施例中,装置300还可以包括:
判断模块,用于在将第一预测模型的参数发送到云端服务器之前,判断第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值是否大于预设阈值;
发送模块具体用于在第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值大于预设阈值的情况下,将第一预测模型的参数发送到云端服务器。
本申请实施例提供的模型训练装置的各个模块,可以实现图1和图2提供模型训练方法的各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
基于同一发明构思,本申请实施例还提供了一种电子设备。
图5示出了本申请实施例提供的电子设备的硬件结构示意图。
在电子设备可以包括处理器501以及存储有计算机程序指令的存储器502。
具体地,上述处理器501可以包括中央处理器(Central Processing Unit,CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器502可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器502可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器502可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器502可在综合网关容灾设备的内部或外部。在特定实施例中,存储器502是非易失性固态存储器。
存储器可包括只读存储器(Read Only Memory,ROM),随机存取存储器(RandomAccess Memory,RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本公开的一方面的方法所描述的操作。
处理器501通过读取并执行存储器502中存储的计算机程序指令,以实现上述实施例中的任意一种模型训练方法。
在一个示例中,电子设备还可包括通信接口503和总线504。其中,如图5所示,处理器501、存储器502、通信接口503通过总线504连接并完成相互间的通信。
通信接口503,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线504包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(IndustryStandard Architecture,ISA)总线、无限带宽互连、低引脚数(Linear PredictiveCoding,LPC)总线、存储器总线、微信道架构(MicroChannel Architecture,MCA)总线、外围组件互连(Peripheral Component Interconnect,PCI)总线、PCI-Express(PeripheralComponent Interconnect-X,PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,SATA)总线、视频电子标准协会局部(VESA Local Bus,VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线504可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。该电子设备可以执行本发明实施例中的模型训练方法,从而实现图1和图2描述的模型训练方法。
另外,结合上述实施例中的模型训练方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种模型训练方法。
本申请还提供了一种计算机程序产品,所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行实现上述任意一种模型训练方法实施例的各个过程。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、只读存储器(Read-Only Memory,ROM)、闪存、可擦除只读存储器(Erasable ReadOnly Memory,EROM)、软盘、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、光盘、硬盘、光纤介质、射频(Radio Frequency,RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种模型训练方法,应用于第一边缘服务器,其特征在于,包括:
接收云端服务器发送的全局预测模型,所述全局预测模型用于识别攻击行为信息;
获取所述第一边缘服务器的第一流量和第二边缘服务器的第二流量,所述第一流量和所述第二流量分别表征用户的行为信息,所述第二流量为所述第二边缘服务器中的部分流量,所述第二边缘服务器为所述第一边缘服务器邻近的边缘服务器;
基于所述第一流量和所述第二流量构建第一训练样本;
利用生成对抗网络生成所述第一训练样本对应的第二训练样本,并将所述第一训练样本与所述第二训练样本进行对抗学习,得到第三训练样本,所述第二训练样本和所述第三训练样本分别表征用户的行为信息;
基于所述第一训练样本和所述第三训练样本构建第四训练样本,并基于所述第四训练样本训练所述全局预测模型,得到第一预测模型,以识别攻击行为信息。
2.根据权利要求1所述的模型训练方法,其特征在于,所述生成对抗网络包括生成器和第一判别器,所述利用生成对抗网络生成所述第一训练样本对应的第二训练样本,包括:
利用所述生成器的编码网络对所述第一训练样本进行特征提取,得到第一攻击行为特征;
利用所述第一判别器将所述第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,所述第三边缘服务器为除所述第一边缘服务器之外的其他边缘服务器,所述第三边缘服务器包括所述第二边缘服务器;
通过解码器对所述第二攻击行为特征进行解码,得到第二训练样本。
3.根据权利要求2所述的模型训练方法,其特征在于,所述生成对抗网络包括第二判别器,所述将所述第一训练样本与所述第二训练样本进行对抗学习,得到第三训练样本,包括:
利用所述第二判别器将所述第一攻击行为特征与所述第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
通过所述解码器对所述第三攻击行为特征进行解码,得到第三训练样本。
4.根据权利要求1所述的模型训练方法,其特征在于,还包括:
将所述第一预测模型的参数发送到所述云端服务器,以用于所述云端服务器计算至少一个第一边缘服务器发送的所述参数的加权平均值,确定全局参数,并基于所述全局参数更新所述全局预测模型。
5.根据权利要求4所述的模型训练方法,其特征在于,在将所述第一预测模型的参数发送到所述云端服务器之前,所述方法还包括:
判断所述第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值是否大于预设阈值;
在所述第一预测模型的参数与上一次训练得到的第一预测模型的参数之间的差值大于预设阈值的情况下,将所述第一预测模型的参数发送到所述云端服务器。
6.一种模型训练装置,其特征在于,包括:
接收模块,用于接收云端服务器发送的全局预测模型,所述全局预测模型用于识别攻击行为信息;
获取模块,用于获取所述第一边缘服务器的第一流量和第二边缘服务器的第二流量,所述第一流量和所述第二流量分别表征用户的行为信息,所述第二流量为所述第二边缘服务器中的部分流量,所述第二边缘服务器为所述第一边缘服务器邻近的边缘服务器;
构建模块,用于基于所述第一流量和所述第二流量构建第一训练样本;
确定模块,用于利用生成对抗网络生成所述第一训练样本对应的第二训练样本,并将所述第一训练样本与所述第二训练样本进行对抗学习,得到第三训练样本,所述第二训练样本和所述第三训练样本分别表征用户的行为信息;
所述确定模块,还用于基于所述第一训练样本和所述第三训练样本构建第四训练样本,并基于所述第四训练样本训练所述全局预测模型,得到第一预测模型,以识别攻击行为信息。
7.根据权利要求6所述的模型训练装置,其特征在于,所述确定模块包括:
提取单元,用于利用所述生成器的编码网络对所述第一训练样本进行特征提取,得到第一攻击行为特征;
确定单元,用于利用所述第一判别器将所述第一攻击行为特征与第三边缘服务器中第三流量对应的均匀分布的特征进行对抗学习,得到第二攻击行为特征,所述第三边缘服务器为除所述第一边缘服务器之外的其他边缘服务器,所述第三边缘服务器包括所述第二边缘服务器;
解码单元,通过解码器对所述第二攻击行为特征进行解码,得到第二训练样本。
8.根据权利要求7所述的模型训练装置,其特征在于,所述确定模块包括:
确定单元,还用于利用所述第二判别器将所述第一攻击行为特征与所述第二攻击行为特征进行对抗学习,确定第三攻击行为特征;
解码单元,还用于通过所述解码器对所述第三攻击行为特征进行解码,得到第三训练样本。
9.一种电子设备,其特征在于,所述设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-5任意一项所述的在模型训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-5任意一项所述的模型训练方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310507711.7A CN116523026B (zh) | 2023-05-08 | 2023-05-08 | 模型训练方法、装置、设备及计算机存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310507711.7A CN116523026B (zh) | 2023-05-08 | 2023-05-08 | 模型训练方法、装置、设备及计算机存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN116523026A true CN116523026A (zh) | 2023-08-01 |
| CN116523026B CN116523026B (zh) | 2026-01-09 |
Family
ID=87402757
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310507711.7A Active CN116523026B (zh) | 2023-05-08 | 2023-05-08 | 模型训练方法、装置、设备及计算机存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116523026B (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120614165A (zh) * | 2025-06-06 | 2025-09-09 | 国富瑞数据系统有限公司 | 一种基于人工智能的业务安全监测系统、方法、电子设备及存储介质 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111181897A (zh) * | 2018-11-13 | 2020-05-19 | 中移(杭州)信息技术有限公司 | 攻击检测模型训练方法、攻击检测方法及系统 |
| CN112396129A (zh) * | 2020-12-08 | 2021-02-23 | 中山大学 | 一种对抗样本检测方法及通用对抗攻击防御系统 |
| CN113705104A (zh) * | 2021-08-31 | 2021-11-26 | 平安普惠企业管理有限公司 | 基于复合对抗攻击的模型训练方法、装置、设备及介质 |
| US20210400059A1 (en) * | 2020-06-22 | 2021-12-23 | Wangsu Science & Technology Co., Ltd. | Network attack detection method, system and device based on graph neural network |
| WO2022077907A1 (zh) * | 2020-10-14 | 2022-04-21 | 上海交通大学 | 对抗攻击的检测方法、系统、设备、计算机可读存储介质 |
| CN114707661A (zh) * | 2022-04-13 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 一种对抗训练方法和系统 |
| US20220303290A1 (en) * | 2021-03-22 | 2022-09-22 | Verizon Patent And Licensing Inc. | Systems and methods for utilizing a machine learning model to detect anomalies and security attacks in software-defined networking |
| CN115412344A (zh) * | 2022-08-29 | 2022-11-29 | 西安热工研究院有限公司 | 一种工控网络的攻击样本的生成方法、装置及存储介质 |
| CN115834232A (zh) * | 2022-12-20 | 2023-03-21 | 北京邮电大学 | 物联网入侵检测模型训练方法和装置、个性化检测方法 |
-
2023
- 2023-05-08 CN CN202310507711.7A patent/CN116523026B/zh active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111181897A (zh) * | 2018-11-13 | 2020-05-19 | 中移(杭州)信息技术有限公司 | 攻击检测模型训练方法、攻击检测方法及系统 |
| US20210400059A1 (en) * | 2020-06-22 | 2021-12-23 | Wangsu Science & Technology Co., Ltd. | Network attack detection method, system and device based on graph neural network |
| WO2022077907A1 (zh) * | 2020-10-14 | 2022-04-21 | 上海交通大学 | 对抗攻击的检测方法、系统、设备、计算机可读存储介质 |
| CN112396129A (zh) * | 2020-12-08 | 2021-02-23 | 中山大学 | 一种对抗样本检测方法及通用对抗攻击防御系统 |
| US20220303290A1 (en) * | 2021-03-22 | 2022-09-22 | Verizon Patent And Licensing Inc. | Systems and methods for utilizing a machine learning model to detect anomalies and security attacks in software-defined networking |
| CN113705104A (zh) * | 2021-08-31 | 2021-11-26 | 平安普惠企业管理有限公司 | 基于复合对抗攻击的模型训练方法、装置、设备及介质 |
| CN114707661A (zh) * | 2022-04-13 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 一种对抗训练方法和系统 |
| CN115412344A (zh) * | 2022-08-29 | 2022-11-29 | 西安热工研究院有限公司 | 一种工控网络的攻击样本的生成方法、装置及存储介质 |
| CN115834232A (zh) * | 2022-12-20 | 2023-03-21 | 北京邮电大学 | 物联网入侵检测模型训练方法和装置、个性化检测方法 |
Non-Patent Citations (1)
| Title |
|---|
| 胡文强: "基于流量分析的物联网恶意节点检测技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 01, 31 January 2023 (2023-01-31), pages 136 - 615 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120614165A (zh) * | 2025-06-06 | 2025-09-09 | 国富瑞数据系统有限公司 | 一种基于人工智能的业务安全监测系统、方法、电子设备及存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN116523026B (zh) | 2026-01-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11057788B2 (en) | Method and system for abnormal value detection in LTE network | |
| CN109922032B (zh) | 用于确定登录账户的风险的方法、装置、设备及存储介质 | |
| CN111967609B (zh) | 模型参数验证方法、设备及可读存储介质 | |
| TWI775186B (zh) | 射頻指紋訊號處理裝置及射頻指紋訊號處理方法 | |
| CN111586071B (zh) | 一种基于循环神经网络模型的加密攻击检测方法及装置 | |
| CN114139601B (zh) | 一种对电力巡检场景人工智能算法模型的评估方法及系统 | |
| CN111683390B (zh) | 上行干扰识别的方法、装置及系统 | |
| CN112632609A (zh) | 异常检测方法、装置、电子设备及存储介质 | |
| CN118796439B (zh) | 计算节点的调度方法、装置、设备及计算机存储介质 | |
| CN113283450A (zh) | 图像识别方法、装置、设备及计算机存储介质 | |
| CN116150125A (zh) | 结构化数据生成模型的训练方法、装置、设备及存储介质 | |
| CN116523026A (zh) | 模型训练方法、装置、设备及计算机存储介质 | |
| CN117493121A (zh) | 异常检测方法、装置、设备、介质及产品 | |
| CN116963188A (zh) | 一种确定卸载比率的方法、装置、设备及存储介质 | |
| CN112749391A (zh) | 一种恶意软件对抗样本的检测方法、装置和电子设备 | |
| CN110071845B (zh) | 一种对未知应用进行分类的方法及装置 | |
| CN118820037A (zh) | 云服务器的性能预测方法、装置、设备、介质及产品 | |
| CN116863244A (zh) | 图像类别确定方法、装置、电子设备和存储介质 | |
| CN111209567B (zh) | 提高检测模型鲁棒性的可知性判断方法及装置 | |
| CN114548271A (zh) | 网络异常检测方法及装置 | |
| CN115438735A (zh) | 基于联邦学习的质检方法、系统、可读介质及电子设备 | |
| CN118802315B (zh) | 流量确定的方法、装置、设备及计算机存储介质 | |
| CN118869331B (zh) | 一种网络安全评估方法 | |
| CN115907766B (zh) | 信用卡异常风险确定方法、装置和设备和可读存储介质 | |
| CN115438800B (zh) | 基于模型训练的噪声样本筛除方法、装置、设备及介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |