CN105701506A - 一种基于超限学习机与稀疏表示分类的改进方法 - Google Patents
一种基于超限学习机与稀疏表示分类的改进方法 Download PDFInfo
- Publication number
- CN105701506A CN105701506A CN201610018444.7A CN201610018444A CN105701506A CN 105701506 A CN105701506 A CN 105701506A CN 201610018444 A CN201610018444 A CN 201610018444A CN 105701506 A CN105701506 A CN 105701506A
- Authority
- CN
- China
- Prior art keywords
- output
- calculate
- hidden node
- hat
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于超限学习机与稀疏表示分类的改进方法。本发明步骤如下:1、随机产生隐层节点参数;2、计算出隐层节点输出矩阵,3、根据L和N的大小关系,采用不同的公式计算出连接隐层节点和输出神经元的输出权重4、计算出查询图片y的输出向量;5、对ELM输出向量ο中的极大值οf和次大值οs的差值进行判断,如果差值大于设定值,则求出输出向量中最大值对应的索引即为查询图片所属类别;否则进入步骤6;6、采用输出向量ο中k个最大值所对应的训练样本,构造子字典,采用系数重构算法计算图片y的线性表示系数,计算残差并根据残差所对应的类别确定查询图片的所属类。本发明计算量就会大大减少,实现较高的识别率,也能够大大降低计算复杂度。
Description
技术领域
本发明属于图像分类领域,尤其涉及一种基于超限学习机与稀疏表示分类的改进方法。
背景技术
图像分类,也就是自动把输入图片归并到某一特定的类别中吸引了越来越广泛的关注,尤其是因为它在安全系统,医学诊断,人机交互等多个领域的应用。在过去的几年,从机器学习发展而来的一些技术在图像分类领域也产生了很大的影响。事实上,几乎过去提出的每一种方法都有它的优点和缺点。一个不可避免的问题就是计算复杂度和分类准确性的折中。换句话说,也就是不可能设计出一种在所有应用中在效率和识别率都最好的方法。为了解决这个问题,混合的系统应运而生,也就是集成了各种不同方法的优点从而形成一种更加有效的方法。
一个成功的图像分类系统至关重要的因素就是分类器。一个设计良好的分类器不会因为其他一些因素,例如不同的特征提取方法而受到影响。在过去的几十年中,人工神经网络由于可以随意设置输入参数而大大受益,不但学习速度比较快,而且也取得了更好的泛化性能。在它们之中,超限学习机(ExtremeLearningMachine,ELM)被广泛的关注和研究。超限学习机(ELM)之所以如此受欢迎,是因为它具有快速的学习速度,实时处理的能力和神经网络的可测量性。除了超限学习机(ELM),另一个也备受研究团体关注的是基于稀疏表示的分类(SparseRepresentationbasedClassification,SRC)。稀疏表示分类(SRC)最开始是为了研究人类视觉神经元的稀疏表现,后来发现它在人脸识别,机器视觉和方向估计等方面也具有良好的表现。稀疏表示分类(SRC)是尽量找出来自同一类的样本图片之间的联系并且通过线性回归建立起待查询图片的稀疏表示系数。尽管ELM和SRC各自都有突出的优点,但是它们仍然存在一些缺点限制了它们在实际应用中的发展。实验表明ELM的学习速度很快,但是不能较好的处理噪声,SRC虽然可以较好的处理噪声但是付出了很大的计算代价。另外需要注意到的是一个设计良好的分类器不仅需要表现出较高的识别率,而且需要有较快的识别效率。既然超限学习机(ELM)和稀疏表示分类(SRC)各有优点,那么设计一种混合分类器就是合理的。实验表明,ELM-SRC在识别率方面比超限学习机(ELM)表现好,计算复杂度也比稀疏表示分类(SRC)降低了,但是由于使用了完备字典,超限学习机与稀疏表示分类(ELM-SRC)计算复杂度仍然是很高的。
人工神经网络(ArtificialNeuralNetworks)也简称为神经网络(NNs),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为神经网络。构成前馈网络的各神经元接受前一级输入,并输出到下一级,无反馈,可以用一有向无环图表示。图的节点分为两类,即输入节点和计算单元。每个计算单元可以有任意个输入,但只有一个输出,而输出可以耦合到其他任意多个其他节点的输入。前馈神经网络通常分为不同的层,第i层的输入只与第i-1层的输出相关联,输入和输出节点由于可以和外界相连,直接受环境的影响,称为可见层,而其他的中间层则称为隐层。单隐层前馈神经网络(Single-hiddenLayerFeedforwordneuralNetworks,SLFNs)顾名思义就是隐层只有一层的前馈神经网络。对于N个任意不同的样本(xi,ti),其中xi=[xi1,xi2,…xin]T,ti=[ti1,ti2,…,tin]T,具有M个隐层节点的标准单隐层前馈神经网络(SLFNs)来说,其数学模型是其中wi是输入节点和隐层节点的权重,βi是隐层节点和输出节点之间的权重,bi是隐层偏差,g(x)是激活函数。
具有M个隐层节点的单隐层前馈神经网络(SLFNs)可以零误差逼近,意味着 也就是 上面的N个等式也可以写成Hβ=T,其中
H是隐层输出矩阵。实验表明,随机选取输入权重和隐层偏差就可以准确的得到N个不同的观测值。事实表明,单隐层前馈神经网络(SLFNs)不仅学习速度快,而且具有较好的泛化性能。
发明内容
本发明的目的是针对现有方法中存在的问题,提供一种基于超限学习机与稀疏表示分类的改进方法。本方法是一种基于超限学习机与稀疏表示分类(ExtremeLearningMachine-SparseRepresentationbasedClassification,ELM-SRC)改进的自适应超限学习机与稀疏表示分类(ExtremeLearningMachineandAdaptiveSparseRepresentationbasedClassification,EA-SRC)的算法。为了实现上述目的,本发明采用如下方案。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1、随机产生隐层节点参数(wi,bi),i=1,2,…,L,其中wi是连接第i个隐层节点和输入神经元的输入权重,bi是第i个隐层节点的偏差,L是隐层节点个数。
步骤2、计算出隐层节点输出矩阵H(w1,…wL,x1,…,xN,b1,…bi,…,bL),且
其中w是连接隐层节点和输入神经元的输入权重,x是训练样本输入,N是训练样本个数,bi是第i个隐层节点的偏差,g()表示激活函数。
步骤3、根据L和N的大小关系,分别采用不同的公式计算出连接隐层节点和输出神经元的输出权重
步骤4、计算出查询图片y的输出向量
步骤5、对ELM输出向量o中的极大值of和次大值os的差值进行判断,并求出输出向量中最大值对应的索引即为查询图片所属类别。
如果ELM输出向量o中的极大值of和次大值os的差值大于预先设定的阈值σ,即of-os>σ,则直接采用超限学习机(ELM)已训练好的神经网络,求出输出向量中最大值对应的索引即为查询图片所属类别。
如果输出向量中的极大值of和次大值os的差值小于我们预先设定的阈值,即of-os<σ,则认为图片包含的噪声较高,采用稀疏表示分类算法进行分类。
所述的步骤3中,如果L和N的大小为L<=N,即隐层节点个数小于等于样本数,则为了提高计算效率,对隐层节点输出矩阵进行奇异值分解,具体的:
3-1.奇异值分解H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=VD2VT。其中U是n阶酉矩阵矩阵,V是n阶酉矩阵。并且UUT=UTU=I,VVT=VTV=I。
3-2.设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出正交投影矩阵HAT的每层分解矩HATr,HATr=HV(D2+λnI)-1VTHT,其中HAT=HH+=H(HTH)- 1HT。
3-3.在λi∈[λmin,λmax]范围内计算不同调整参数λ对应的均方差计算公式为:
其中tj是期望的输出,而oj是实际的输出。
3-4.计算出的最小均方差对应的λ,即λopt。此时能够取得较好的泛化性能,并且也能够最大化分类边界。
3-5.计算出连接隐层节点和输出神经元的输出权重
所述的步骤3中,如果L和N的大小为L>N,即隐层节点个数大于样本数,则为了提高计算效率,对隐层节点输出矩阵进行奇异值分解,具体的:
3-6.奇异值分解H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=UD2UT,并且UUT=UTU=I,VVT=VTV=I。
3-7.设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出正交投影矩阵HAT的每层分解矩HATr=HHTU(D2+λiΙ)-1UT,其中HAT=HH+=H(HTH)-1HT;
3-8.在λi∈[λmin,λmax]范围内,计算不同调整参数λ对应的均方差计算公式为:
其中tj是期望的输出,而oj是实际的输出。
3-9.计算出的最小均方差对应的λ,即λopt。此时能够取得较好的泛化性能,并且也能够最大化分类边界。
3-10.计算出连接隐层节点和输出神经元的输出权重
步骤5所述的稀疏表示分类算法首先利用输出向量o中前k个最大值建立自适应子字典,然后重构出训练样本的稀疏表示系数,求出相应的残差,最后找出残差中最小值对应的索引即为图片属于的类别,具体的:
首先找出输出向量o中前k个最大值所对应的类别,然后用输出向量o中前k个最大值对应的向量建立自适应子字典向量其中m(i)∈{1,2,...m}。
然后重构稀疏表示系数,公式如下,其中τ是调整系数。
最后计算出相应的残差
其中Ad是第d类的训练样本;是第d类样本对应的稀疏表示系数。
本发明有益效果如下:
这种基于超限学习机与稀疏表示分类(ELM-SRC)改进的自适应超限学习机与稀疏表示分类(EA-SRC)的算法不仅具有较高的识别率,而且较快的学习速度,大大降低了计算复杂度。
附图说明
图1为本发明流程示意图;
图2为本发明单隐层前馈神经网络示意图。
具体实施方式
下面结合具体的实验来验证本发明的改进之处,以下描述仅作为示范和解释,并不对本发明作任何形式上的限制。
如图1和图2所示,选取任意一个数据库,首先由随机函数随机产生L个隐层节点参数(wi,bi),i=1,2,…,L,其中wi是连接第i个隐层节点和输入神经元的输入权重,bi是第i个隐层节点的偏差,L是隐层节点个数。计算出隐层输出矩阵
(1)如果隐层节点个数小于样本数,即L<=N。为了提高计算效率,对隐层输入矩阵进行奇异值分解,假设H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=VD2VT,并且VVT=VTV=I。事先设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出HAT矩阵的每层分解矩HATr=HV(D2+λoptI)-1VTHT,其中HAT=HH+=H(HTH)-1HT。在λi∈[λmin,λmax]范围内,计算不同调整参数λ对应的均方差计算公式其中tj是期望的输出,而oj是实际的输出。返回上式中计算出的最小均方差对应的λ,即λopt。此时可以取得较好的泛化性能,并且也可以最大化分类边界。然后计算出连接隐层节点和输出神经元的输出权重计算公式如下
(2)如果隐层节点个数小于样本数,即L>=N。对隐层输入矩阵进行奇异值分解,假设H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=UD2UT,并且UUT=UTU=I。事先设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出HAT矩阵的每层分解矩HATr=HHTU(D2+λoptΙ)-1UT,其中HAT=HH+=H(HTH)-1HT,再计算出不同调整参数λ对应的均方差,计算公式其中tj是期望的输出,而oj是实际的输出。然后返回上式中计算出的最小均方差对应的λ,即λopt。此时可以取得较好的泛化性能,并且也可以最大化分类边界。计算出连接隐层节点和输出神经元的输出权重
然后计算出输出向量如果查询图片的输出向量o中极大值和次大值的差值大于事先设定的阈值,即of-os>σ,直接采用超限学习机(ELM)已训练好的神经网络,输出向量中最大值对应的索引即为查询图片所属类别。如果ELM输出向量o中极大值和次大值的差值小于事先设定的阈值,即of-os<σ,首先找出输出向量o中前k个最大值所对应的索引,其中d∈{1,2,...m},然后用输出向量o中前k个最大值对应的向量建立自适应子字典向量重构的稀疏表示系数计算公式如下,其中τ是调整系数。对于d=1,d<m分别找出相应的Ad和计算出相应的残差找出残差最小值对应的类别y,即为图片所属类别。
Claims (4)
1.一种基于超限学习机与稀疏表示分类的改进方法,其特征在于包括如下步骤:
步骤1、随机产生隐层节点参数(wi,bi),i=1,2,…,L,其中wi是连接第i个隐层节点和输入神经元的输入权重,bi是第i个隐层节点的偏差,L是隐层节点个数;
步骤2、计算出隐层节点输出矩阵H(w1,…wL,x1,…,xN,b1,…bi,…,bL),且
其中w是连接隐层节点和输入神经元的输入权重,x是训练样本输入,N是训练样本个数,bi是第i个隐层节点的偏差,g()表示激活函数;
步骤3、根据L和N的大小关系,分别采用不同的公式计算出连接隐层节点和输出神经元的输出权重
步骤4、计算出查询图片y的输出向量
步骤5、对ELM输出向量ο中的极大值οf和次大值οs的差值进行判断,并求出输出向量中最大值对应的索引即为查询图片所属类别;
如果ELM输出向量ο中的极大值οf和次大值οs的差值大于预先设定的阈值σ,即οf-οs>σ,则直接采用超限学习机(ELM)已训练好的神经网络,求出输出向量中最大值对应的索引即为查询图片所属类别;
如果输出向量中的极大值οf和次大值οs的差值小于我们预先设定的阈值,即οf-οs<σ,则认为图片包含的噪声较高,采用稀疏表示分类算法进行分类。
2.如权利要求1所述的一种基于超限学习机与稀疏表示分类的改进方法,其特征在于所述的步骤3中,如果L和N的大小为L<=N,即隐层节点个数小于等于样本数,则为了提高计算效率,对隐层节点输出矩阵进行奇异值分解,具体的:
3-1.奇异值分解H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=VD2VT;其中U是n阶酉矩阵,V是n阶酉矩阵;并且UUT=UTU=I,VVT=VTV=I;
3-2.设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出正交投影矩阵HAT的每层分解矩HATr,HATr=HV(D2+λnI)-1VTHT,其中HAT=HH+=H(HTH)-1HT;
3-3.在λi∈[λmin,λmax]范围内计算不同调整参数λ对应的统计均方误差,计算公式为:
其中tj是期望的输出,而οj是实际的输出;
3-4.计算出的最小统计均方误差对应的λ,即λopt;此时能够取得较好的泛化性能,并且也能够最大化分类边界;
3-5.计算出连接隐层节点和输出神经元的输出权重
3.如权利要求1所述的一种基于超限学习机与稀疏表示分类的改进方法,其特征在于所述的步骤3中,如果L和N的大小为L>N,即隐层节点个数大于样本数,则为了提高计算效率,对隐层节点输出矩阵进行奇异值分解,具体的:
3-6.奇异值分解H=UDVT,其中D=diag{d1,…di,…dN}是对角矩阵,di是矩阵H的第i个奇异值,则HHT=UD2UT,并且UUT=UTU=I,VVT=VTV=I;
3-7.设定好调整参数λ的上限λmax和下限λmin,在λi∈[λmin,λmax]范围内,分别计算出正交投影矩阵HAT的每层分解矩HATr=HHTU(D2+λiΙ)-1UT,其中HAT=HH+=H(HTH)-1HT;
3-8.在λi∈[λmin,λmax]范围内,计算不同调整参数λ对应的统计均方误差计算公式为:
其中tj是期望的输出,而οj是实际的输出;
3-9.计算出的最小统计均方误差对应的λ,即λopt;此时能够取得较好的泛化性能,并且也能够最大化分类边界;
3-10.计算出连接隐层节点和输出神经元的输出权重
4.如权利要求1所述的一种基于超限学习机与稀疏表示分类的改进方法,其特征在于步骤5所述的稀疏表示分类算法首先利用输出向量ο中前k个最大值建立自适应子字典,然后重构出训练样本的稀疏表示系数,求出相应的残差,最后找出残差中最小值对应的索引即为图片属于的类别,具体的:
首先找出输出向量ο中前k个最大值所对应的类别,然后用输出向量ο中前k个最大值对应的向量建立自适应子字典向量
其中m(i)∈{1,2,...m};
然后重构稀疏表示系数,公式如下,其中τ是调整系数;
最后计算出相应的残差1≤d<m;
其中Ad是第d类的训练样本;是第d类样本对应的稀疏表示系数。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610018444.7A CN105701506B (zh) | 2016-01-12 | 2016-01-12 | 一种基于超限学习机与稀疏表示分类的改进方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610018444.7A CN105701506B (zh) | 2016-01-12 | 2016-01-12 | 一种基于超限学习机与稀疏表示分类的改进方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN105701506A true CN105701506A (zh) | 2016-06-22 |
| CN105701506B CN105701506B (zh) | 2019-01-18 |
Family
ID=56226315
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610018444.7A Active CN105701506B (zh) | 2016-01-12 | 2016-01-12 | 一种基于超限学习机与稀疏表示分类的改进方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN105701506B (zh) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106326677A (zh) * | 2016-09-12 | 2017-01-11 | 北京化工大学 | 一种pta装置醋酸消耗的软测量方法 |
| CN106779091A (zh) * | 2016-12-23 | 2017-05-31 | 杭州电子科技大学 | 一种基于超限学习机及到达距离的周期振动信号定位方法 |
| CN106897737A (zh) * | 2017-01-24 | 2017-06-27 | 北京理工大学 | 一种基于超限学习机的高光谱遥感图像地物分类方法 |
| CN107369147A (zh) * | 2017-07-06 | 2017-11-21 | 江苏师范大学 | 基于自我监督学习的图像融合方法 |
| CN107820093A (zh) * | 2017-11-15 | 2018-03-20 | 深圳大学 | 基于分组能量差值的信息检测方法、装置及接收设备 |
| CN108460458A (zh) * | 2017-01-06 | 2018-08-28 | 谷歌有限责任公司 | 在图形处理单元上执行计算图 |
| CN108470337A (zh) * | 2018-04-02 | 2018-08-31 | 江门市中心医院 | 一种基于图像深度特征的亚实性肺结节定量分析方法及系统 |
| CN109902644A (zh) * | 2019-03-07 | 2019-06-18 | 北京海益同展信息科技有限公司 | 人脸识别方法、装置、设备和计算机可读介质 |
| CN109934295A (zh) * | 2019-03-18 | 2019-06-25 | 重庆邮电大学 | 一种基于超限隐特征学习模型的图像分类与重建方法 |
| CN109934304A (zh) * | 2019-03-25 | 2019-06-25 | 重庆邮电大学 | 一种基于超限隐特征模型的盲领域图像样本分类方法 |
| CN110533101A (zh) * | 2019-08-29 | 2019-12-03 | 西安宏规电子科技有限公司 | 一种基于深度神经网络子空间编码的图像分类方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140055609A1 (en) * | 2012-08-22 | 2014-02-27 | International Business Machines Corporation | Determining foregroundness of an object in surveillance video data |
| CN104980442A (zh) * | 2015-06-26 | 2015-10-14 | 四川长虹电器股份有限公司 | 一种基于元样本稀疏表示的网络入侵检测方法 |
| CN104992165A (zh) * | 2015-07-24 | 2015-10-21 | 天津大学 | 基于极限学习机的交通标志识别方法 |
-
2016
- 2016-01-12 CN CN201610018444.7A patent/CN105701506B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140055609A1 (en) * | 2012-08-22 | 2014-02-27 | International Business Machines Corporation | Determining foregroundness of an object in surveillance video data |
| CN104980442A (zh) * | 2015-06-26 | 2015-10-14 | 四川长虹电器股份有限公司 | 一种基于元样本稀疏表示的网络入侵检测方法 |
| CN104992165A (zh) * | 2015-07-24 | 2015-10-21 | 天津大学 | 基于极限学习机的交通标志识别方法 |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106326677A (zh) * | 2016-09-12 | 2017-01-11 | 北京化工大学 | 一种pta装置醋酸消耗的软测量方法 |
| CN106326677B (zh) * | 2016-09-12 | 2018-12-25 | 北京化工大学 | 一种pta装置醋酸消耗的软测量方法 |
| CN106779091A (zh) * | 2016-12-23 | 2017-05-31 | 杭州电子科技大学 | 一种基于超限学习机及到达距离的周期振动信号定位方法 |
| CN106779091B (zh) * | 2016-12-23 | 2019-02-12 | 杭州电子科技大学 | 一种基于超限学习机及到达距离的周期振动信号定位方法 |
| CN108460458A (zh) * | 2017-01-06 | 2018-08-28 | 谷歌有限责任公司 | 在图形处理单元上执行计算图 |
| US12190404B2 (en) | 2017-01-06 | 2025-01-07 | Google Llc | Executing computational graphs on graphics processing units |
| CN106897737B (zh) * | 2017-01-24 | 2019-10-11 | 北京理工大学 | 一种基于超限学习机的高光谱遥感图像地物分类方法 |
| CN106897737A (zh) * | 2017-01-24 | 2017-06-27 | 北京理工大学 | 一种基于超限学习机的高光谱遥感图像地物分类方法 |
| CN107369147A (zh) * | 2017-07-06 | 2017-11-21 | 江苏师范大学 | 基于自我监督学习的图像融合方法 |
| CN107369147B (zh) * | 2017-07-06 | 2020-12-25 | 江苏师范大学 | 基于自我监督学习的图像融合方法 |
| CN107820093A (zh) * | 2017-11-15 | 2018-03-20 | 深圳大学 | 基于分组能量差值的信息检测方法、装置及接收设备 |
| CN107820093B (zh) * | 2017-11-15 | 2019-09-03 | 深圳大学 | 基于分组能量差值的信息检测方法、装置及接收设备 |
| CN108470337A (zh) * | 2018-04-02 | 2018-08-31 | 江门市中心医院 | 一种基于图像深度特征的亚实性肺结节定量分析方法及系统 |
| CN109902644A (zh) * | 2019-03-07 | 2019-06-18 | 北京海益同展信息科技有限公司 | 人脸识别方法、装置、设备和计算机可读介质 |
| CN109934295A (zh) * | 2019-03-18 | 2019-06-25 | 重庆邮电大学 | 一种基于超限隐特征学习模型的图像分类与重建方法 |
| CN109934304A (zh) * | 2019-03-25 | 2019-06-25 | 重庆邮电大学 | 一种基于超限隐特征模型的盲领域图像样本分类方法 |
| CN110533101A (zh) * | 2019-08-29 | 2019-12-03 | 西安宏规电子科技有限公司 | 一种基于深度神经网络子空间编码的图像分类方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN105701506B (zh) | 2019-01-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105701506A (zh) | 一种基于超限学习机与稀疏表示分类的改进方法 | |
| CN113887610B (zh) | 基于交叉注意力蒸馏Transformer的花粉图像分类方法 | |
| CN109816026B (zh) | 卷积神经网络和脉冲神经网络的融合装置及方法 | |
| US11170256B2 (en) | Multi-scale text filter conditioned generative adversarial networks | |
| CN114707011B (zh) | 一种基于张量分解的多源异构数据特征融合方法 | |
| CN108710906B (zh) | 基于轻量级网络LightPointNet的实时点云模型分类方法 | |
| Zheng et al. | Spatio-temporal wind speed prediction of multiple wind farms using capsule network | |
| CN113205048B (zh) | 一种手势识别方法及识别系统 | |
| CN113688981B (zh) | 具有记忆与信息抽象功能的类脑神经网络 | |
| CN111126599A (zh) | 一种基于迁移学习的神经网络权重初始化方法 | |
| CN107492121A (zh) | 一种单目深度视频的二维人体骨骼点定位方法 | |
| CN104900063B (zh) | 一种短程行驶时间预测方法 | |
| CN107609634A (zh) | 一种基于增强极速学习的卷积神经网络训练方法 | |
| CN111401547B (zh) | 一种面向乘客流分析的基于循环学习单元的htm设计方法 | |
| CN105787557A (zh) | 一种计算机智能识别的深层神经网络结构设计方法 | |
| CN105718963B (zh) | 基于变长增量型极限学习机的sar图像分类方法 | |
| CN114898217A (zh) | 基于神经网络架构搜索的高光谱分类方法 | |
| CN108491925A (zh) | 基于隐变量模型的深度学习特征泛化方法 | |
| CN118210927A (zh) | 一种基于预训练语言模型的融合图结构的知识图谱表示学习方法 | |
| CN116976512A (zh) | 基于图神经网络的无人机集群航迹预测方法 | |
| CN116311186A (zh) | 一种基于改进Transformer模型的植物叶片病变识别方法 | |
| CN114463420B (zh) | 一种基于注意力卷积神经网络的视觉里程计算法 | |
| CN115862319A (zh) | 一种面向时空图自编码器的交通流量预测方法 | |
| Zand et al. | Flow-based spatio-temporal structured prediction of motion dynamics | |
| Cheng et al. | Solving monocular sensors depth prediction using MLP-based architecture and multi-scale inverse attention |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |