System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及图像分类方法。
技术介绍
1、高光谱图像(hyperspectral images,hsis)是一种同时获取目标对象的空间信息和光谱信息的立方体数据。它将成像技术与光谱技术相结合,形成了连续、窄波段的光谱图像数据,使地物特征可以更全面、更细致的被揭示。高光谱图像也因其独特的图谱合一特性,被广泛的用于医疗、农业]以及矿物勘探等领域。高光谱图像分类是通过分析图像中的信息,为图像中的每一个像素赋予相应的类别标签的过程。早期流行的高光谱图像分类技术主要利用不同地物独特的光谱信息来进行分类,代表性方法包括:k近邻分类器、支持向量机(support vector machine,svm)以及稀疏表示分类等。尽管这些方法简单且易于实现,但是,它们仅利用了光谱信息,没有考虑到空间地物分布的连续性,导致特征提取不够完善。此外,传统分类方法过度依赖专家经验,难以保证算法的鲁棒性和泛化性。
2、近几年,深度学习(deep learning,dl)在高光谱图像分类领域展现出强大的应用潜力,卷积神经网络(convolution neural network,cnn)、深度置信网络(deep beliefnetwork,dbn),以及堆栈自编码器(stacked autoencoder,sae)等模型在高光谱图像分类中的研究都取得了较好的研究成果。然而,dbn和sae均要求输入数据为一维向量,这导致模型应用的局限性较大。cnn凭借局部感知和参数共享的特性,可以提取到更深层的数据特征,同时避免了模型参数的剧增,因而受到广泛的关注。一
3、注意力机制源于对人类视觉的研究。在认知科学领域,由于信息处理的局限性,人类不可避免地会选择性地聚焦于部分信息,而忽略其他同样可见的信息。通过模拟人类视觉和认知系统的这一特点,深度学习领域引入了注意力机制。该机制旨在使神经网络在处理输入数据时,能够像人类一样集中注意力于相关信息部分,从而提高信息处理的效率和准确性。通过引入注意力机制,神经网络可以自动学习并选择性关注输入数据中的重要信息,从而提高模型的性能和泛化能力。一种具有注意力机制的层次残差网络(hierarchicalresidual network,hresnetam)被提出,该方法利用注意力机制为不同尺度的光谱特征设置了自适应的权重,进一步提高了提取特征的判别能力。一种交叉注意力光谱-空间网络(cross-attention spectral–spatial network,cassn)被提出,该方法利用跨光谱和跨空间注意力分量生成频带权重和光谱-空间特征,以缓解以前的方法对hsi旋转不鲁棒的问题。一种结合了交叉通道密集连接和多尺度双聚合注意力的网络(cross-channel denseconnection andmulti-scaledual aggregated attention network,cdc_mdaa)被提出,该方法用于缓解高光谱图像分类中标记数据困难的问题。一种双全局-局部注意力网络(dualglobal–local attention network,dglanet)被提出,该方法以较低的计算成本实现了对全局和局部两方面的空谱信息的利用。
4、尽管卷积神经网络(cnn)在高光谱图像分类领域取得了许多显著的成果,然而,其感受野受限的问题一直是一个长期存在的挑战。这个问题使得网络在学习长距离空间分布的依赖关系时变得相对困难。虽然可以通过使用不同大小的卷积核来缓解这个问题,但这也会增加模型的复杂性,可能会导致网络训练过拟合。
5、transformer是由vaswani等人在2017年提出的一种新型神经网络结构,最初被广泛应用于自然语言处理(natural language processing,nlp)领域,并取得了显著的成果。然而,在计算机视觉(computer vision,cv)领域的应用中,transformer存在一定的局限性。而vit(vision transformer,vit)等研究成果的出现则极大地扩展了transformer在计算机视觉领域的应用范围。在vit的基础上,一种面向高光谱图像分类的骨干网络(spectralformer,sf)被提出,该方法不仅可以学习局部的光谱表示,而且还能将类似的分量由浅层传递到深层。类似的,一种分组感知层次transformer(group-awarehierarchical transformer,gaht)被提出,该方法通过分组嵌入模块提取到了更为详细的局部空间-光谱关系。一种光谱-空间transformer(spectral–spatial transformernetwork,sstn)被提出,该方法由空间注意力和光谱关联模块组成,以克服卷积核感受野受限的约束。一种轻量级光谱-空间transformer(efficient lightweight spectral–spatial transformer,els2t)被提出,该方法可以对高光谱数据的长距离全局依赖性进行建模,从而缓解cnn感受野有限的问题。
6、然而,由于transformer采用的是全局注意力机制,它计算输入序列中所有元素之间的关联,而无法关注于局部特征。为了缓解这个问题,一些研究者尝试将transformer与cnn相结合,以充分发挥transformer处理长序列和cnn处理局部图像特征的优势。一种cnn与transformer混合的网络(convolution transformer mixer,ctmixer)被提出,该方法利用cnn改进了多头注意力机制,从而实现了cnn和transformer的结合。一种瓶颈空间-光谱transformer(bottleneck spatial–spectral transformer,bs2t)被提出,该方法结合了cnn和transformer,以实现特征提取和长距离依赖关系的捕获。具体来说,cnn用于特征压缩和扩展,而transformer则通过捕捉长距离依赖关系来增强特征表示。一种光谱-空间特征标记transformer(spectral–sp本文档来自技高网...
【技术保护点】
1.基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述方法具体过程为:
2.根据权利要求1所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一中高光谱图像训练集X获取过程为:
3.根据权利要求2所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一中将高光谱图像X输入基于自适应特征增强的高斯加权网络AFEGW进行训练,直至收敛,获得训练好的建立基于自适应特征增强的高斯加权网络AFEGW;
4.根据权利要求3所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一二中将降维后的数据Xpca输入自适应特征增强模块AFEM,自适应特征增强模块AFEM输出特征
5.根据权利要求4所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一二二中将数据输入自适应特征增强模块AFEM,自适应特征增强模块AFEM输出特征;
6.根据权利要求5所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一三中自适应特征增强模块A
7.根据权利要求6所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一四中高斯加权特征融合模块GWF2输出特征输入全局依赖关系提取及分类部分,全局依赖关系提取及分类部分输出分类结果;
8.根据权利要求7所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一四二中将特征xin输入Transformer编码器,Transformer编码器输出特征;
9.根据权利要求8所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一四二一中将特征xin输入层归一化层,层归一化层输出特征输入多头协同注意力,多头协同注意力输出特征与特征xin进行加和处理,得到加和处理后的特征;
...【技术特征摘要】
1.基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述方法具体过程为:
2.根据权利要求1所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一中高光谱图像训练集x获取过程为:
3.根据权利要求2所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一中将高光谱图像x输入基于自适应特征增强的高斯加权网络afegw进行训练,直至收敛,获得训练好的建立基于自适应特征增强的高斯加权网络afegw;
4.根据权利要求3所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一二中将降维后的数据xpca输入自适应特征增强模块afem,自适应特征增强模块afem输出特征
5.根据权利要求4所述的基于自适应特征增强的高斯加权网络的图像分类方法,其特征在于:所述步骤一二二中将数据输入自适应特征增强模块afem,自适应特征增强模块afem输出特征;
...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。