System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及图像分割,具体为一种基于多重上下文u-net网络的复杂场景遥感图像分割方法。
技术介绍
1、近年来,随着遥感图像技术的广泛应用,并伴随着人工智能计算机视觉技术的快速发展,遥感图像分割解译已然成为热门的跨学科研究领域。基于传统的图像分割方法是根据图像的灰度、颜色、纹理和形状等低层次特征,将原始图像分割成较小的区域,然后,对相邻区域进行比较区分,并将具有相似性的两个区域进行合并。常见的传统图像分割方法包括基于阈值分割法、边缘分割法和区域生长法等。这些方法对于复杂场景的高分辨率遥感图像分割精度较低、鲁棒性较差。且传统图像分割方法依赖于手动标注图像背景与前景区域,而手工标注提取的特征容易出现表征不明显,边缘处理精度不高的问题,需要依赖过多外界条件,并不适用于处理大量的遥感图像分割。随着深度学习技术的快速发展,卷积神经网络在图像语义分割、目标检测及目标跟踪领域取得了突破性成就。卷积神经网络不仅可以自适应学习图像的低层次特征,如图像的灰度、颜色、纹理和形状等,同时还可以学习图像的深层特征,如图像的结构和语义信息等。由于卷积神经网络提取的图像语义特征具有多层次、多尺度、多方位和多语义等特性,为遥感图像分割提供了技术支持。但由于遥感图像包含有大量的场景语义信息,为遥感图像多类目标分割带来了巨大的挑战。其主要包括遥感图像场景复杂、地物目标多样性降低了现有语义分割算法的特征提取能力;其次由于光照强度、成像角度、阴影遮挡等因素影响,遥感图像存在边缘模糊的问题,降低了多类目标分割的准确性;同时,遥感图像存在多样目标尺度特征差异大的问题,容
2、u-net网络因其独特的u型结构,被广泛应用于遥感图像分割任务中,利用u-net网络进行遥感图像语义分割任务时,虽然其结构能够有效地提取图像特征,但仍然存在一些局限性。首先,u-net网络并没有充分利用遥感图像丰富的语义信息,这限制了其在处理遥感图像复杂场景时的性能。其次,基于遥感图像的成像特点,常存在图像边界模糊的问题,u-net网络并不能很好的对遥感图像的边界进行语义分割。此外,针对遥感图像多类目标尺度差异大的问题,u-net网络并不能完全的捕捉图像的全局和局部特征,导致分割效果不佳。因此,为了解决这些问题,有必要对u-net网络进行结构改进,提升模型对遥感图像复杂场景的适应能力,提高遥感图像的语义分割精度。
3、为此,提出一种基于多重上下文u-net网络的复杂场景遥感图像分割方法。
技术实现思路
1、本专利技术的目的在于提供一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,以解决上述
技术介绍
中提出的问题。
2、为了解决上述技术问题,本专利技术提供如下技术方案:一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,包括以下步骤:在u-net网络的编码器部分构建基于上下文transformer的目标特征提取模块,通过该模块优化对遥感图像多类目标的特征提取;在跳层连接上加入多阶段卷积注意力模块,多阶段卷积注意力模块通过多阶段卷积捕获目标边界的多尺度上下文信息,之后通过结合坐标注意力机制捕获图像目标的全局信息,提升遥感图像边界分割精度;在u-net网络解码器部分构建了基于双阶段注意力的多尺度特征融合模块。
3、根据上述技术方案,目标特征提取模块关注不同位置之间的依赖关系,并融入位置信息,更精准地捕捉输入序列的上下文信息。
4、根据上述技术方案,所述目标特征提取模块工作时包括以下步骤;(1)将相邻的键与卷积核进行卷积以获得静态上下文信息,将学习到的静态上下文信息与查询进行拼接操作,随后将拼接得到的结果进行两次连续的1×1卷积处理,得到最终的注意力矩阵;(2)将得到的注意力矩阵与值value相乘,得到动态上下文信息;(3)根据上下文注意力矩阵,将所有值进行聚合,以计算出注意力特征图;(4)将静态和动态上下文信息组合为目标特征提取模块的最终输出。
5、根据上述技术方案,所述多阶段卷积注意力模块包括多阶段卷积捕获目标边界的多尺度上下文信息,通过结合坐标注意力机制捕获图像目标的位置坐标信息,多阶段卷积由三个空洞卷积构成,卷积核大小均为3*3,膨胀率分别设置为1,2,3,并将多阶段卷积获取到的特征图输入到坐标注意力机制。
6、根据上述技术方案,坐标注意力机制分为两个步骤,分别是坐标注意力信息嵌入和坐标注意力生成两部分实现对遥感图像目标信息的精准定位。
7、根据上述技术方案,多尺度特征融合模块用于将上一阶段获取到的特征图首先输入到双阶段注意力机制进行进一步的特征提取,在双阶段注意力机制之后利用数据相关型的上采样方法dupsampling来替代转置卷积进行上采样。
8、根据上述技术方案,双阶段注意力模块由空间注意力机制和通道注意力机制构成。
9、与现有技术相比,本专利技术所达到的有益效果是:本专利技术针对高分辨率遥感图像场景复杂,地物目标多样致使目标特征难以准确提取的问题,构建了一种基于上下文transformer的的目标特征提取模块编码器,通过将该模块对u-net网络的编码器进行改进,实现对多样目标的特征提取能力。其次,针对高分辨率遥感图像场景较大,目标边界模糊的问题,构建了一种基于多卷积注意力的边界信息感知模块(msca),通过将该模块添加到u-net网络的跳层连接部分,改善网络模型对遥感图像边界信息的感知能力。msca模块融合了多阶段卷积和坐标注意力机制,多阶段卷积在扩大感受野的同时捕获特征图的全局信息,坐标注意力机制则通过关注目标的位置信息进行边界特征增强,该模块有效提升了网络对目标边界的提取能力。最后,针对高分辨率遥感图像多样目标尺度差异大的问题,建了一种基于双阶段注意力的多尺度特征融合模块(dsca),通过该模块优化u-net网络解码器的上采样环节,加强目标特征信息融合,提升图像分割性能。dsca模块首先通过双阶段注意力进一步提取遥感图像的深层语义信息,之后利用dupsampling模块改进上采样方式进行特征恢复。特征恢复之后通过与跳层连接相融合获取特征图的多尺度特征信息,提高遥感图像的分割精度。
本文档来自技高网...【技术保护点】
1.一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:包括以下步骤:在U-Net网络的编码器部分构建基于上下文Transformer的目标特征提取模块,通过该模块优化对遥感图像多类目标的特征提取;
2.根据权利要求1所述的一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:目标特征提取模块关注不同位置之间的依赖关系,并融入位置信息,更精准地捕捉输入序列的上下文信息。
3.根据权利要求2所述的一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:所述目标特征提取模块工作时包括以下步骤;
4.根据权利要求3所述的一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:所述多阶段卷积注意力模块包括多阶段卷积捕获目标边界的多尺度上下文信息,通过结合坐标注意力机制捕获图像目标的位置坐标信息,多阶段卷积由三个空洞卷积构成,卷积核大小均为3*3,膨胀率分别设置为1,2,3,并将多阶段卷积获取到的特征图输入到坐标注意力机制。
5.根据权利要求4所述的一种基于多重上下文U-N
6.根据权利要求5所述的一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:多尺度特征融合模块用于将上一阶段获取到的特征图首先输入到双阶段注意力机制进行进一步的特征提取,在双阶段注意力机制之后利用数据相关型的上采样方法DUpsampling来替代转置卷积进行上采样。
7.根据权利要求6所述的一种基于多重上下文U-Net网络的复杂场景遥感图像分割方法,其特征在于:双阶段注意力模块由空间注意力机制和通道注意力机制构成。
...【技术特征摘要】
1.一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,其特征在于:包括以下步骤:在u-net网络的编码器部分构建基于上下文transformer的目标特征提取模块,通过该模块优化对遥感图像多类目标的特征提取;
2.根据权利要求1所述的一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,其特征在于:目标特征提取模块关注不同位置之间的依赖关系,并融入位置信息,更精准地捕捉输入序列的上下文信息。
3.根据权利要求2所述的一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,其特征在于:所述目标特征提取模块工作时包括以下步骤;
4.根据权利要求3所述的一种基于多重上下文u-net网络的复杂场景遥感图像分割方法,其特征在于:所述多阶段卷积注意力模块包括多阶段卷积捕获目标边界的多尺度上下文信息,通过结合坐标注意力机制捕获图像目标的位置坐标信息,多阶段...
【专利技术属性】
技术研发人员:毕福昆,张旭梅,刘文楷,曲洪权,李孝慈,
申请(专利权)人:北方工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。