本发明专利技术涉及图像融合方法,具体为一种基于深度学习的图像融合方法,本方法按如下步骤进行:基于自动编码器利用卷积层构建基本单元;将多个基本单元堆叠起来训练得到深度堆叠神经网络,并采用端对端的方式调整堆叠网络;利用该堆叠网络分解输入图像,得到各自的高频和低频特征映射图,分别利用局部方差取大和区域匹配度合并高频和低频特征映射图;并将高频融合特征映射图和低频融合特征映射图放回最后一层网络,得到最终的融合图像。本方法可以对图像进行自适应分解和重构,融合时只需高频和低频特征映射图各一幅,不需要人工定义滤波器个数和类型,也不需要选择图像的分解层数和滤波方向数,可以极大改善融合算法对先验知识的依赖性。
【技术实现步骤摘要】
一种基于深度学习的图像融合方法
本专利技术涉及图像融合方法,具体为一种基于深度学习的图像融合方法。
技术介绍
图像融合是复杂探测系统的关键技术之一,其目的是将同一场景的多幅图像或序列探测图像合成一幅信息更完整、全面的图像,以便后续的图像分析、目标识别和跟踪。多尺度变换域融合是当前采用的主要方法,但往往需要依据先验知识选择合适的多尺度变换方法和融合规则,不利于工程化应用。新近,深度学习在图像分类、目标跟踪等许多领域均已成功突破了固定状态模型的约束,在图像融合领域也有少些探索性的研究,如首先利用深度支撑值学习网络将遥感图像分解为高低频图像,再分别融合;将多尺度变换和低频自动编码相结合融合多聚焦图像,均获得了较好的融合结果。前者仅实现了支撑值滤波器自适应,对不适用于支持度变换的融合无法做到滤波器自适应,后者虽实现了融合规则自适应,但滤波器需要人工定义。总的来说,这些研究证实深度人工神经网络学习得到的参数更多、更全,可以以全应变做到自适应,降低方法对先验知识的依赖性,但未解决图像融合中各类多尺度变换均须依据先验知识选择滤波器类型、分解层数、方向数等问题。而在实际探测中,以上这些先验知识的获取往往极其困难。为此,需要有一种新的方法来解决多尺度变换等方法融合图像时依赖先验知识难以工程化的问题。
技术实现思路
本专利技术为了解决多尺度变换融合图像时须依据先验知识选择滤波器类型、分解层数、方向数等问题,提出了一种基于深度学习的图像融合方法。本专利技术是采用如下的技术方案实现的:一种基于深度学习的图像融合方法,包括以下步骤:构建深度堆叠卷积神经网络基本单元:基本单元由高频子网、低频子网和融合卷积层构成,高频子网、低频子网又分别由三层卷积层构成,其中,第一层卷积层对输入信息进行限制,第二层卷积层对信息进行组合,第三层卷积层再将这些信息合并为映射图;先对基本单元进行训练,再将多个基本单元堆叠起来采用端对端的方式训练得到深度堆叠神经网络;利用该堆叠神经网络分别分解输入图像,在最后一个基本单元的第三层卷积层分别得到各自的高频和低频特征映射图,利用局部方差取大得到融合后的高频特征映射图,利用区域匹配度得到融合后的低频特征映射图;将高频特征映射图和低频特征映射图放回最后一个基本单元的融合卷积层,得到最终的融合图像。上述的一种基于深度学习的图像融合方法,高频子网和低频子网第一层卷积层的卷积核分别初始化为高斯拉普拉斯滤波器和高斯滤波器,其余层卷积核用初始化。上述的一种基于深度学习的图像融合方法,深度堆叠神经网络的训练集和测试集由各类型的图像等比例混合组成,所述图像包括可见光图像、红外图像和医学图像,mini-batch取值在22-32之间。mini-batch大小决定误差收敛的稳定性,其值越大越稳定,但占用的内存更多,故取值在22-32之间,学习率决定误差收敛的速度,其值越大收敛速度越快,但越不稳定,取值通常在0.001-0.01之间。上述的一种基于深度学习的图像融合方法,基本单元第一层卷积层和第二层卷积层的卷积核个数相等且取值范围为4-16,基本单元堆叠个数取值范围为3-6。卷积核个数越多,习得的特征越多,但占用内存越大,取值通常在4-16之间。基本单元堆叠个数越多,网络对图像的分解就越精细,但个数太多却会使边缘等细节的重构能力变差,取值通常在3-6之间。上述的一种基于深度学习的图像融合方法,卷积层的激活函数选或y=max(0,x)。多尺度变换融合图像的一个优势在于可对同类信息(高频或低频)采用相同的合成规则从而可提高信息利用率,使融合结果更为精确,但其缺点是需要依赖先验知识选择合适的参数;卷积神经网络是一种常用的深度学习模型,通过系列卷积和下采样对图像进行特征提取与抽象,与图像通过卷积和下采样进行多尺度分解思想一致,不同之处在于神经网络学习得到的滤波器更多、更全,这样,当融合不同对象时可以从中自适应选择合适的滤波器;自动编码器也是一种深度学习模型,它能在一定误差内对信号进行编码解码与多尺度变换对图像进行分解重构的思想一致,但该模型不适合处理图像这类二维信号,因此本专利技术利用卷积神经网络的卷积层替换自动编码器的全连接层构建神经网络来模拟多尺度变换对图像分解重构,利用其可自适应的优势来克服多尺度变换的不足,但若对网络不做限定,它提取的并非图像的高低频特征,不利于针对性地制定融合规则,因此本专利技术用高斯拉普拉斯滤波器和高斯滤波器分别作为高频子网和低频子网首层网络的初始卷积核,以保证输入图像经过高频子网和低频子网后可得到高频特征映射图和低频特征映射图;由于浅层网络的学习能力较弱,因此本专利技术通过以该网络为基本单元堆叠形成深度堆叠卷积神经网络用以提高学习能力;使用端对端方式训练提高网络的精度、稳定性和收敛性;利用不同类型图像训练同一深度堆叠卷积神经网络,既保证网络的泛化能力,又方便得到最终融合结果;再对其分解得到的高低频特征分别制定合适的融合规则,本专利技术可实现对输入图像自适应分解并融合,相比于多尺度变换方法算法简单,融合结果的质量好,运行速度快。附图4-6为红外/可见光图像的实例,其中,图4为红外图像,图5为可见光图像,图6为本专利技术融合结果。附图说明图1为本专利技术的流程图。图2为基本单元结构图。图3本专利技术融合图像时的网络结构图。图4为红外图像。图5为可见光图像。图6为本专利技术的融合图像。具体实施方式一种基于深度学习的图像融合方法,包括以下步骤:1.构建深度堆叠卷积神经网络基本单元深度堆叠卷积神经网络由多个基本单元堆叠而成,基本单元由高频子网、低频子网和融合卷积层构成,高频子网、低频子网又分别由三层卷积层构成,其中,第一层卷积层对输入信息进行限制,第二层卷积层对信息进行组合,第三层卷积层再将这些信息合并为高频、低频特征映射图各一幅,具体如下:(1)输入源图像x,经卷积操作得高频子网第一个卷积层H1的特征映射图式中,表示卷积操作,f为激活函数,ω为卷积核,θ表示偏置,j表示第j个输出,j={1,2,…,n1},n1为H1层特征映射图的个数;高频子网和低频子网的网络结构相同,差别在于将高频子网H1层卷积核初始化为高斯拉普拉斯滤波器,低频子网H1层卷积核初始化为高斯滤波器;(2)IH1再经卷积可得高频子网第二个卷积层H2的特征映射图式中,卷积核其中G为高斯分布,n为输入神经元的个数,i为第i个输入,j为第j(j={1,2,…,n2})个输出,n2为H2层特征映射图的个数;将输入IH1换为IL1,可得低频子网第二个卷积层L2层特征映射图IL2;(3)IH2再经卷积可得高频子网第三个卷积层H3的特征映射图卷积核将IH2替换为IL2可得低频子网第三个卷积层L3层特征映射图IL3;(4)高频特征映射图IH3和低频特征映射图IL3再经过融合卷积层卷积得到重构图像卷积核2.训练基本单元(1)在基本单元构建完成后,将其所有的偏置初始化为0;(2)采用无监督方式训练基本单元,输入训练数据其中x表示输入图像,t表示目标图像,本训练集ts=xs,s表示当前训练样本,N表示训练集的大小,设网络的输出为Zs,目标函数:式中,m和n为单幅图像的尺寸,Zsuv表示当前样本输出结果点(u,v)处的值,然后通过反向传播算法对网络进行训练;3.构建并训练堆叠网络将多个训练好的基本单元首尾相接,本文档来自技高网...
【技术保护点】
一种基于深度学习的图像融合方法,其特征在于包括以下步骤:构建深度堆叠卷积神经网络基本单元:基本单元由高频子网、低频子网和融合卷积层构成,高频子网、低频子网又分别由三层卷积层构成,其中,第一层卷积层对输入信息进行限制,第二层卷积层对信息进行组合,第三层卷积层再将这些信息合并为映射图,先对基本单元进行训练,再将多个基本单元堆叠起来采用端对端的方式训练得到深度堆叠神经网络;利用该堆叠神经网络分别分解输入图像,在最后一个基本单元的第三层卷积层分别得到各自的高频和低频特征映射图,利用局部方差取大得到融合后的高频特征映射图,利用区域匹配度得到融合后的低频特征映射图;将高频特征映射图和低频特征映射图放回最后一个基本单元的融合卷积层,得到最终的融合图像。
【技术特征摘要】
1.一种基于深度学习的图像融合方法,其特征在于包括以下步骤:构建深度堆叠卷积神经网络基本单元:基本单元由高频子网、低频子网和融合卷积层构成,高频子网、低频子网又分别由三层卷积层构成,其中,第一层卷积层对输入信息进行限制,第二层卷积层对信息进行组合,第三层卷积层再将这些信息合并为映射图,先对基本单元进行训练,再将多个基本单元堆叠起来采用端对端的方式训练得到深度堆叠神经网络;利用该堆叠神经网络分别分解输入图像,在最后一个基本单元的第三层卷积层分别得到各自的高频和低频特征映射图,利用局部方差取大得到融合后的高频特征映射图,利用区域匹配度得到融合后的低频特征映射图;将高频特征映射图和低频特征映射图放回最后一个基本单元的融合卷积层,得到最终的融...
【专利技术属性】
技术研发人员:蔺素珍,韩泽,郑瑶,
申请(专利权)人:中北大学,
类型:发明
国别省市:山西,14
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。