一种基于SP-CUnet的逆散射成像方法技术

技术编号:25186096 阅读:26 留言:0更新日期:2020-08-07 21:13
本发明专利技术提供了一种基于SP‑CUnet的逆散射成像方法,该方法针对复值数据相位信息采用不充分以及最大池化方法只能反映局部信息的问题,引入了复卷积模块以及频谱池化模块,结合Unet网络强大的分类成像能力提出了基于SP‑CUnet的逆散射成像方法。本发明专利技术对仿真得到的散射数据预处理后带入网络进行训练,训练完成的网络不仅可以在多散射体分布以及噪声干扰的情况下得到理想的成像效果,而且对训练样本的需求量并不大,且成像精度高。

【技术实现步骤摘要】
一种基于SP-CUnet的逆散射成像方法
本专利技术属于电磁场建模仿真
,具体涉及一种基于频谱池化下的复卷积U型网络(Spectralpooling-ComplexUnet,SP-CUnet)的逆散射成像方法。
技术介绍
逆散射问题由于存在不适定性和非线性,通常采用正则化的迭代优化方法求解,但该方法存在耗时,难于实时重建的缺点。近年来,基于卷积神经网络提取散射体几何及电磁特性的方法被提出,此类方法大多使用一些参数来表示散射体,例如散射体的位置、尺寸、形状和分段介电常数,具有准确高效的特征。基于卷积神经网络的设计方法需要大量的样本数据进行训练。训练成熟的神经网络能在短时间内重建成像区域内的散射体特性,进而替代传统的正则化迭代方法。文献“DeepConvolutionalNeuralnetworkforinverseprobleminimaging”首次提出利用卷积神经网络求解逆问题,达到图像重建的目的;文献“Solvingill-posedinverseproblemsusingiterativedeepneuralnetworks”提出了一种基于正则化理论求解不适定逆问题的部分学习方法;文献“Deeplearningschemesforfullwavenonlinearinversescatteringproblems”提出利用卷积神经网络解决全波逆散射问题。但目前求解逆散射问题的网络模型只能处理实数值的数据,而电磁散射数据通常为复数,这意味着必须丢弃相位信息。并且在多散射体分布以及噪声干扰的情况下,利用散射场幅度数值进行重建的结果往往不够精确。
技术实现思路
本专利技术的目的是提供一种基于复数卷积神经网络的逆散射成像方法,以解决现有的逆散射神经网络模型无法处理复数值数据的问题。并且利用频谱池化代替传统的最大池化,提取更多的数据特征。本专利技术提出的一种基于SP-CUnet的逆散射成像方法,具体包括如下步骤:本次专利技术的输入数据为散射数据ES,输出数据为预测的介电常数分布esponr_。步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr。其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值。不断修改散射体的位置、尺寸、数量和分段介电常数分布,可以得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr。步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五。数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理。得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理。预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。步骤3:制作训练集和测试集。训练集和测试集均包含输入数据和标记数据两个部分。从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr。其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr。步骤4.从所述训练集的500组样本数据中每次按顺序取出5组样本数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据。记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络。复卷积神经网络的测试:在测试阶段,将测试集的数据作为输入数据喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。1、本专利技术对输入的散射数据进行预处理输入数据的特征对神经网络的训练起到至关重要的作用。本专利技术对幅值较小的散射数据进行剔除。为保证细化数据之间的特征,对训练集和测试集的输入数据进行归一化处理,提高算法准确性。2、处理复数值的散射数据现有的Unet只能进行实数卷积计算,对于复值的散射数据而言,实数卷积计算难以提取到有效的特征。本专利技术实数卷积修改为实部和实部、实部和虚部、虚部和实部、虚部和虚部的卷积计算以解决的Unet只能处理实数数据的问题,提高了在多散射体以及噪声干扰情况下的重建精度。3、频谱池化以最大池化为例,对于一个2×2大小的滑动窗口,将其应用于二维输入数据时,每个窗口中的最大值只反映非常局部的信息,而且往往不能很好地表示窗口特征。为了保留数据更多的特征,本专利技术中用频谱池化代替最大池化。附图说明图1为本专利技术实例的成像区域的示意图图2为本专利技术复卷积神经网络结构示意图图3为本专利技术复卷积神经网络训练流程图图4为本专利技术单散射体仿真结果示意图图5为本专利技术双散射体仿真结果示意图具体实施方式为使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术的实施步骤作进一步详细的说明。本专利技术提出的一种基于SP-CUnet的逆散射成像方法,具体包括如下步骤:本次专利技术的输入数据为散射数据ES,输出数据为预测的介电常数分布esponr_。步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr。其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值。不断修改散射体的位置、尺寸、数量和分段介电常数分布,可以得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr。步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五。数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理。得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理。预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。步骤3:制作训练集和测试集。训练集和测试集均包含输入数据和标记数据两个部分。从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据本文档来自技高网
...

【技术保护点】
1.一种基于SP-CUnet的逆散射成像方法,其特征在于,该方法包括以下步骤:/n步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr,其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值,不断修改散射体的位置、尺寸、数量和分段介电常数分布,得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr;/n步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五,数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理;得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理;/n步骤3:制作训练集和测试集,训练集和测试集均包含输入数据和标记数据两个部分,从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr,其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr;/n步骤4.从所述训练集的500组数据中每次按顺序取出5组数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据,记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络;/n步骤5.在测试阶段,将测试集的数据作为输入数据依次喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。/n...

【技术特征摘要】
1.一种基于SP-CUnet的逆散射成像方法,其特征在于,该方法包括以下步骤:
步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr,其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值,不断修改散射体的位置、尺寸、数量和分段介电常数分布,得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr;
步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五,数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理;得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理;
步骤3:制作训练集和测试集,训练集和测试集均包含输入数据和标记数据两个部分,从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr,其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr;
步骤4.从所述训练集的500组数据中每次按顺序取出5组数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据,记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络;
步骤5.在测试阶段,将测试集的数据作为输入数据依次喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。


2.根据权利要求1所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述成像区域D为一个2m×2m大小的正方形区域,所述成像区域D中的背景介电常数为1,所述成像区域D的中心在(0,0)处,散射介质e的介电常数取值范围为[1.5,3],散射体的介电常数大于1,散射体的形状为球形或者矩形,且允许散射体重叠。


3.根据权利要求2所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述散射体的具体形状为球形散射体,半径为1.5至2.5,收发天线均匀分布在以(0,0)处为圆心,半径为1.5米的圆上,收发天线的数量均为64。


4.根据权利要求3所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。


5.根据权利要求1-4任意一项所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述神经网络具体为:
(1)首先,输入数据依次通过Cconv1、Cconv2和Cconv3,其中,Cconv1、Cconv2和Cconv3均为复卷积层,分别从Cconv1、Cconv2和Cconv3输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×64。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(2)Cconv3之后的32层数据通道中的数据一路进入SP1,其中,SP1为频谱池化层,复卷积计算的输入size为64×64,输出size为32×32,从SP1输出的数据进入其对应的32层数据通道,然后SP1之后的32层数据通道中的数据依次通过Cconv4和Cconv5;
(3)Cconv4和Cconv5均为复卷积层,分别从Cconv4和Cconv5输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(4)Cconv5之后的64层数据通道中的数据一路进入SP2,其中,SP2为频谱池化层,复卷积计算的输入size为32×32,输出size为16×16,从SP2输出的数据进入其对应的64层数据通道,然后SP2之后的64层数据通道中的数据依次通过Cconv6和Cconv7;
(5)Cconv6和Cconv7为复卷积层,分别从Cconv6和Cconv7输出的数据均进入各自的128层数据通道,复卷积计算的输入size为8×8,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为128,输出size为16×16,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(6)Cconv7之后的128层数据通道中的数据进入DeConv1,DeConv1为反卷积层,复卷积计算的输入size为16×16,卷积size为2×2,步长为1,卷积核深度为64,输出size为32×32,然后Cconv5之后的64层数据通道中的数据另一路通过SkipConnection连接层在DeConv1之后的64层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv8和Cconv9;
(7)Cconv8和Cconv9为复卷积层,分别从Cconv8和Cconv9输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001,激活函数为CReLU;
(8)Cconv9之后的64层数据通道中的数据进入DeConv2,DeConv2为反卷积层,复卷积计算的输入size为32×32,卷积size为2×2,步长为1,卷积核深度为32,输出size为64×64,然后Cconv3之后的32层数据通道中的数据另一路通过SkipConnection连接层在DeConv2之后的32层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv10和Cconv11;
(9)Cconv10和Cconv11为复卷积层,分别从Cconv10和Cconv11输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×6...

【专利技术属性】
技术研发人员:王晓华瞿铖辉
申请(专利权)人:电子科技大学
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1