System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于深度学习的二维冲击波速度场超快诊断掩码优化方法技术_技高网

基于深度学习的二维冲击波速度场超快诊断掩码优化方法技术

技术编号:40339113 阅读:11 留言:0更新日期:2024-02-09 14:27
本发明专利技术涉及基于深度学习的二维冲击波速度场超快诊断掩码优化方法,属于图形图像处理技术领域。该方法包括:S1:编码器将输入的冲击波条纹数据转换为潜在空间表示;S2:通过得到的均值和对数方差重参数化潜在变量z;S3:潜在变量z传入解码器进行解码;S4:图像数据重建;S5:计重建图像差异损失并将其累加到总损失中,执行反向传播和优化,得到总体平均损失以及模型权重;S6:将所述S5中得到的模型权重取得符合模型学习到的分布规律的值生成掩码,输入所述S4中的重建算法中重新进行图像数据重建,重复S5‑S6步骤若干次,直至得到重构图像效果好的掩码为止。本发明专利技术有效的提高了信号的重构精度。

【技术实现步骤摘要】

本专利技术属于图形图像处理,涉及基于深度学习的二维冲击波速度场超快诊断掩码优化方法


技术介绍

1、近年来,随着可再生能源消耗增加,核能成为世界大国科技竞争前沿的制高点。惯性约束聚变(inertialconfinementfusion,icf)是一种可控核聚变技术,利用靶丸内爆压缩产生聚变反应产生大量清洁能源,但聚变过程中,内爆压缩的不对称性易导致聚变失败,限制了icf研究的研究和应用。

2、目前缺乏有效的高时空分辨诊断技术来对内爆后期的演化过程进行精确有效的诊断,寻求与发展新型高时空分辨二维内爆过程诊断技术非常迫切。任意反射面速度干涉仪(velocity interferometersystemforanyreflector,visar)是用于icf内爆后期冲击波速度测量的一种重要诊断仪器,2d-visar可以捕获单张或多张二维图像成为研究的重点。压缩超快成像(compressedultrafastphotography,cup)是一种单次曝光、接收式以及时间分辨率和成像帧数分别达到百飞秒和数百帧量级的超快成像技术。两者结合让2d-visar得到了进一步研究,同时cup-visar的提出也为icf的研究进一步提供了思路。cup超高的时间和空间分辨率,主要依赖于两点:条纹相机和压缩感知(compressedsensing,cs)。条纹相机只能记录一维空间成像,当条纹相机的狭缝完全打开时,记录的图像会产生混叠,利用cs技术能还原混叠图像。针对cs的研究主要涉及三个方面的内容:信号的稀疏变换、观测矩阵的构造及其优化、信号重构的设计。计划通过相关研究工作优化上述cs涉及的主要内容,同时兼顾帧间数据的结构相关性和稀疏性,提升冲击波二维速度场诊断系统压缩采样数据重构性能,为icf压缩内爆不均匀问题的研究提供更为丰富的物理诊断信息。

3、目前传统的cup-visar诊断系统压缩数据重构主要基于冲击波速度场条纹分布特性,通过稀疏表示和随机掩码进行采样,使用各类重构算法实现。cup-visar诊断系统中利用cs技术还原被条纹相机记录的混叠图像,在cs技术的应用中,利用观测矩阵对信号进行压缩观测,观测矩阵的性能对观测数据中能够包含原始信号关键信息的多少有着直接影响,进而影响到信号的重构精度。目前冲击波速度诊断系统的掩码主要存在以下问题:

4、(1)随机性掩码自身性质存在缺点。目前,在观测矩阵构造方面,使用较为普遍的是随机观测矩阵,其中包括:高斯(gaussian)随机矩阵、部分傅里叶(partial fourier)矩阵、部分哈达玛(partial hadamard)矩阵等。但是随机观测矩阵由于自身性质的原因存在一些缺点:①构造高质量的随机观测矩阵并非易事。例如,部分傅里叶矩阵或部分哈达玛矩阵的构造相对复杂且耗时较长,因此在实际应用中需要考虑效率和可行性。相对于真正的随机数,算法通常通过伪随机数来实现随机数的生成,这种方法通常是通过确定性计算得出的序列,并且相对于真正的随机数要容易实现和运行。②随机选择掩码使得无法直接控制哪些像素应该保留或丢弃,可能会引入信息丢失,由于对像素进行随机选择,并将其余部分覆盖或丢弃,图像中的一些信息可能会永久丢失,这导致图像的重建质量较低,可能丧失细节和特征。同时意味着在重建图像时,无法精确地恢复原始内容,可能需要进一步的处理或恢复算法来提高结果的质量。③对于高度复杂或过于细节的图像,遮挡或丢弃掩码以外的像素可能导致图像中产生块状伪影、失真或质量下降的现象。原始图像的清晰度和连续性可能会受到不可逆的影响,会在一定程度上影响信号的重构精度。

5、(2)采样损失帧间信息限制重构质量。使用传统cup-visar系统压缩诊断重构算法时,需将三维数据采集成二维数据。采样过程是f帧(m-f+1)×n的编码矩阵与每帧冲击波干涉条纹原始图像进行哈达玛相乘,根据cup-visar系统条纹相机全开口采样特性,所获得的测量矩阵按照从上到下错位排列,依次叠加得到大小为m×n的cup系统的采样数据。这样获得的采样数据可能会损失帧间数据的结构相关性和稀疏性,造成信息的丢失并且可能丧失细节和特征。因此需要对cup-visar系统的三维线性观测矩阵算子的整体进行学习,通过深度学习其整体综合特征进一步产生掩码,避免因采样导致的重构质量较低的问题。

6、(3)块效应导致重建伪影限制重构精度。当使用一些较为传统的算法进行重建时,例如采用全变分正则化算法恢复cup-visar系统的三维诊断数据时,由于线性观测矩阵算子展开的对角矩阵包含大量零元素,零元素不包含有效信息而且扩大了矩阵运算量,对重构运算硬件条件,包括内存和cpu的要求较高,重构时间一般较长,对于40帧以上诊断数据重建,必须采用分块的方式进行稀疏表示,分块过程会引入块边界处的伪影效应,这些伪影效应可能会在重建图像时产生可见的块状伪影;较小的块需要更多的计算量,尤其是对于大尺寸的图像;选择合适的块大小较难,不同的块大小可能会对重建结果产生不同的影响,太小的块可能会丢失一些全局信息,而太大的块可能无法准确捕捉细节;分块处理可能需要额外的内存来存储每个块及其相关信息。上述这些分块导致的问题,会明显降低重构质量。因此需要对cup-visar系统的三维线性观测矩阵算子的整体进行学习,避免因分块产生问题,提升重构质量。


技术实现思路

1、有鉴于此,本专利技术的目的在于提供基于深度学习的二维冲击波速度场超快诊断掩码优化方法,解决现有技术中存在的技术问题。

2、为达到上述目的,本专利技术提供如下技术方案:

3、基于深度学习的二维冲击波速度场超快诊断掩码优化方法,该方法包括以下步骤:

4、s1:将速度场条纹数据集图像输入训练模型中,所述训练模型加载速度场条纹数据集图像并进行编码,通过编码器获取特征图并对所述特征图进行展平操作得到特征图的二维张量,对所述二维张量的宽度和高度进行平均池化,得到特征图每一行/列的特征表示,通过线性层将每一行/列的特征表示映射为潜在变量的均值和对数方差,将获得的行特征与列特征进行特征融合;

5、s2:通过所述s1得到的均值和对数方差重参数化潜在变量z;

6、s3:将所述s2中重参数化的潜在变量z变形为适合解码器的张量形状传入解码器进行解码;

7、s4:解码后,通过提取特征图、对数方差和均值的行分布规律生成一个维度为64×64的基础掩码,对所述基础掩码进行扩展升维,设置行列编码孔径大小均为7,即行列扩展系数均为7,将基础掩码中每个元素在行/列方向上重复行列扩展系数次,得到一个更大、更密集的输出矩阵,循环遍历帧数,输出矩阵逐帧沿列方向向下移动一个单位,得到多帧图像组成的三维矩阵,即为适用于重建的三维掩码,将所述适用于重建的三维掩码输入重建算法进行图像数据重建,并将图像数据重建结果保存;

8、s5:采用自定义损失函数,计算重建图像的差异损失,将计算出的损失累加到总损失中,执行反向传播和优化,更新模型权重,使总损失逐渐减小;

9、s6:本文档来自技高网...

【技术保护点】

1.基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:该方法包括以下步骤:

2.根据权利要求1所述的基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:所述S2中,通过所述S1得到均值和对数方差重参数化潜在变量z,具体为:

3.根据权利要求2所述的基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:所述S3中,解码器进行解码,具体为:解码器通过逐步反卷积将潜在变量z解码为原始图像相同尺寸的特征图,并使用双线性差值方式将特征图的大小调整为原始图像的尺寸。

4.根据权利要求3所述的基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:所述S5中,自定义损失函数包括:二进制交叉熵损失、KL散度损失、L1正则项损失以及重建图像差异损失;

【技术特征摘要】

1.基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:该方法包括以下步骤:

2.根据权利要求1所述的基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于:所述s2中,通过所述s1得到均值和对数方差重参数化潜在变量z,具体为:

3.根据权利要求2所述的基于深度学习的二维冲击波速度场超快诊断掩码优化方法,其特征在于...

【专利技术属性】
技术研发人员:黎淼王晨燕王玺张玲强郝百顺张红升王峰理玉龙关赞洋
申请(专利权)人:重庆邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1