一种基于FC-VoVNet和WGAN的B超图像去噪方法技术

技术编号:34201872 阅读:24 留言:0更新日期:2022-07-20 10:52
本发明专利技术提供一种基于FC

A B-ultrasound image denoising method based on FC vovnet and wgan

【技术实现步骤摘要】
一种基于FC

VoVNet和WGAN的B超图像去噪方法


[0001]本专利技术涉及医学图像处理领域,通过搭建全卷积神经网络模型,简单高效地实现B超图像去躁,尤其涉及一种基于FC

VoVNet和WGAN的B超图像去噪方法。

技术介绍

[0002]超声(Ultrasound,US)、机断层扫描成像(Computer Tomography,CT)核磁共振成像(Magnetic Resonance Imaging,MRI)等医学图像在临床诊断和治疗中得到了非常成功的应用。
[0003]然而,由于超声成像设备的局限性以及受到的各种外界因素的限制,使得B超医学图像容易被干扰,出现含有斑点噪声等问题。虽然有经验的医师凭借专业知识可以辨别图像中的病灶,但是斑点噪声的存在影响了医师对病灶严重程度等细节信息的判断。
[0004]对B超医学图像去噪,增加视觉效果,既能辅助医生对病人进行精确诊断和治疗,又能满足人们希望更加直观形象了解病情严重程度的迫切需求,为医患沟通搭建桥梁,减轻病人焦虑。加强B超图像去噪的研究与应用,对促进我国的医学发展水平提高人民生活质量都有重要的意义。目前,深度学习的快速发展为传统图像复原算法注入了新鲜血液。
[0005]在图像去噪这一图像复原的子领域,通过采用深度学习中的生成对抗网络技术,对原有图像去躁算法进行相应的改进,以达到去躁后的清晰图像视觉效果上更为清晰,在颜色和细节方面恢复效果更佳的目的。因此,使用深度学习方法在提高B超图像质量具有重要意义和实际应用价值。

技术实现思路

[0006]本专利技术借鉴生成对抗网络在低级视觉任务中的成功应用,提出了一种基于WGAN的B超图像去躁算法,其主要步骤如下:
[0007](1)建立基于WGAN的图像去躁模型,设计生成网络和判别网络;
[0008](2)构建模型训练所需的数据集,联合训练生成和判别网络,优化权重参数;
[0009](3)在测试集上,验证本章模型,测试模型泛化性能。
[0010]本专利技术的有益效果:
[0011](1)通过简化图像复原模型,采用残差学习思想将退化图像中噪声部分的特征剔除得到清晰图像的特征,从而避免复杂模型难以构造网络模型的问题。(2)通过构建嵌入多尺度池化模块的FC

VoVNet进行特征提取,该模型能够在网络规模较小的情况下,充分提取和融合图像上下文特征;(3)复合内容损失函数兼顾生成图像内容和结构上的信息,并使用WGAN对生成结果细致优化,生成清晰逼真的无噪声图像。
附图说明
[0012]图1为本专利技术的生成网络结构图;
[0013]图2为本专利技术的InceptionV1模型结构示意图;
[0014]图3为本专利技术的VoVBlock结构图;
[0015]图4为本专利技术的判别网络结构图;
[0016]图5为本专利技术的去噪效果示意图;
具体实施方式
[0017]下面结合附图和实施例进一步对本专利技术加以说明。
[0018]1.建立基于WGAN的图像去躁模型,分别设计生成网络和判别网络;
[0019]1)生成网络
[0020]随着生成式模型的发展,图像复原领域涌现出大量比较突出的算法。在图像去噪领域,利用深度残差网络思想将原始图像中高斯噪声的特征剔除,得到清晰图像的特征,并实现端到端的去噪。与之相似,本专利技术利用深度残差学习思想,得到无躁图片的特征,实现端到端的去躁。本文生成网络主要由多尺度特征提取,噪声特征学习以及清晰图像重建三部分模型组成。其网络结构图如图1所示。
[0021](1)多尺度特征提取:多尺度特征提取网络可以保留原始图片更多细节信息,提高网络在不同尺度下的鲁棒性,有利于图像去躁。首先对有躁图片进行卷积操作得到初始特征图。然后,直接使用InceptionV1
‑‑
18对原始特征图进行多尺度特征提取。最后,将各尺度特征图叠加,作为初始多尺度特征。其具体网络结构如图2所示。同时为控制模型规模、简化模型,这里每种尺度通道数置为16。
[0022](2)特征学习:使用残差网络进行特征学习与融合,效果虽然不错,但特征图利用率低,模型规模较大的问题依然存在。相比较于以FC

DenseNet结构为主体的网络模型进行特征提取,虽然取得了不错的效果。但中间层过于密集连接容易造成特征冗余,大大提高了算法的时间和空间复杂度。VoVNet通过取消中间层密集连接,仅在输出层将之前所有层级联,有效解决DenseNet资源利用率不高的问题。
[0023]受此启发,本专利技术提出了一种以FC

VoVNet为主体的特征提取网络。FC

VoVNet采用解码

编码式的网络结构。其编码部分(Encoder)由5组VoVLayer构成,每个VoVLayer包含一组池化模块(Transition Down,TD)和相应特征编码部分VoVBlock;在解码部分(Decoder),使用5组VoVLayer特征解码,每个VoVLayer包含均一组上采样模块(Transition Up,TU)及VoVBlock模块。在编码与解码之间,使用一组VoVBlock作为过渡层,融合特征。
[0024]采用的VoVBlock结构,如图3所示。一个VoVBlock包含4层layer层,每个layer层包含批标准化(BN)层,修正线性单元(ReLU)层,卷积(Conv)层,通道数为16;一个TD块包含了BN层、ReLU层、Conv层,通道数为64以及最大池化层;一个TU块包含上采样层操作。
[0025]在编码与解码过程中,上下采样操作容易造成特征信息缺失和额外噪声的产生。为综合考量全局上下文信息,避免特征信息丢失。在主体网络基础上,嵌入多尺度池化模块(Multi

pooling,MP)。具体的说,依照编码部分每一层VoVLayer所得特征图的大小,采用相应的池化参数对初始特征图进行池化,以此作为该尺度下的初始全局特征。在编码阶段,将该特征与VoVLayer所得特征图级联作为下一层VoVBlock的输入。而在解码阶段,以级联的方式将上采样之后的特征图与下采样之前的同种尺度特征图连接,并作为下层VoVBlock的输入。多尺度池化具体参数如下表1所示。
[0026]表1多尺度池化具体参数
[0027][0028](3)清晰图像重建:上述两部分分别求得原始图像特征和噪声的相关特征。借助残差学习的思想,将原始图像特征与噪声特征相减,得到清晰图像的特征,并通过两层卷积完成清晰图像的重建。其具体操作如图1所示。整体模型参数如表2所示:
[0029]表2生成网络详细参数
[0030][0031]2)判别网络
[0032]为生成更加逼真的清晰B超图像,采用WGAN对生成结果细致优化。与原始GAN网络结构一样,判别网络以区分生成样本是否真实为目的,本质上属于图本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于FC

VoVNet和WGAN的B超图像去噪方法,其特征在于,包括以下步骤:步骤S1:建立基于WGAN的图像去噪模型,设计生成网络和判别网络;步骤S1.1:生成网络:包括多尺度特征提取,噪声特征学习以及清晰图像重建三部分模型;步骤S1.2:判别网络:采用WGAN模型对生成结果细致优化;步骤S1.3:损失函数:包括对抗损失和去躁网络的内容损失;步骤S2:构建模型训练所需的数据集;联合训练生成和判别网络,优化权重参数;步骤S3:在测试集上,验证本模型,测试模型泛化性能。2.根据权利要求1所述的基于FC

VoVNet和WGAN的B超图像去噪方法,其特征在于:在所述步骤S1.1中,多尺度特征提取模型包括以下步骤:首先对有躁图片进行卷积操作得到初始特征图;然后直接使用InceptionV1

18对原始特征图进行多尺度特征提取;最后将各尺度特征图叠加,作为初始多尺度特征。3.根据权利要求1所述的基于FC

VoVNet和WGAN的B超图像去噪方法,其特征在于:在所述步骤S1.1中,噪声特征学习模型基于FC

VoVNet采用解码

编码式的网络结构:编码部分Encoder由5组VoVLayer构成,每个VoVLayer包含一组池化模块和相应特征编码部分;解码部分,使用5组VoVLayer特征解码,每个VoVLayer包含均一组上采样模块及VoVBlock模块;在编码与解码之间,使用一组VoVBlock作为过渡层,融合特征。4.根据权利...

【专利技术属性】
技术研发人员:陈德海危建华
申请(专利权)人:无锡科美达医疗科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1