当前位置: 首页 > 专利查询>中北大学专利>正文

基于残差自注意力图像增强的高倍速采MRI重建方法技术

技术编号:25711229 阅读:39 留言:0更新日期:2020-09-23 02:57
本发明专利技术涉及MRI加速采集方法,具体为基于残差自注意力图像增强的高倍速采MRI重建方法。本方法采用生成对抗网络构建本发明专利技术的网络结构,将基于残差自注意力的特征增强模块内嵌至U‑NET收缩路径底部;将高倍欠采样图像输入生成器,经U‑NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U‑NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像。本方法可以捕获图像更抽象、更丰富的纹理细节特征,融合局部信息和非局部信息以增强全局信息量,整个过程由网络自动选择有效特征,能实现关键区域纹理细节的自适应提取与重构,可以很好地重建高倍速采MR图像。

【技术实现步骤摘要】
基于残差自注意力图像增强的高倍速采MRI重建方法
本专利技术涉及MRI加速采集方法,尤其涉及高倍速采MRI重建方法,具体为基于残差自注意力图像增强的高倍速采MRI重建方法。
技术介绍
作为一种可重复、非侵入和定量的组织测量方式,磁共振成像(MagneticResonanceImaging,MRI)因其良好的软组织分辨力已经成为重大疾病诊疗的重要手段。不过,其固有的信号采集时间过长问题,也给应用造成了一些困难。一方面,数据采集时间过长不仅会给患者带来不适,而且不可避免的患者身体移动也增加了图像中存在较重伪影的可能性——当患者运动(例如心脏搏动和肠胃蠕动等)时,图像中常有的伪影往往会造成误诊或漏诊;另一方面,低的检查效率又会带来昂贵的检查费用,从而限制了其进一步推广和使用。近二十年来,探索MRI加速采集和提高图像保真度一直是这一领域的研究重点。现有的加速方法主要有两大类:(1)并行成像,该类方法利用多个独立接收器通道且每个独立通道对离该线圈最近的组织最敏感的特性,获取原始数据之后使用灵敏度编码(SENSE)技术或泛化自校正部分并行获取(GRAPPA)技术进行重建。然而,并行成像的加速因子受到接收器线圈数量和位置的限制,会引入成像假象并增加MRI扫描仪的制造成本已逐渐趋冷。(2)另一类是在K空间对信号欠采样,该方法经济实惠但需要进行图像重建。其中,压缩感知(CompressedSensing,CS)理论能突破Nyquist-Shannon采样标准快速采集。传统的CS方法利用变换域中MR图像的稀疏性,基于小波变换、离散余弦变换或有限差分(TotalVariation,TV)模型来重建图像,虽取得一定的效果,但受低水平稀疏性制约,不能有效去除伪影并恢复图像细节。新近,深度学习在计算机视觉方面取得了一系列突破,使用深度神经网络(ConvolutionalNeuralNetworks,CNN)和生成对抗网络(GenerativeAdversarialNetwork,GAN)已成功解决图像分类和超分辨率等视觉问题。已有文献“DAGAN:deepde-aliasinggenerativeadversarialnetworksforfastcompressedsensingMRIreconstruction”利用生成对抗网络和U-NET成功重建MR图像,证明该方法能有效去除因加速采集导致频谱混叠造成的图像伪影,但随着数据采集倍数(加速因子达5倍以上)的增加,大量高频信息丢失,伪影严重。该方法不能较好恢复图像的纹理细节信息,而纹理细节对于疾病诊断的重要性不言而喻。因此,非常有必要探索高倍(加速因子达5倍以上)速采下MR图像的重建方法,以促进下一代MRI机研发。为此,需要有一种方法来专门解决高倍速采MR图像重建时纹理细节缺失严重的问题。
技术实现思路
本专利技术为了解决高倍速采MR图像重建时纹理细节缺失严重的问题,提供了一种基于残差自注意力图像增强的高倍速采MRI重建方法。本专利技术是采用如下的技术方案实现的:基于残差自注意力图像增强的高倍速采MRI重建方法,包括以下步骤:(1)采用笛卡尔随机高倍欠采样策略对全采样图像Yμ进行欠采样,零填充后得到高倍欠采样图像Xμ;(2)采用生成对抗网络构建本专利技术的网络结构,生成对抗网络包括生成器和鉴别器,其中生成器由U-NET实现,鉴别器由卷积层实现;(3)将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部,捕获跨图像区域的长距离依赖关系,提取和增强图像的关键特征即图像的纹理细节信息;(4)将高倍欠采样图像Xμ输入生成器,经U-NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像(5)采用端到端的方式训练生成对抗网络。本专利技术用到的基本方法是U-NET和残差自注意力机制,其中,U-NET是一种深度卷积神经网络,其架构包含一个用于捕捉语义的收缩路径和一个用于精准定位的对称扩展路径,二者相互联系,U-NET具有局部感知能力,训练时间相对较短、结构简单、参数较少、对训练数据的要求较低等优点,在本专利技术中用于从零填充的高倍欠采样图像中提取图像结构特征和纹理细节信息,并去除混叠伪影;而注意力机制是通过快速扫描整幅图像,获得需要重点关注的特定区域,即注意力焦点,而抑制其他无用信息,同时对这一区域投入更多注意力资源,以获取更多有关目标的细节信息,然后逐渐调整焦点,进而推断整幅图像的信息,在本专利技术中用于捕获跨图像区域的长期依赖关系,即一个位置的特征是同一图像所有位置特征的加权和,而不仅仅是该位置的邻域。使用端对端方式训练提高网络的精度、稳定性和收敛性。本专利技术的整个过程由网络自动选择有效特征,实现了关键区域纹理细节的自适应提取与重构,相比于其他方法算法简单,重建结果的质量好,运行速度快。上述的基于残差自注意力图像增强的高倍速采MRI重建方法,步骤(4)中获得特征增强图的过程如下:(1)将高倍欠采样图像Xμ输入生成器,经收缩路径提取特征后得到高级特征图高级特征图作为残差自注意力图像增强模块的输入,进入全局平均池化层,获得图像高级特征的平均信息量,并将其重置为1×1×C的张量,得到平均特征值Qμ:其中C表示高级特征图的数量,H、W表示图像的高和宽,fen表示收缩路径的卷积操作,i、j表示像素索引;(2)将高级特征图与其对应的平均特征值Qμ相减,得到注意力权重图Iμ:表示图像的关键特征即边缘纹理细节;(3)将注意力权重图Iμ经sigmod归一化后与高级特征图相乘计算相似性权重Kμ:再与卷积后的高级特征图相乘,得到纹理细节的注意力图Vμ:其中σ表示sigmod激活函数,f1×1表示1×1的卷积操作;(4)将注意力图Vμ与高级特征图相加,融合局部信息和非局部信息,增强了全局信息量,获得特征增强图整个过程由网络自动选择有效特征,实现了关键区域的自适应。上述的基于残差自注意力图像增强的高倍速采MRI重建方法,步骤(5)采用端到端的方式训练生成对抗网络的具体过程为:鉴别器损失函数为生成器损失函数LG=εLadv+βLimg+δLfreq,其中为对抗损失,由重建图像和完全采样图像在空域和频域的像素级均方误差和联合实现数据一致性损失,其中,ε、β、δ、γ分别是超参数,ffft表示傅里叶变换,最大化鉴别器损失,使其最大程度的识别重建图像和全采样图像;同时,最小化生成器损失,使其尽量生成更加逼真的重建图像,从而愚弄鉴别器,最终的训练目标是让鉴别器无法区分重建图像和完全采样图像。上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成器里U-NET网络收缩路径的第一层卷积核用ω~G[0,0.02]初始化。上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成器里U-NET网络收缩路径和扩展路径卷积核个数越多,习得的特征越多,但占用内存越大,因此U-NET压缩路径的卷积本文档来自技高网
...

【技术保护点】
1.基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:包括以下步骤:/n(1)采用笛卡尔随机高倍欠采样策略对全采样图像Y

【技术特征摘要】
1.基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:包括以下步骤:
(1)采用笛卡尔随机高倍欠采样策略对全采样图像Yμ进行欠采样,零填充后得到高倍欠采样图像Xμ;
(2)采用生成对抗网络构建本发明的网络结构,生成对抗网络包括生成器和鉴别器,其中生成器由U-NET实现,鉴别器由卷积层实现;
(3)将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部,捕获跨图像区域的长距离依赖关系,提取和增强图像的关键特征即图像的纹理细节信息;
(4)将高倍欠采样图像Xμ输入生成器,经U-NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像
(5)采用端到端的方式训练生成对抗网络。


2.根据权利要求1所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:步骤(4)中获得特征增强图的过程如下:
(1)将高倍欠采样图像Xμ输入生成器,经压缩路径提取特征后得到高级特征图高级特征图作为残差自注意力图像增强模块的输入,进入全局平均池化层,获得图像高级特征的平均信息量,并将其重置为1×1×C的张量,得到平均特征值Qμ:其中C表示高级特征图的数量,H、W表示图像的高和宽,fen表示收缩路径的卷积操作,i、j表示像素索引;
(2)将高级特征图与其对应的平均特征值Qμ相减,得到注意力权重图Iμ:表示图像的关键特征即边缘纹理细节;
(3)将注意力权重图Iμ经sigmod归一化后与高级特征图相乘计算相似性权重Kμ:再与卷积后的高级特征图相乘,得到纹理细节的注意力图Vμ:其中σ表示sigmod激活函数,f1×1表示1×1的卷积操作;
(4)将注意力图Vμ与高级特征图相加,融合局部信息和非局部信息,增强了全局信息量,获得特...

【专利技术属性】
技术研发人员:蔺素珍马凤飞王丽芳李大威
申请(专利权)人:中北大学
类型:发明
国别省市:山西;14

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1