一种基于生成式对抗U-Net网络的2.5D医学图像分割方法技术

技术编号:34396790 阅读:24 留言:0更新日期:2022-08-03 21:31
本发明专利技术涉及医学图像分割技术领域,具体涉及一种基于生成式对抗U

【技术实现步骤摘要】
一种基于生成式对抗U

Net网络的2.5D医学图像分割方法


[0001]本专利技术涉及医学图像分割
,具体涉及一种基于生成式对抗U

Net网络的2.5D医学图像分割方法。

技术介绍

[0002]医学图像是疾病诊断的重要依据,传统的医学图像分割通常由医学专家手动完成,耗时长,分割精确度要求高且受主观和环境等多种因素影响,非常依赖医生的经验。随着日益增加的阅片量,出现了结合深度学习方法的自动分割方法,来缓解医生的图像分割压力。
[0003]目前,主流的自动分割方法,基本上都只适用于2D医学图像。而3D医学图像的自动分割技术,虽然也有不少系统性的研究,但其分割效果远没有2D图像那么成熟,仍存在一些关键性的问题。如果使用2D模型进行3D医学图像的自动分割,由于2D模型忽略了z轴方向切片之间的上下文信息,会导致分割精度较低,且从2D切片中无法捕获3D图像中所包含的上下文关键信息。而如果使用3D模型进行3D医学图像的自动分割,3D模型的训练需要较为夸张的硬件配置和计算资源,计算成本又会过高,曾有业内人员尝试使用3D网络结构来分割3D医学图像,实验设备使用到高达24G的视频随机存取存储器(VRAM)来训练和测试他们的网络。并且,由于3D网络模型的大量参数和计算消耗限制了更深更复杂的网络结构的设计,其收敛效率还很低。
[0004]综上,无论是2D模型还是3D模型都不适用于3D医学图像的自动分割。为了解决这样的问题,出现了能够相对兼顾分割精度和计算成本的2.5D分割技术。2.5D分割技术的原理为,将3D医学图像进行多个轴向的连续切片后,用分割网络模型对各维度的图像进行分割预测,并输出预测结果图像,再对预测结果图像进行堆叠还原,最后将不同轴向的堆叠图像结果进行融合,得到3D分割结果。但是,目前的2.5D分割技术的实际分割效果仍不是特别理想。2.5D分割技术的关键,在于对不同维度信息进行处理的分割网络模型,目前的分割网络模型都是U

Net 网络模型。虽然研究人员基于 U

Net 提出了一系列的改进方法,例如将简单的卷积层换为深度残差网络或者空洞卷积、融合不同的损失函数等,虽然分割精度有了一定的提高,但仍不够特别理想。除此,现有分割网络模型在完成训练的过程中,需要较大的训练集,而为了保证训练的效果,训练集需要由相关的医学专家手动制作,因此,现有的2.5D分割技术,需要医学专家付出大量的时间和精力来制作训练集。

技术实现思路

[0005]针对上述现有技术的不足,本专利技术提供了一种基于生成式对抗U

Net网络的2.5D医学图像分割方法,能够有效的减少训练集的量,减少医学专家的工作负担;同时还可以提高训练完成后的分割精度,保证分割结果的准确性。
[0006]为了解决上述技术问题,本专利技术采用了如下的技术方案:一种基于生成式对抗U

Net网络的2.5D医学图像分割方法,包括以下步骤:
步骤1、获取待分割的3D医学图像;步骤2、分别沿多个轴向对3D医学图像进行连续切片,得到各轴向的2D切片图像组;步骤3、分别将各轴向的2D切片图像组中的图像,输入对应轴向的分割网络模型中,得到对应轴向的预测分割图像;其中,所述分割网络模型包括生成式对抗网络GAN和U

net模型,并且将U

Net模型作为生成式对抗网络GAN的生成器;步骤4、分别将各轴向的预测分割图像进行堆叠,得到对应轴向的3D预测图像;步骤5、按照预设的权重值,计算各轴向的3D预测图像中各对应体素点的像素预测值的投票值,若某体素点的像素预测值的投票值大于等于预设的目标值,则将该体素点判定为分割目标体素,否则将该体素点判定为背景体素,得到3D分割结果。
[0007]优选地,步骤2中,所述多个轴向包括矢状轴方向、冠状轴方向和垂直轴方向;所述各轴向的2D切片图像组包括冠状面、矢状面和横断面的2D切片图像组。
[0008]优选地,所述分割网络模型的训练过程包括:S1、获取3D医学图像数据后,将3D医学图像沿矢状轴方向、冠状轴方向或垂直轴方向进行连续切片,分别获取横截面、矢状面和冠状面的2D切片图像组,得到对应轴向的训练集和测试集;S2,为各轴向的2D切片图像设置真实标签,得到对应轴向的真实标签集;S3、将各训练集中的2D切片图像输入到对应的分割网络模型的U

Net模型中,将U

Net模型的生成结果与对应的真实标签一同输入到生成式对抗网络GAN的判别器,进行训练优化;S4,将测试集输入到对应的优化后的分割网络模型中,对分割网络模型的预测分割结果进行验证,若预测分割结果达到预设标准,则判定为分割网络模型优化完成,否则返回S3。
[0009]优选地,步骤2中,还对2D切片图像组中的图像进行预处理。
[0010]优选地,步骤2中,所述预处理包括去除噪声和窗口调整。
[0011]优选地,步骤2中,所述窗口调整包括窗位调整和窗宽调整。
[0012]优选地,步骤3中,得到各轴向的预测分割图像后,还通过形态学的方法去除预测分割图像的孤立区域。
[0013]优选地,步骤5中,各轴向3D预测图像中对应体素点的预测像素值的权重相等。
[0014]优选地,步骤5中,通过f(x)=(x1+x2+x3)/3计算各对应体素点的像素预测值的投票值;式中,x1、x2、x3分别表示横截面、矢状面和冠状面3D预测图像中对应体素点的预测像素值。
[0015]优选地,步骤5中,预设的目标值为0.5。
[0016]本专利技术与现有技术相比,具有如下有益效果:1. 由于2.5D分割技术中,分割网络模型都是使用U

Net 网络模型,本领域技术人员在进行改进时,都是对U

Net 网络模型进行改进,例如将简单的卷积层换为深度残差网络或者空洞卷积、融合不同的损失函数等等。这样的好处时,虽然现阶段的效果仍不够理想,但与使用别的网络模型相比,精度和/或效率的优势较为明显。因此,本领域技术人员进行分割网络模型的改进时,都默认为直接对U

Net 网络模型进行改进,但目前的改进效果
仍不够理想。
[0017]本专利技术人则跳出了本领域技术人员的思维惯性,不再拘泥于直接对U

Net 网络模型本身进行改进,而是换了一个思路,将U

Net 网络模型作为分割网络模型的一个部分,具体地,将U

Net模型作为生成式对抗网络GAN的生成器,利用生成式对抗网络GAN的特性进行分割网络模型的训练,直接将分割网络模型的训练过程进行了根本性的改变。这样带来的好处就是,可以有效减少训练集的量,从而减少医学专家的工作负担。除此,本申请中的分割网络模型完成训练后,在分割精度上也有了提升,能够满足3D分割的准确性要求。
[0018]综上,与现有的2.5D分割技术相比,本申请可以减本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于生成式对抗U

Net网络的2.5D医学图像分割方法,其特征在于,包括以下步骤:步骤1、获取待分割的3D医学图像;步骤2、分别沿多个轴向对3D医学图像进行连续切片,得到各轴向的2D切片图像组;步骤3、分别将各轴向的2D切片图像组中的图像,输入对应轴向的分割网络模型中,得到对应轴向的预测分割图像;其中,所述分割网络模型包括生成式对抗网络GAN和U

net模型,并且将U

Net模型作为生成式对抗网络GAN的生成器;步骤4、分别将各轴向的预测分割图像进行堆叠,得到对应轴向的3D预测图像;步骤5、按照预设的权重值,计算各轴向的3D预测图像中各对应体素点的像素预测值的投票值,若某体素点的像素预测值的投票值大于等于预设的目标值,则将该体素点判定为分割目标体素,否则将该体素点判定为背景体素,得到3D分割结果。2.如权利要求1所述的基于生成式对抗U

Net网络的2.5D医学图像分割方法,其特征在于:步骤2中,所述多个轴向包括矢状轴方向、冠状轴方向和垂直轴方向;所述各轴向的2D切片图像组包括冠状面、矢状面和横断面的2D切片图像组。3.如权利要求2所述的基于生成式对抗U

Net网络的2.5D医学图像分割方法,其特征在于:所述分割网络模型的训练过程包括:S1、获取3D医学图像数据后,将3D医学图像沿矢状轴方向、冠状轴方向或垂直轴方向进行连续切片,分别获取横截面、矢状面和冠状面的2D切片图像组,得到对应轴向的训练集和测试集;S2,为各轴向的2D切片图像设置真实标签,得到对应轴向的真实标签集;S3、将各训练集中的2D切片图像输入到对应的分割网络模型的U

Net模型中,将U

Net模型的...

【专利技术属性】
技术研发人员:蓝章礼黄林李芷汀
申请(专利权)人:重庆交通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1