部分监督的腹部CT序列图像多器官自动分割方法及装置制造方法及图纸

技术编号:38157330 阅读:8 留言:0更新日期:2023-07-13 09:26
部分监督的腹部CT序列图像多器官自动分割方法及装置,方法包括:(1)获取待分割腹部多器官CT序列图像数据集;(2)预处理获取的腹部多器官CT序列图像数据集;(3)划分预处理后的腹部多器官CT序列图像数据集,该数据集包括训练集、验证集和测试集;(4)构建用于腹部多器官CT序列图像分割的深度学习模型,该深度学习模型为基于Swin Transformer技术的U型网络;(5)利用上述训练集和部分监督损失对上述深度学习模型进行训练,并根据上述验证集保存最佳模型,所述部分监督损失为边际损失和排他损失的线性组合;(6)利用上述保存的最佳模型对上述测试集进行预测,获得腹部CT序列图像中多个器官的分割结果。官的分割结果。官的分割结果。

【技术实现步骤摘要】
部分监督的腹部CT序列图像多器官自动分割方法及装置


[0001]本专利技术涉及医学图像处理的
,尤其涉及一种部分监督的腹部CT序列图像多器官自动分割方法,以及部分监督的腹部CT序列图像多器官自动分割装置。

技术介绍

[0002]多器官分割已广泛应用于临床实践,包括诊断干预、治疗计划和治疗实施。在放射治疗计划中,这是一项耗时的任务,经常使用手动或半自动工具来圈定处于危险中的器官。因此,为了提高器官分割的效率,已经开发了诸如统计模型、多图谱标签融合和免配准方法等自动分割方法。不幸的是,这些方法可能会受到图像变形和主体间差异性的影响,并且它们在临床应用上的成功是有限的。
[0003]基于深度学习的医学图像分割方法已在文献中广泛用于对给定的2D/3D医学图像的每个像素/体素进行分类,并显著提高了多器官自动分割的性能。一个突出的卷积神经网络(CNN)模型是U

Net,以及它的最新变体nnUNet,它通过跳跃连接学习多尺度特征。多器官分割的其他框架包括DenseVNet、OBELISK

Net和器官注意力网络。大量后续工作的重点是通过发现和表示基于典型相关分析的相互关系来改进现有框架,特别是通过构建和利用统计图谱。
[0004]然而,几乎所有当前的分割模型都依赖于具有强大监督的完全标注数据。管理一个大规模的完全标注数据集是一项具有挑战性的任务,既昂贵又耗时。当前标记数据集的样本量通常较低且大多是部分标记的,这也是多器官分割研究领域的一个瓶颈。也就是说,一个数据集标记了一些器官,但不是所有器官。这种部分标注的数据集避免了使用需要完全监督的分割方法。
[0005]如何充分利用这些部分标注的数据来提高分割的准确性和鲁棒性成为一个需要解决的现实问题。在网络模型能力足够的情况下,大量的数据通常意味着它更有可能代表现实中数据的实际分布,从而带来更好的整体性能。受此启发,本专利技术联合这些部分标记的数据集学习单个腹部CT序列图像多器官分割网络,这种学习不会引入任何额外的计算开销。

技术实现思路

[0006]为克服现有技术的缺陷,本专利技术提供了一种部分监督的腹部CT序列图像多器官自动分割方法,其能够解决现有技术在进行腹部多器官分割时需要大量完全标注数据集的瓶颈问题,在不引入任何额外计算开销的情况下,提高了腹部多器官CT序列图像分割的准确性和鲁棒性。
[0007]本专利技术的技术方案是:这种部分监督的腹部CT序列图像多器官自动分割方法,其包括以下步骤:
[0008](1)获取待分割腹部多器官CT序列图像数据集;
[0009](2)预处理获取的腹部多器官CT序列图像数据集;
[0010](3)划分预处理后的腹部多器官CT序列图像数据集,该数据集包括训练集、验证集和测试集;
[0011](4)构建用于腹部多器官CT序列图像分割的深度学习模型,该深度学习模型为基于Swin Transformer技术的U型网络;
[0012](5)利用上述训练集和部分监督损失对上述深度学习模型进行训练,并根据上述验证集保存最佳模型,所述部分监督损失为边际损失和排他损失的线性组合;
[0013](6)利用上述保存的最佳模型对上述测试集进行预测,获得腹部CT序列图像中多个器官的分割结果。
[0014]本专利技术通过联合使用部分标注数据集,使用包含肝脏、左肾、右肾、脾脏和胰腺的六个基准数据集和部分监督损失训练基于Swin TransFormer技术的U型网络,克服了分割腹部多器官CT序列图像需要完全标注的瓶颈,在不引入任何额外计算开销的情况下,提高了腹部多器官CT序列图像分割的准确性和鲁棒性。
[0015]本专利技术还提供了一种部分监督的腹部CT序列图像多器官自动分割装置,其包括:
[0016]获取模块,其配置来获取待分割腹部多器官CT序列图像数据集;
[0017]预处理模块,其配置来预处理获取的腹部多器官CT序列图像数据集;
[0018]划分模块,其配置来划分预处理后的腹部多器官CT序列图像数据集,该数据集包括训练集、验证集和测试集;
[0019]构建模块,其配置来构建用于腹部多器官CT序列图像分割的深度学习模型,该深度学习模型为基于Swin Transformer技术的U型网络;
[0020]训练模块,其配置来利用上述训练集和部分监督损失对上述深度学习模型进行训练,并根据上述验证集保存最佳模型,所述部分监督损失为边际损失和排他损失的线性组合;
[0021]预测模块,其配置来利用上述保存的最佳模型对上述测试集进行预测,获得腹部CT序列图像中多个器官的分割结果。
附图说明
[0022]图1是根据本专利技术的部分监督的腹部CT序列图像多器官自动分割方法的流程图。
[0023]图2是根据本专利技术的深度学习模型架构图。
[0024]图3是根据本专利技术的Swin Transformer块结构图。
[0025]图4是根据本专利技术的残差块结构图。
具体实施方式
[0026]如图1所示,这种部分监督的腹部CT序列图像多器官自动分割方法包括以下步骤:
[0027](1)获取待分割腹部多器官CT序列图像数据集;
[0028](2)预处理获取的腹部多器官CT序列图像数据集;
[0029](3)划分预处理后的腹部多器官CT序列图像数据集,该数据集包括训练集、验证集和测试集;
[0030](4)构建用于腹部多器官CT序列图像分割的深度学习模型,该深度学习模型为基于Swin Transformer技术的U型网络;
[0031](5)利用上述训练集和部分监督损失对上述深度学习模型进行训练,并根据上述验证集保存最佳模型,所述部分监督损失为边际损失和排他损失的线性组合;
[0032](6)利用上述保存的最佳模型对上述测试集进行预测,获得腹部CT序列图像中多个器官的分割结果。
[0033]本专利技术通过联合使用部分标注数据集,使用包含肝脏、左肾、右肾、脾脏和胰腺的六个基准数据集和部分监督损失训练基于Swin TransFormer技术的U型网络,克服了分割腹部多器官CT序列图像需要完全标注的瓶颈,在不引入任何额外计算开销的情况下,提高了腹部多器官CT序列图像分割的准确性和鲁棒性。
[0034]优选地,所述步骤(1)中,完全标注数据集D:每例腹部CT图像标注肝脏、左肾、右肾、脾脏和胰腺;肝脏数据集D
Liver
:每例腹部CT图像标注肝脏;左肾数据集DLKidney:每例腹部CT图像标注左肾;右肾数据集D
RKidney
:每例腹部CT图像标注右肾;脾脏数据集D
Spleen
:每例腹部CT图像标注脾脏;胰腺数据集D
Pancreas
:每例腹部CT图像标注胰腺。
[0035]优选地,所述步骤(2)中,对于D,将所有CT图像插值到1.5
×
1.5
×
2本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.部分监督的腹部CT序列图像多器官自动分割方法,其特征在于:其包括以下步骤:(1)获取待分割腹部多器官CT序列图像数据集;(2)预处理获取的腹部多器官CT序列图像数据集;(3)划分预处理后的腹部多器官CT序列图像数据集,该数据集包括训练集、验证集和测试集;(4)构建用于腹部多器官CT序列图像分割的深度学习模型,该深度学习模型为基于Swin Transformer技术的U型网络;(5)利用上述训练集和部分监督损失对上述深度学习模型进行训练,并根据上述验证集保存最佳模型,所述部分监督损失为边际损失和排他损失的线性组合;(6)利用上述保存的最佳模型对上述测试集进行预测,获得腹部CT序列图像中多个器官的分割结果。2.根据权利要求1所述的部分监督的腹部CT序列图像多器官自动分割方法,其特征在于:所述步骤(1)中,完全标注数据集D:每例腹部CT图像标注肝脏、左肾、右肾、脾脏和胰腺;肝脏数据集D
Liver
:每例腹部CT图像标注肝脏;左肾数据集D
LKidney
:每例腹部CT图像标注左肾;右肾数据集D
RKidney
:每例腹部CT图像标注右肾;脾脏数据集D
Spleen
:每例腹部CT图像标注脾脏;胰腺数据集D
Pancreas
:每例腹部CT图像标注胰腺。3.根据权利要求2所述的部分监督的腹部CT序列图像多器官自动分割方法,其特征在于:所述步骤(2)中,对于D,将所有CT图像插值到1.5
×
1.5
×
2.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

125,275]HU的范围内;对于D
Liver
,将所有CT图像插值到1.0
×
1.0
×
1.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

21,189]HU的范围内;对于D
LKidney
,将所有CT图像插值到1.5
×
1.5
×
3.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

200,200]HU的范围内;对于D
RKidney
,将所有CT图像插值到1.5
×
1.5
×
3.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

200,200]HU的范围内;对于D
Spleen
,将所有CT图像插值到1.0
×
1.0
×
1.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

125,275]HU的范围内;对于D
Pancreas
,将所有CT图像插值到1.0
×
1.0
×
1.0mm3的各向同性体素间距内,使用软组织加窗将CT值限制在[

87,199]HU的范围内。4.根据权利要求3所述的部分监督的腹部CT序列图像多器官自动分割方法,其特征在于:所述步骤(3)中,将数据集D、D
Liver
、D
LKidney
、D
RKidney
、D
Spleen
和D
Pancreas
按4∶1随机划分为两部分,第一部分采用五折交叉法再划分为训练集和验证集,第二部分直接用作测试集。5.根据权利要求1所述的部分监督的腹部CT序列图像多器官自动分割方法,其特征在于:所述步骤(4)中,深度学习模型由一个基于Swin Transformer的编码器和一个基于CNN的解码器组成,编码器使用的补丁大小为2
×2×
2,特征维度为2
×2×2×
1=8和嵌入空间P=48维;编码器的整体架构由四个阶段组成,每个阶段包括两个Swin Transformer块,在每一阶段之间,利用补丁合并层将分辨率降低两倍,阶段1包括一个线性嵌入层和令牌数量为的Swin Transformer块;补丁合并层对分辨率为2
×2×
2的补丁进行分组,并将它们拼接起来,形成一个4P维特征嵌入,然后使用线性嵌入层降低特征维度到2P,相同的过程继续在阶段2、阶段3和阶段4执行,它们的Swin Transformer块中的令牌数量分别为
和编码器在不同阶段的分层表示被用于腹部多器官CT序列图像分...

【专利技术属性】
技术研发人员:宋红李强杨健付天宇林毓聪范敬凡肖德强
申请(专利权)人:北京理工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1