当前位置: 首页 > 专利查询>南开大学专利>正文

一种融合残差神经网络与U-Net网络结构的全切片病理图像分割方法技术

技术编号:38907346 阅读:11 留言:0更新日期:2023-09-25 09:26
本发明专利技术属于全切片病理图像计算机辅助诊断领域。全切片病理图像的诊断在当代远程医疗体系中占据着非常重要的位置,图像中病理区域的识别结果决定着最终的医疗诊断方案水平。但现有的诊断方法仍存在着诊断时间消耗过长和诊断系统智能化程度低的缺陷,而且医生的人工分类会浪费大量的人力物力。为弥补现存不足,本发明专利技术公开了一种基于全卷积神经网络的全切片病理图像病灶分割诊断方法。本方法具有识别精确度高、时间成本低的特点,本方法可以代替或辅助传统人工病灶区域分割任务,根据神经网络的前期训练经验实现对病灶区域的精准识别和合理分割。基于上述优势,本发明专利技术可以广泛且准确的应用于日常医疗机构的病理图像计算机辅助诊断中。辅助诊断中。辅助诊断中。

【技术实现步骤摘要】
一种融合残差神经网络与U

Net网络结构的全切片病理图像分割方法


[0001]本专利技术属于全切片病理图像辅助诊断领域,具体为一种融合了残差神经网络与全卷积网络结构的全切片病理图像病灶分割方法。涉及图像处理、深度神经网络的搭建和训练、计算机辅助病理图像诊断。

技术介绍

[0002]癌症是威胁人类生命健康的最主要的杀手之一,并且癌症还有多种类型。能否对各种癌症类型中细胞病变区域的精准识别和定位决定着医生临床治疗的成败。在实际临床应用中,细胞病理学领域的医生通常通过在高功率显微镜下检查用苏木精和伊红染色的组织切片来识别癌变区域。如今全切片病理图像技术已得到了迅猛的发展,并且可以更直观的反映图像的细节信息。但由于细胞组织切片图像的高度精密性和复杂性以及数据的庞大性,医生们在做这项工作时会耗费大量的时间和精力,严重者还会患上颈椎病或视力退化。所以,全切片图像中癌变区域的自动检测和定位是病理图像处理领域的一个重点研究方向。
[0003]深度学习算法在病理图像分割领域的诸多方面都有着广泛的应用。深度学习算法克服了之前需要人工设计运算规则的缺陷,通过深度挖掘处理对象的数学特征,实现了端到端的“输入

输出”机制。当前基于卷积网络的深度学习算法已成为该领域的主流技术。近年来,学界针对基于卷积网络的深度学习算法在全切片病理图像分割领域的应用进行了深入的研究。
[0004]Ann Heng与其团队实现了卷积神经网络(CNN)对脊椎部位的CT图像进行自动定位与识别;Ann Heng等人接着在2017年使用卷积神经网络(CNN)和反卷积神经网络(RNN),建立了一种对超声图像的组织区域自动检测的框架。Yaniv Bar等人运用迁移学习技术,使用CNN算法,以非病理图像数据集作为训练样本,将训练的网络模型用于胸部的病理图像检测,Chang Shin等人进一步地将CNN算法与计算机辅助检测系统相结合,利用“Cifar

CNN”、“GoogleNet

CNN”网络的训练权重分割病理图像。但经过迁移学习所得到的卷积特性往往是在特定的场景下生成的,其存在着适用场景的局限性,在复杂场景下的表现差强人意。Bejnordi等人通过融合两个卷积神经网络(CNN)对乳腺癌全切片细胞的病理区域进行检测,这也是当前较主流的全切片细胞病理区域检测方法之一。CNN网络模型存在着过度依赖数据集的缺陷,当数据集的图片数量太少时,训练就无法得到最合适的参数,并且训练需要占用大量内存。另外,CNN网络实现的是“图像

概率”的输入输出机制,这种网络机制无法获取图像中任意一个像素点的预测概率。但医疗图像的诊断是细致的,医生需要根据病理图像中各个位置的病变情况给出准确的诊断方案。
[0005]Trevor Darrell对CNN网络的全连接层进行改造,使用卷积层代替全连接层,并使用跳转连接,在2017年创新性地提出了全卷积神经网络(FCN),这开启了深度神经网络可以实现“像素

像素”级别语义分割新纪元。Himanshu Verma在Trevor Darrell课题组的研究
基础上,将全卷积神经网络用于脑部肿瘤MRI(核磁共振)图像的检测;Shen进一步地提出了三维全卷积神经网络用于婴儿脑部肿瘤图像的检测;Sinan等人融合FCN算法和VGG算法,对脑部肿瘤的MRI图像进行判别。Zhang等人融合FCN算法和残差网络算法(ResNet),在自己建立的全新的全切片病理数据集上实现了最好的判别性能,但基于FCN框架下的算法需要消耗更多的时间成本。在FCN网络模型的基础上,Olaf提出了U

Net算法,该算法已成为深度学习在医学图像分割领域应用的基本框架。Ayat等人在U

Net结构中实现了ResNet34神经网络来定位胸部X射线数据集中的气胸病理区域。但是在他们的训练条件下,IoU的度量值是偏低的,没有达到0.8。随后,Ruchita Tekade和Hailan Cheng在U

Net框架内实现了VGG网络和ResNet网络,分别提取肺癌CT图像的病理特征。但是,由于VGG网络的层数较浅,提取图像局部信息的能力较弱。另外,在Hailan Cheng所提出的方法中,U

Net网络的收缩路径和扩张路径中的所有操作都被残差网络的基本块结构所代替,这极大地复杂了网络结构。
[0006]现有的基于卷积神经网络的全切片病理图像分割方法虽然取得了不错的效果,但仍存在着如下问题需要考虑和完善:
[0007](1)全切片载玻病理图像可以更直观、清晰的反映图像的轮廓信息和细节信息,当前完整的切片载玻病理图像的数据集是数量极少的,研究团队往往在数据集的获取上需要花费大量的时间和金钱。这一弊端会滞后该学科领域的研究与发展。
[0008](2)基于神经网络的病理图像分割算法的最主要目的是在最短的时间内实现最高的准确率,当前该领域已有的所有算法都是根据这个目的提出的。公开一种运行效率更高、运算速度更快、分割结果更精准的算法是学界共同的追求目标。显然当前已有的算法在上述三个方面均有着很大的提升空间。
[0009]本专利技术基于残差神经网络和全卷积神经网络结构,融合深度卷积神经网络和图像处理技术,使用U

Net网络结构作为主体框架,利用残差网络结构(ResNet)中的基本块(如图6)代替U

Net网络结构中的卷积层,并且本专利技术引入了余弦退火算法来控制学习率,保证网络可以充分学习到数据集特征。本专利技术公开的算法在运行效率、运算速度和准确率等方面的表现较当前算法均有所提高。

技术实现思路

[0010]本专利技术旨在提高全切片图像中病理区域的分割准确率。本专利技术所采用的具体方法是提出了一种融合残差神经网络和全卷积网络结构的新型卷积神经网络算法,建立了一套完整的全切片病理图像计算机辅助病灶分割方法。具体步骤如下:
[0011](1)由于原始的全切片病理图像尺寸过大,没有办法在屏幕进行全貌显示和后续处理,所以首先将原始的全切片病理图像经过图像处理技术中的切割算法处理,处理后其会被切成数量若干、大小不等的图像子块,用于后续操作;
[0012](2)使用数据增强技术,以及图像病灶人工标记,通过对数字病理图像切片进行处理,从而产生用于深度神经网络病灶分割训练的数据集。
[0013](3)融合残差神经网络和U

Net网络结构,残差神经网络使用ResNet50结构,U

Net网络结构的左侧的收缩路径由残差网络中的基本块状结构代替。融合算法中的学习率使用余弦退火算法控制。
[0014](4)将(2)中建立好的数据集投放入(3)中所建立的深度人工神经网络,进行充分
训练。神经网络在经过充分训练后会输出预测图像的标签图和概率预测映射图,标签图会清晰的标注出病变区域,这可以让医生在宏观上迅速确定病变区域本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.本发明用于全切片病理图像分割的融合残差神经网络与U

Net网络结构的深度人工神经网络结构及其训练方法,其特征在于:(1)首先产生深度人工神经网络训练数据:将原始的全切片病理图像经过图像处理技术中的切割算法处理,处理后其会被切成数量若干、大小不等的图像子块,并为每幅图像制作像素级标签;(2)在上述步骤(1)所产生的数据量较小时,通过对已有图像的随机旋转、平移、拉伸、反折、扩张和填充等方法,将数据集的数据量至少增至千位量级,并将像素级标签做相应调整,使增强后的图像集与调整后的标签一一对应;(3)本发明用于病理区域分割的深度人工神经网络融合残差神经网络和全卷积网络结构,残差神经网络使用ResNet50结构,全卷积网络结构使用U

Net网络结...

【专利技术属性】
技术研发人员:刘锋崔荣升蒋英海张仕昂张爽
申请(专利权)人:南开大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1