一种眼底彩照图像分析方法技术

技术编号:36860907 阅读:21 留言:0更新日期:2023-03-15 18:29
本发明专利技术公开了一种眼底彩照图像分析方法,本方法聚焦于眼底图像中细微特征的识别与分析。为解决图像压缩而导致的细节丢失问题,本研究基于多实例学习,将未经压缩的图像分成数个图像块并分别提取特征,进而组成图像特征序列,继而引入LST模块对图像特征序列进行处理,依靠短期与长期注意力机制,能综合不同实例中图像特征进行特征进一步提取。该方法包括由计算机执行的两大步骤,分别为:步骤一、依次包括图像输入、图像块嵌入和图像特征提取步骤;步骤二、图像特征处理。比起现今先进的方法性能有所改善的同时又兼顾计算效率。本方法改良了传统模型处理图像细节特征能力并提升准度,提升了传统模型运算效率,缩短运算时间。缩短运算时间。缩短运算时间。

【技术实现步骤摘要】
一种眼底彩照图像分析方法


[0001]本专利技术涉及一种眼底彩照图像分析方法。

技术介绍

[0002]深度学习已经在眼科图像领域取得了大范围的应用,其准确率常常能达到甚至超越人类专家的水平。目前,处理眼底彩照的深度学习研究通常采用计算机视觉领域面向自然图像的处理方法与分析模型,其中最为主流的方法多基于卷积神经网络构建。例如DenseNet,VGGNet,InceptionV3,ResNet等。其有别于传统基于模式识别的图像处理方法,广泛使用卷积、池化、批标准化等计算方式,并利用反向传播不断地更新参数,逐步向最优的效果迈进。此类卷积神经网络模型在图像特征提取方面具有良好的性能表现,提取的深度特征相比于手工特征,具有良好的表达丰富性和平移不变性。此外,此类方法具有良好的泛化能力,经过训练的权重参数可以迁移到不同任务中,只需要少量的训练即可达到良好的效果。通过这种方法可以大大减少训练时间和计算成本,因此在视网膜眼底彩照影像分析上,此类模型也被广泛使用。
[0003]现有技术存在的缺点:上述主流的基于卷积神经网络的模型为兼顾运算效率与准确率,其输入图像尺寸一般为长和宽在224

512像素之间。然而眼底彩照多为长宽在2000像素以上的高分辨率图像,若压缩至模型指定的输入尺寸,易造成细节信息丢失而不利于建模分析,图像细节压缩后有所失真,对图像分析的一致性和准确性有一定影响。

技术实现思路

[0004]本专利技术的目的在于克服上述现有技术的不足,提供了一种眼底彩照图像分析方法。
[0005]为了实现上述目的,本专利技术采用的技术方案是:一种眼底彩照图像分析方法,该方法包括由计算机执行的两大步骤,分别为:步骤一、依次包括图像输入、图像块嵌入和图像特征提取步骤;其中图像输入步骤中判断输入图像是否为未经压缩的高分辨率图像,若非未经压缩的图像则需要重新输入图像;步骤二、图像特征处理;该步骤中,图像特征序列通过LST模型和多层感知机网络进行最终的图像特征分析与特征值提取;LST是transformer模型的一种变体,LST将transformer模型中的全注意力替换成短期注意力和长期注意力两者的聚合;经过LST模块图像特征处理,最终图像特征值被输出;其中,LST模型的基本单位是LST block,即LST单元,包括多头长短期注意力MHLSA层和MLP多层感知机,并在每一层前使用层归一化LN,最后通过残差连接的形式连接到下一层。
[0006]进一步地,所述步骤一中,输入的图像经过一个图像块嵌入模块,该图像块嵌入模
块将图像嵌入为N个图像块,其中;接着将所有图像块在第一维度级联后输入经过预训练的ResNet

50模型的特征提取模块进行特征提取,ResNet

50为卷积神经网络模型;图像块经过特征提取后得到N个维度为2048的特征向量所组成的图像特征序列集F。
[0007]进一步地,所述步骤二中,所述LST模型的基本LST block单元的计算过程为:block单元的计算过程为:block单元的计算过程为: 。
[0008]其中,是级联操作,表示MHLSA中的第i个长短注意力计算。
[0009]输入图像特征序列集F由8个图像特征序列组成,图像特征序列第一步经过层归一化操作,其步骤如下:其中,LN是层归一化,为输入的图像特征序列,μ为图像特征序列的特征值之和,σ为图像特征序列特征值的方差,计算方法为:为图像特征序列特征值的方差,计算方法为:经过层归一化后序列被输入到模块中,短期注意力的实现方式为:多头长短期注意力MHLSA中的短期注意力由滑动窗口实现,使用窗口宽度w=20以限制短期注意力的范围;输入的图像块特征所组成的图像特征序列被分成长度为w的不相交片段;一个窗口内所有标记与其归属段内所有其他标记之间计算短期注意力,在超出边缘的位置将由零矩阵进行填补;由此,短期注意力跨度共计超过2w个键值对;长期注意力的实现方式为:第i个注意力头上的低秩投影被参数化为,其中,为低秩尺寸,取决于输入序列的所有键,经此注意力头中高维的键嵌入和值嵌入被投影到了低秩,查询嵌入不变;原来的注意力矩阵通过低秩投影分解成两个更小的矩阵乘积;低秩注意力在i位置上的动态投影P表示为:其中,为可学习的参数,d为Q和K矩阵的维度,softmax函数的作用是
将n个标记中第一维的投影参数标准化,让训练趋于稳定;K
i
和V
i
为投影后的低秩键嵌入与值嵌入;长短期注意力聚合的实现方式为:第i个注意力头,位置t的注意力H
i,t
表示为:其中,表示两个矩阵沿第一维级联,d为Q和K矩阵的维度;经过长短期注意力聚合,长注意力和短注意力被聚合成长短期注意力矩阵,在级联操作后再次经过层归一化操作,输入到MLP多层感知机。
[0010]本专利技术的有益效果是:本方法聚焦于眼底图像中细微特征的识别与分析。为解决图像压缩而导致的细节丢失问题,本研究基于多实例学习,将未经压缩的图像分成数个图像块并分别提取特征,进而组成图像特征序列,继而引入LST模块对图像特征序列进行处理,依靠短期与长期注意力机制,能综合不同实例中图像特征进行特征进一步提取,比起现今先进的方法性能有所改善的同时又兼顾计算效率。本方法改良了传统模型处理图像细节特征能力并提升准度,提升了传统模型运算效率,缩短运算时间。
附图说明
[0011]图1是本专利技术方法总体步骤图;图2是本专利技术方法流程图;图3是LST block示意图;图4是多层感知机示意图。
具体实施方式
[0012]下面结合实施例对本专利技术作进一步的详细说明,如图1至4所示,一种眼底彩照图像分析方法,此方法由两部分构成,方法的第一部分包括图像输入、图像块嵌入模块、图像特征提取模块。首先先确定图像为未经压缩的高分辨率图像,若非未经压缩的图像则需要重新输入图像。如图2所示,输入的图像经过一个图像块嵌入模块,图像块嵌入模块将图像嵌入为N个图像块,其中。接着将所有图像块在第一维度级联后输入经过预训练的ResNet

50模型的特征提取模块进行特征提取,ResNet

50为卷积神经网络模型。图像块经过特征提取后得到N个维度为2048的特征向量所组成的图像特征序列集F。
[0013]方法的第二部分为图像特征处理,通过LST模块实现。如图2所示,图像特征序列F通过LST模块和多层感知机网络进行最终的图像特征分析与特征值提取。LST是transformer模型的一种变体。LST将transformer模型中的全注意力替换成短期注意力和长期注意力两者的结合。如图2所示,LST模块的基本单位是LST block,包括多头长短期注意力层(Multi

head Long Short Attention, MHLSA)和MLP层,并在每一层前使用层归一化(Layer Normalization, LN),最后通过残差连接的形式连接到下一层。一个LST的基本LST bl本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种眼底彩照图像分析方法,其特征在于:该方法包括由计算机执行的两大步骤,分别为:步骤一、依次包括图像输入、图像块嵌入和图像特征提取步骤;其中图像输入步骤中判断输入图像是否为未经压缩的高分辨率图像,若非未经压缩的图像则需要重新输入图像;步骤二、图像特征处理;该步骤中,图像特征序列通过LST模型和多层感知机网络进行最终的图像特征分析与特征值提取;LST是transformer模型的一种变体,LST将transformer模型中的全注意力替换成短期注意力和长期注意力两者的聚合;经过LST模块图像特征处理,最终图像特征值被输出;其中,LST模型的基本单位是LST block,即LST单元,包括多头长短期注意力层和多层感知机,并在每一层前使用层归一化,最后通过残差连接的形式连接到下一层。2.根据权利要求1所述的眼底彩照图像分析方法,其特征在于:所述步骤一中,输入的图像经过一个图像块嵌入模块,该图像块嵌入模块将图像嵌入为个图像块,其中;接着将所有图像块在第一维度级联后输入经过预训练的ResNet

50模型的特征提取模块进行特征提取,ResNet

50为卷积神经网络模型;图像块经过特征提取后得到个维度为2048的特征向量所组成的图像特征序列集。3.根据权利要求2所述的眼底彩照图像分析方法,其特征在于:所述步骤二中,所述LST模型的基本LST单元的计算过程为:模型的基本LST单元的计算过程为:模型的基本LST单元的计算过程...

【专利技术属性】
技术研发人员:孔令聪杨小红梁会营李聪况宇
申请(专利权)人:广东省人民医院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1