多正则化策略图像分类学习方法、装置、设备和介质制造方法及图纸

技术编号:34407971 阅读:28 留言:0更新日期:2022-08-03 21:56
本申请的多正则化策略图像分类学习方法、装置、设备和介质,其中方法包括:基于LWF正则化和池化知识蒸馏构建卷积神经网络的第一损失函数,使用第一损失函数对卷积神经网络的特征提取层及主分类层进行训练。根据副分类层和标注数据的副分类层交叉熵损失函数,以及副分类层之间的分类层差异损失函数,构建卷积神经网络的第二损失函数。通过第二损失函数对副分类层进行训练。特征提取层、主分类层和副分类层用于对卷积神经网络进行训练。对池化蒸馏函数进行LWF正则化,能够增强对第一损失函数的约束,相比于使用单分类层进行训练,使用多个副分类层计算第二损失函数能够使得卷积神经网络的训练过程更为鲁棒。网络的训练过程更为鲁棒。网络的训练过程更为鲁棒。

【技术实现步骤摘要】
多正则化策略图像分类学习方法、装置、设备和介质


[0001]本申请涉及图像分类
,例如涉及多正则化策略图像分类学习方法、装置、设备和介质。

技术介绍

[0002]近年来卷积神经网络得到了广泛的应用,在图像分类领域,卷积神经网络存在灾难性遗忘的问题,即卷积神经网络根据新样本集进行训练后,对旧样本集的分类准确率会显著下降。对此,目前采用增量学习的方法解决灾难性遗忘的问题。增量学习的主要方法有基于回放的增量学习方法、基于约束的增量学习方法和基于参数隔离的增量学习方法,这三种增量学习方法可以在一定程度上减轻灾难性遗忘问题。但是,但是传统图像分类任务采用单一分类器进行图像分类任务,基于激活的正则化策略的方法很大程度上受单一分类器分类效果的影响与限制。

技术实现思路

[0003]本申请提供一种多正则化策略图像分类学习方法、装置、设备和介质,旨在解决基于激活的正则化策略的方法很大程度上受单一分类器分类效果的影响的问题。
[0004]为解决上述问题,本申请采用以下技术方案:
[0005]本文提供了一种多正则化策略图像分类学习方法,包括:
[0006]基于LWF(Learning without Forgetting,抗遗忘学习)正则化和池化知识蒸馏构建卷积神经网络的第一损失函数,使用所述第一损失函数对卷积神经网络的特征提取层及主分类层进行训练;所述第一损失函数的公式如下:
[0007]Loss1=Loss
MW
(F,M
t
)+λLoss
>LWF

Pooling

[0008]其中,Loss
MW
为主分类层交叉熵损失函数,F为特征提取层,M
t
为第t个任务的主分类层,λ为池化调节参数,Loss
LWF

Pooling
为LWF正则化池化蒸馏损失函数;
[0009]根据副分类层和标注数据的副分类层交叉熵损失函数,以及副分类层之间的分类层差异损失函数,构建卷积神经网络的第二损失函数;通过所述第二损失函数对所述副分类层进行训练;
[0010]所述特征提取层、所述主分类层和所述副分类层用于对所述卷积神经网络进行训练。
[0011]所述基于LWF正则化和池化知识蒸馏构建卷积神经网络的第一损失函数,包括:
[0012]根据卷积神经网络的主分类层输出向量串联结果,使用LWF正则化计算主分类层池化蒸馏损失;
[0013]根据卷积神经网络的副分类层输出向量串联结果,使用LWF正则化计算副分类层池化蒸馏损失;
[0014]根据主分类层池化蒸馏损失和副分类层池化蒸馏损失,计算所述LWF正则化池化蒸馏损失函数;
[0015]所述LWF正则化池化蒸馏损失函数的计算公式如下:
[0016]Loss
LWF

Pooling
=Loss
LWF

main

pooling
+Loss
LWF

side

pooling

[0017]其中,Loss
LWF

main

pooling
为主分类层池化蒸馏损失,Loss
LWF

side

pooling
为副分类层池化蒸馏损失;
[0018]根据所述主分类层交叉熵损失函数和所述LWF正则化池化蒸馏损失函数构建所述第一损失函数。
[0019]所述根据卷积神经网络的主分类层输出向量串联结果,使用LWF正则化计算主分类层池化蒸馏损失,包括:
[0020]所述主分类层池化蒸馏损失的公式为:
[0021][0022]其中,KD
M
为主分类层知识蒸馏方程,σ为softmax(归一化指数函数)分类层,是t时刻输入图像样本集中的第i张图像,表示当前卷积神经网络第t

1个任务对应的主分类层输出的向量串联结果,表示卷积神经网络前t

1个任务对应的主分类层输出的向量串联结果;
[0023]所述主分类层知识蒸馏方程为经过空间维度池化操作和平面约束的方程。
[0024]所述根据卷积神经网络的副分类层输出向量串联结果,使用LWF正则化计算副分类层池化蒸馏损失,包括:
[0025]所述副分类层的池化蒸馏损失的公式为:
[0026][0027]其中,KD
S
为副分类层知识蒸馏方程,表示当前卷积神经网络前t

1个任务对应的k个副分类层的输出向量的串联结果,表示卷积神经网络前t

1个任务对应的k个副分类层的输出向量的串联结果;
[0028]所述副分类层知识蒸馏方程为经过空间维度池化操作和平面约束的方程。
[0029]所述主分类层交叉熵损失函数由当前所述主分类层的余弦相似度与所述主分类层的余弦相似度总和的交叉熵构成;
[0030]所述主分类层交叉熵损失函数的公式如下:
[0031][0032]其中,η是可学习平移参数,δ是用来使不同类别之间产生区分的小数,为第f个类的所述余弦相似度,为第i个类的所述余弦相似度。
[0033]所述根据副分类层和标注数据的交叉熵,以及副分类层之间的分类层差异损失函数,构建第二损失函数,包括:
[0034]计算所述副分类层交叉熵损失函数,所述副分类层交叉熵损失函数为每一个所述副分类层的余弦相似度与副分类层的余弦相似度总和的交叉熵的和;
[0035]根据所有所述副分类层的分类结果差异构建所述分类层差异损失函数;
[0036]根据所述副分类层交叉熵损失函数和所述分类层差异损失函数构建所述第二损失函数。
[0037]进一步地,所述通过所述第二损失函数对所述副分类层进行训练之前,还包括:
[0038]引入额外样本数据集作为所述副分类层的补充训练集,将所述补充训练集和原始训练集组成扩充训练集;其中,所述扩充训练集用于训练所述副分类层。
[0039]本申请还提供了一种多正则化策略图像分类学习装置,包括:
[0040]第一损失函数构建模块,用于基于LWF正则化和池化知识蒸馏构建卷积神经网络的第一损失函数;
[0041]特征提取层及主分类层训练模块,用于使用所述第一损失函数对卷积神经网络的特征提取层及主分类层进行训练;所述第一损失函数的公式如下:
[0042]Loss1=Loss
MW
(F,M
t
)+λLoss
LWF

Pooling

[0043]其中,Loss
MW
为主分类层交叉熵损失函数,F为特征提取层,M
t
为第t个任务的主分类层,λ为池化本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种多正则化策略图像分类学习方法,其特征在于,包括:基于LWF正则化和池化知识蒸馏构建卷积神经网络的第一损失函数,使用所述第一损失函数对卷积神经网络的特征提取层及主分类层进行训练;所述第一损失函数的公式如下:Loss1=Loss
MW
(F,M
t
)+λLoss
LWF

Pooling
;其中,Loss
MW
为主分类层交叉熵损失函数,F为特征提取层,M
t
为第t个任务的主分类层,λ为池化调节参数,Loss
LWF

Pooling
为LWF正则化池化蒸馏损失函数;根据副分类层和标注数据的副分类层交叉熵损失函数,以及副分类层之间的分类层差异损失函数,构建卷积神经网络的第二损失函数;通过所述第二损失函数对所述副分类层进行训练;所述特征提取层、所述主分类层和所述副分类层用于对所述卷积神经网络进行训练。2.根据权利要求1所述的多正则化策略图像分类学习方法,其特征在于,所述基于LWF正则化和池化知识蒸馏构建卷积神经网络的第一损失函数,包括:根据卷积神经网络的主分类层输出向量串联结果,使用LWF正则化计算主分类层池化蒸馏损失;根据卷积神经网络的副分类层输出向量串联结果,使用LWF正则化计算副分类层池化蒸馏损失;根据主分类层池化蒸馏损失和副分类层池化蒸馏损失,计算所述LWF正则化池化蒸馏损失函数;所述LWF正则化池化蒸馏损失函数的计算公式如下:Loss
LWF

Pooling
=Loss
LWF

main

pooling
+Loss
LWF

side

pooling
;其中,Loss
LWF

main

pooling
为主分类层池化蒸馏损失,Loss
LWF

side

pooling
为副分类层池化蒸馏损失;根据所述主分类层交叉熵损失函数和所述LWF正则化池化蒸馏损失函数构建所述第一损失函数。3.根据权利要求2所述的多正则化策略图像分类学习方法,其特征在于,所述根据卷积神经网络的主分类层输出向量串联结果,使用LWF正则化计算主分类层池化蒸馏损失,包括:所述主分类层池化蒸馏损失的公式为:其中,KD
M
为主分类层知识蒸馏方程,σ为softmax分类层,是t时刻输入图像样本集中的第i张图像,表示当前卷积神经网络第t

1个任务对应的主分类层输出的向量串联结果,表示卷积神经网络前t

1个任务对应的主分类层输出的向量串联结果;所述主分类层知识蒸馏方程为经过空间维度池化操作和平面约束的方程。4.根据权利要求2所述的多正则化策略图像分类学习方法,其特征在于,所述根据卷积
神经网络的副...

【专利技术属性】
技术研发人员:舒畅陈又新
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1