基于约束参数路径的连续学习的图像分类方法技术

技术编号:38057165 阅读:7 留言:0更新日期:2023-06-30 11:22
本发明专利技术提供一种基于约束参数路径的连续学习的图像分类方法,通过构造基于参数路径的图像分类模型;在训练时学习新旧图像分类任务间的参数偏移,通过使用球面优化方法预先求解出一个低遗忘方向;学习新图像分类任务时通过方向约束下降优化器,使当前路径与低遗忘方向一致;最终通过后处理策略Recall沿着路径进行回溯最终确定新任务的图像分类模型的参数。本发明专利技术利用球面优化的方式求得之前图像分类任务的低遗忘方向,并约束任务间的路径与该方向一致,同时使用学习得到的系数对路径进行放缩以取得新旧任务的平衡。本发明专利技术的图像分类模型在学习参数时具有低遗忘、平衡的稳定性与可塑性等特点。性等特点。性等特点。

【技术实现步骤摘要】
基于约束参数路径的连续学习的图像分类方法


[0001]本专利技术涉及基于机器学习的图像分类技术,特别涉及连续学习CL(Continual Learning)场景中的约束学习技术。

技术介绍

[0002]随着近年来深度学习的不断发展,各种智能应用涌现于人们的日常生活中,如:人脸识别、自动驾驶、陪护机器人等。然而,真实世界场景中不断变化的动态环境给传统的基于静态深度学习的图像分类模型带来了泛化能力差、感知未知类别、连续增扩知识等诸多挑战。实际应用场景中的图像分类模型需用不断地学习新任务序列同时保持对旧任务的记忆。由于学习算法的贪婪性,现有深度学习模型应用于上述场景下通常会导致在之前任务上性能的显著降低,也即灾难性遗忘(Catastrophic Forgetting)。另一方面,盲目地保持旧任务性能又会导致无法学习新任务,也即稳定性与可塑性困境(Stability and Plasticity Dilemma)。因此,为赋予真实场景中图像分类模型连续学习的能力,我们需要保持旧任务记忆的同时具有新任务的学习。
[0003]当前的连续学习算法通常可以分为三个部分:1.模型(Model),被要求增量性地学习新任务并保持之前的记忆。现有大多数方法遵循以之前学习的模型为初始点在当前任务上进行微调的范式。而之前学习的模型编码着丰富的旧任务知识,直接在上面微调会覆盖原始的记忆。2.优化器(Optimizer),用于更新模型的参数以最小化训练损失,常用的优化器有:SGD、Adam。然而,通常的优化器会贪婪地学习当前任务以至于完全忘记之前的任务。并且现有的研究表明,SGD中的权重衰减(Weight Decay)会影响连续学习的性能。3.反遗忘技术(Anti

forgetting Techniques),包含主要包含三类:基于正则的方法,约束对旧任务重要参数的改变,这类方法依赖于对最优点周围的局部近似,当遇到分布偏移较大的任务序列时仍然会有较大遗忘;基于存储的方法,通过存储旧任务的部分数据并在后续任务中重放它们,由于存储数据量与当前任务数据量有着较大的差异,这类方法容易过拟合存储数据;基于动态网络结构的方法,为新任务分配一个新的网络,由于任务间参数相互隔离,这类方法有着较低的遗忘,但随着任务数量的增加,这类方法的存储与计算的消耗也线性增长。

技术实现思路

[0004]本专利技术所要解决的技术问题是,通过提供一种新型基于参数路径PM(Path

based)的图像分类模型来降低模型对旧任务的遗忘,并在分类稳定性与适用可塑性之间的良好平衡的图像分类方法。
[0005]本专利技术为解决上述技术问题所采用的技术方案是,基于约束参数路径的连续学习的图像分类方法,包括以下步骤:
[0006]第1步:确定当前任务;
[0007]第2步:使用黎曼随机梯度下降算法与上一个任务的存储数据,围绕上一个任务的
参数的最优点计算上一个任务的低遗忘方向;低遗忘方向的计算是以上一个任务最优点为中心的球面优化过程;
[0008]第3步:初始化当前任务的路径;
[0009]第4步:从上一个任务的存储数据与当前任务数据中采样一个块作为样本;
[0010]第5步:上一个任务的参数的最优点与当前任务的路径之和作为当前任务的参数,利用当前任务的参数与样本计算当前任务的路径下的损失;
[0011]第6步:将当前任务的路径向上一个任务的低遗忘方向进行投影,再从当前任务的路径中减去该投影得到路径偏移分量;
[0012]第7步:在当前任务数据上,约束方向优化器使用权重衰减对路径偏移分量进行正则,再将当前任务的路径减去正则后的路径偏移分量来更新得到当前任务的路径,当前任务的图像分类模型执行约束路径的模型优化算法,利用将上一个任务的参数的最优点加上当前任务的路径来迭代更新当前任务的参数,若迭代到最大步数,将最后更新的当前任务的路径作为最终的当前任务的路径进入下一步,否则,转第4步;
[0013]第8步:从当前任务数据中为每类数据进行采样作为存储数据,再进入计算当前任务的图像分类模型的参数的步骤。
[0014]由于未对路径的长度进行约束,路径的终点仍然偏向于新图像分类任务。在计算当前任务的图像分类模型的参数时,本专利技术继而提出一个新型后处理策略Recall,沿着路径进行回溯使得新旧记忆取得平衡:
[0015]基于记忆平衡策略来基于记忆平衡策略确定当前任务的图像分类模型的参数步骤:
[0016]第9步:初始化放缩系数;
[0017]第10步:从第8步中得到的存储数据中取出一个块作为新的样本;
[0018]第11步:将上一个任务的参数的最优点与放缩系数加权的与最终的当前任务的路径之和作为新的当前任务的参数,利用新的样本当前任务的参数与新的样本计算计算当前放缩系数下的损失;
[0019]第12步:使用黎曼随机梯度下降算法来更新放缩系数,若迭代到最大步数,转第13步,将更新的放缩系数作为最终放缩系数,否则,转第10步;
[0020]第13步:将上一个任务的参数的最优点与最终的放缩系数加权的最终的当前任务的路径之和作为当前任务的参数的最优点,将完成训练的图像分类模型用于对当前任务的图像分类处理。
[0021]有益效果:
[0022]本专利技术所提出的基于路径模型的连续学习方法具有低遗忘、平衡的稳定性与可塑性等特点。专利技术的主要创新点在于利用球面优化的方式求得之前图像分类任务的低遗忘方向,并约束任务间的路径与该方向一致,同时使用学习得到的系数对路径进行放缩以取得新旧任务的平衡。相比于现有的方法,该方法通过使用基于路径的模型避免了覆盖之前原始记忆,通过球面优化避免了对最优点的局部近似,通过学习放缩系数聚合模型参数避免存储与计算的消耗随图像分类任务的增加而线性增长。
附图说明
[0023]图1为基于路径模型的连续学习框架;
[0024]图2为DCD优化器的动力学;
[0025]图3为球面优化低遗忘方向示意图。
具体实施方式
[0026]本专利技术的主要思想是采用基于路径的模型PM学习新旧任务间的参数路径的偏移,通过实现以下4个方面来完成专利技术方案:
[0027]1.构建基于路径的模型PM;
[0028]2.求解低遗忘方向LFD;
[0029]3.设计约束路径的模型优化算法DCD;
[0030]4.设计记忆平衡策略Recall。
[0031]连续学习要求一个参数为的模型f学习T组任务序列数据{D1,...,D
t
,...,D
T
}。第t个任务的数据是一个三元组数据流,D
t
={(x,y,t)},其中x为输入图像,y为标签,t为任务标签。模型f在样本(x,y,t)上的预测表示为:n为模型参数的维度。
[0032]在每个任务结束后,为每类选择少量样本进行存储,其中第t个任务的存储表示为M
t
,所有已学本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于约束参数路径的连续学习的图像分类方法,其特征在于,包括以下步骤:第1步:确定当前任务;第2步:使用黎曼随机梯度下降算法与旧任务的存储数据,围绕上一个任务的参数的最优点计算上一个任务的低遗忘方向;所述旧任务为在存储区中已存储的当前任务之前的任务;第3步:初始化当前任务的路径;第4步:从旧任务的存储数据与当前任务数据中采样一个块作为样本;第5步:上一个任务的参数的最优点与当前任务的路径之和作为当前任务的参数,利用当前任务的参数与样本计算当前任务的路径下的损失;第6步:将当前任务的路径向上一个任务的低遗忘方向进行投影,再从当前任务的路径中减去该投影得到路径偏移分量;第7步:在当前任务数据上,约束方向优化器使用权重衰减对路径偏移分量进行正则,并从当前路径中减去正则后的路径更新量来更新当前路径的参数,当前任务的图像分类模型执行约束路径的模型优化算法,利用将上一个任务的参数的最优点加上当前任务的路径来迭代更新当前任务的参数,若迭代到最大步数,将最后更新的当前任务的路径作为最终的当前任务的路径进入下一步,否则,转第4步;第8步:从当前任务数据中为每类数据进行采样作为存储数据,再进...

【专利技术属性】
技术研发人员:李宏亮问海涛孟凡满吴庆波潘力立许林峰
申请(专利权)人:电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1