优化未来性能的推荐系统重训练方法技术方案

技术编号:27409661 阅读:20 留言:0更新日期:2021-02-21 14:24
本发明专利技术公开了一种优化未来性能的推荐系统重训练方法,包括:将当前时刻的基础模型参数输入至参数迁移模型,提取历史数据的知识并迁移到当前时刻的新数据中,固定参数迁移模型中的参数,并利用当前时刻的新数据输入到迁移模型中的输出计算损失,从而训练推荐系统,获得优化的基础模型参数;固定优化的基础模型参数,并输入至参数迁移模型,利用参数迁移模型输出的参数结合下一时刻的新数据来计算损失,从而训练参数迁移模型,获得优化的参数迁移模型参数;通过以上两步交替训练的方式,直至达到停止条件,获得训练好的推荐系统。该方法可以从任意旧模型中提取知识,使得训练中仅利用少量新数据也可以保留用户的长期兴趣并使得模型在未来达到最优。模型在未来达到最优。模型在未来达到最优。

【技术实现步骤摘要】
优化未来性能的推荐系统重训练方法


[0001]本专利技术涉及机器学习
,尤其涉及一种优化未来性能的推荐系统重训练方法。

技术介绍

[0002]在真实推荐场景中,用户的兴趣会随时间而逐渐变化,因此为了保证推荐效果,往往需要对模型定时进行更新。传统的重训练方式直接将历史数据喂入模型,受算力制约往往只能使用短期历史数据,因此很容易在训练过程中使模型遗忘用户长期兴趣。
[0003]有部分研究从数据角度设计采样算法保存一部分历史数据,并与新数据进行混合对模型进行重训练,希望可以用部分历史数据覆盖用户的长期兴趣,防止遗忘发生。然而采样的方法并不能完整还原用户的长期兴趣,可能会遗漏重要的样本,并且经实验发现性能较用所有数据进行训练更差。而且采样的方式是启发式设计的,可能仅在某些场景有效。
[0004]对于上述传统方法,除了上述提到各自的优缺点外,它们还有一个通用的缺点,即缺乏对重训练的目标(在下一阶段表现优秀)进行显式的优化。

技术实现思路

[0005]本专利技术的目的是提供一种优化未来性能的推荐系统重训练方法,可以从任意旧模型中提取知识,使得训练中仅利用少量新数据也可以保留用户的长期兴趣并使得模型在未来达到最优。
[0006]本专利技术的目的是通过以下技术方案实现的:
[0007]一种优化未来性能的推荐系统重训练方法,包括:
[0008]将当前时刻的基础模型参数输入至参数迁移模型,从基础模型参数中提取历史数据中的知识并迁移到当前时刻的新数据中,固定参数迁移模型中的参数,并利用当前时刻的新数据输入到迁移模型中的输出计算损失,从而训练推荐系统,获得优化的基础模型参数;
[0009]固定优化的基础模型参数,并输入至参数迁移模型,利用参数迁移模型输出的参数结合下一时刻的新数据来计算损失,从而训练参数迁移模型,获得优化的参数迁移模型参数;
[0010]通过以上两步交替训练的方式,直至达到停止条件,获得训练好的推荐系统。
[0011]由上述本专利技术提供的技术方案可以看出,本专利技术建立了与模型无关的推荐系统重训练框架,利用从历史数据中提取知识的方式降低了计算成本,并且保证了性能。由于参数迁移模型的引入以及仿照Meta-Learning(元学习)思想设计的利用下一阶段数据引入训练的训练方式,可以通过新旧推荐模型的参数来实现历史数据中知识与新数据中的知识在不同推荐场景下的自适应的融合并优化了下一时间段的性能,达到了使模型不遗忘长期兴趣,同时不忽视短期兴趣的目的,最终保证了推荐性能不低于利用所有历史数据训练的方法,甚至在设定的情况下,采用了本方法的简单的传统的推荐系统,可以超越现阶段最优的
推荐模型。
附图说明
[0012]为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
[0013]图1为本专利技术实施例提供的一种优化未来性能的推荐系统重训练方法的流程图;
[0014]图2为本专利技术实施例提供的参数迁移模型的示意图。
具体实施方式
[0015]下面结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术的保护范围。
[0016]本专利技术实施例提供一种优化未来性能的推荐系统重训练方法,引入了用于从旧模型提取知识并迁移到新数据中的参数迁移模型,以及优化未来性能的基于持续元学习的训练方式(SML),如图1所示,每一阶段的训练主要包括:
[0017]将当前时刻的基础模型参数输入至参数迁移模型,从基础模型参数中提取历史数据中的知识并迁移到当前时刻的新数据中,固定参数迁移模型中的参数,并利用当前时刻的新数据输入到迁移模型中的输出计算损失,从而训练推荐系统,获得优化的基础模型参数;
[0018]固定优化的基础模型参数,并输入至参数迁移模型,利用参数迁移模型输出的参数结合下一时刻的新数据来计算损失,从而训练参数迁移模型,获得优化的参数迁移模型参数;
[0019]通过以上两步交替训练的方式,直至达到停止条件(即达到规定的训练次数或完全收敛),获得训练好的推荐系统。
[0020]下面针对参数迁移模型以及训练方式做详细的介绍。
[0021]一、参数迁移模型。
[0022]如图2所示,所述参数迁移模型主要包括:输入层、卷积层与全连接层。
[0023]1、输入层。
[0024]所述输入层中输入参数包括:其中,表示推荐系统的基础模型参数,W
t-1
表示上一时刻推荐系统训练阶段参数迁移模型的输出,

表示元素对应乘积,用来捕捉参数高阶尺度的变化信息。输入层中将W
t-1
,以及它们的元素对应乘积进行合并,成为一张二维图像,将与W
t-1
整形为1d的一维向量后结合生成矩阵H0∈R3×
d
;具体来说,与W
t-1
整形为1d的一维向量后,保持不同的语义相同与W
t-1
的相同维度相对应,再进行如下操作:
[0025][0026]其中,W
dot
用来捕捉从W
t-1
到间的值增强与衰减趋势,ε为设定的常数(1e-10),用来防止分母为0。
[0027]2、卷积层。
[0028]所述卷积层由多级串联卷积神经网络(CNN)构成,以H0为输入,捕捉同维度的特征。
[0029]每一层卷积神经网络的计算过程相同;设第一层卷积神经网络的卷积核数目为n1,第j个卷积核表示为F
j
∈R3×1,R表示实数集合;卷积核F
j
从H0的第一列一直滑动计算到最后一列,表示为:
[0030][0031]其中,表示H0的第m列,GELU(Gaussian Error Linear Units)为激活函数,符号<>表示向量内积;
[0032]通过卷积核F
j
能够捕捉到多样的信息,如果卷积核F
j
为[1,-1,0]则能够捕捉到从W
t-1
到的梯度信息,如果卷积核F
j
为[1,1,1]则能够捕捉到W
t-1
与中大小突出的数值信息;通过第一层后,得到的矩阵大小为n1×
d;之后卷积神经网络采样相同的原理进行操作,最终卷积层输出大小为n
L
×
d的张量,其中,n
L
为第L层卷积神经网络的卷积核数目,L≥2为卷积神经网络的总层数。
[0033]3、全连接层。
[0034]全连接层由多层感知本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种优化未来性能的推荐系统重训练方法,其特征在于,包括:将当前时刻的基础模型参数输入至参数迁移模型,从基础模型参数中提取历史数据中的知识并迁移到当前时刻的新数据中,固定参数迁移模型中的参数,并利用当前时刻的新数据输入到迁移模型中的输出计算损失,从而训练推荐系统,获得优化的基础模型参数;固定优化的基础模型参数,并输入至参数迁移模型,利用参数迁移模型输出的参数结合下一时刻的新数据来计算损失,从而训练参数迁移模型,获得优化的参数迁移模型参数;通过以上两步交替训练的方式,直至达到停止条件,获得训练好的推荐系统。2.根据权利要求1所述的一种优化未来性能的推荐系统重训练方法,其特征在于,所述参数迁移模型包括:输入层、卷积层与全连接层;其中:所述输入层中输入参数包括:W
t-1
,其中,表示推荐系统的基础模型参数,W
t-1
表示上一时刻推荐系统训练阶段参数迁移模型的输出,,

表示元素对应乘积;将与W
t-1
整形为1
×
d的一维向量后结合生成矩阵H0∈R3×
d
;所述卷积层由多级串联卷积神经网络构成,每一层卷积神经网络的计算过程相同;设第一层卷积神经网络的卷积核数目为n1,第j个卷积核表示为F
j
∈R3×1,R表示实数集合;卷积核F
j
从H0的第一列一直滑动计算到最后一列,表示为:其中,表示H0的第m列,GELU为激活函数,符号< >表示向量内积;通过卷积核F
j
能够捕捉到多样的信息,如果卷积核F
j
为[1,-1,0]则能够捕捉到从W
t-1
到的梯度信息,如果卷积核F
j
为[1,1,1]则能够捕捉到W
t-1
与中大小突出的数值信息;通过第一层后,得到的矩阵大小为n1×
d;最终卷积层输出大小为n
L
×
d的张量,其中,n
L
为第L层卷积神经网络的卷积核数目,L≥2为卷积神经网络的总层数;全连接层由多层感知器实现,将卷积层输...

【专利技术属性】
技术研发人员:何向南张洋冯福利王晨旭李岩张勇东
申请(专利权)人:中国科学技术大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1