【技术实现步骤摘要】
一种基于模型解耦的联邦学习数据隐私保护方法及系统
[0001]本专利技术涉及分布式机器学习领域,尤其涉及一种联邦学习数据隐私保护方法及系统。
技术介绍
[0002]由于隐私保护、计算资源等方面的原因造成的数据孤岛,正在阻碍着训练人工智能模型所必须的大数据使用,而分布式机器学习技术,例如联邦学习,成为一种解决数据孤岛的方法。联邦学习通过多个客户端共同训练机器学习模型,在数据不发送给他人的情况下,通过交换模型来协同训练机器学习模型,从而保护数据隐私,已在医学学习、自然语言处理和欺诈信用卡检测等广泛应用。
[0003]联邦学习涉及多个参与方,在此架构下,公平性被赋予了丰富的内涵:一方面,联邦学习中不同参与者参与训练所耗费资源存在差异,对模型训练的贡献可能会有很大不同,能够公平反映每个参与者贡献的奖惩激励机制是联邦学习生态可持续发展的关键;另一方面,无论发送给各个参与方的全局模型是被直接用于结果预测还是用于优化参与方的个性化模型,各个参与方所使用的模型在最终的预测性能或精准度上应该具有公平性。因此,准确计算各个参与方的贡献值是实现公平性的关键。
技术实现思路
[0004]为了解决上述技术问题,本专利技术的目的是提供一种基于模型解耦的联邦学习数据隐私保护方法及系统,通过在联邦学习中引入模型解耦和公平性激励,降低计算开销,提高模型性能,实现满足本地客户端期望的公平性。
[0005]本专利技术所采用的第一技术方案是:一种基于模型解耦的联邦学习数据隐私保护方法,包括以下步骤:
[0006]服务 ...
【技术保护点】
【技术特征摘要】
1.一种基于模型解耦的联邦学习数据隐私保护方法,其特征在于,包括以下步骤:服务端发布联邦学习任务;所述服务端根据历史数据计算客户端声誉,依据声誉选择参与训练的客户端,并将全局模型分发给所述参与训练的客户端;所述服务端聚合所述参与训练的客户端更新后的局部模型主体,来更新全局模型主体,并将更新后的全局模型主体分发给所述参与训练的客户端;所述服务端根据数据贡献、模型贡献和等待时间补贴评估所述参与训练的客户端的贡献;所述服务端以参与训练的客户端的实际奖励与期望奖励最接近为目标来训练全局模型,计算所述参与训练的客户端的实际奖励,并分发给所述参与训练的客户端。2.根据权利要求1所述一种基于模型解耦的联邦学习数据隐私保护方法,其特征在于,所述服务端根据历史数据计算客户端声誉,依据声誉选择参与训练的客户端,并将全局模型分发给所述参与训练的客户端一步骤,其具体包括:所述服务端根据客户端的历史联邦学习任务评估每次任务的期望奖励和实际奖励之间的匹配程度;所述服务端根据所述匹配程度计算客户端声誉;所述服务端选择所述客户端声誉高的客户端作为所述参与训练的客户端,并将所述全局模型分发给所述参与训练的客户端。3.根据权利要求2所述一种基于模型解耦的联邦学习数据隐私保护方法,其特征在于,所述服务端根据所述匹配程度计算客户端声誉的计算公式具体表示为:其中,和分别表示客户端c
k
在第r次任务中的实际奖励和期望奖励,表示第r次任务的遗忘因子,V
k
表示客户端c
k
的声誉。4.根据权利要求1所述一种基于模型解耦的联邦学习数据隐私保护方法,其特征在于,所述服务端聚合所述参与训练的客户端更新后的局部模型主体,来更新全局模型主体,并将更新后的全局模型主体分发给所述参与训练的客户端这一步骤,具体包括:所述服务端接收来自所述参与训练的客户端上传的更新后的局部模型主体;所述服务端基于FedAvg方式将所述更新后的局部模型主体统一聚合,生成更新后的全局模型主体;所述服务端将所述更新后的全局模型主体分发给所述参与训练的客户端。5.根据权利要求1所述一种基于模型解耦的联邦学习数据隐私保护方法,其特征在于,所述数据贡献、模型贡献和等待时间补贴的计算公式具体为:所述数据贡献的表达式其中,u
d,k
表示客户端c
k
的数据贡献,D
k
表示客户端c
k
的本地数据集,D表示所有客户端的数据集;
所述模型贡献由局部模型主体与聚合后全局模型主体的相似度和参与训练的客户端的局部模型主体的夏普利值构成;所述相似度的表达式其中,表示客户端c
k
在第t轮训练中的局部模型主体与聚合后全局模型主体的相似度,表示局部模型主体,表示全局模型主体;所述参与训练的客户端的局部模型...
【专利技术属性】
技术研发人员:徐培明,许爱东,杨祎巍,梁志宏,王卓薇,陈家辉,
申请(专利权)人:广东工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。