System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于对比学习和条件计算的个性化联邦学习方法技术_技高网

基于对比学习和条件计算的个性化联邦学习方法技术

技术编号:42191916 阅读:9 留言:0更新日期:2024-07-30 18:41
本发明专利技术属于机器学习技术领域,公开了一种基于对比学习和条件计算的个性化联邦学习方法,中央服务器包括全局模型;客户端包括全局模型、对比模型和客户端本地模型;引入对比学习和条件计算,使用对比学习拉大本地模型与对比模型的差异;使用条件计算对全局模型和个性化本地模型特征提取部分进行选择,选取合适的参数进行聚合,使得个性化本地模型的准确率大大提高,并减少通信轮次。

【技术实现步骤摘要】

本专利技术属于机器学习,涉及联邦学习方法,尤其涉及一种基于对比学习和条件计算的个性化联邦学习方法


技术介绍

1、边缘云计算是边缘计算和云计算的结合,与传统的云计算相比效率得到了很大的提升。边缘云计算提供低延迟、高带宽和更好的用户体验。不需要把大量本地数据发送到云端进行处理,缩短了数据处理计算节点与用户之间的距离,在满足用户低时延需求的同时,用户数据可以在本地训练进而实现数据隐私保护。而联邦学习是分布式机器学习技术,其核心思想是各个参与方在不共享本地数据源的前提下协同构建全局模型,即数据不动模型动、数据可用不可见。边缘云计算和联邦学习相结合可以提供更高的数据处理效率和更好的机器学习结果。联邦学习不需要将原始数据上传到云服务器上,只需要交换模型参数和一些中间结果,从而保证了数据的隐私性和安全性并且减少了数据的传输量。边缘云计算将云服务从网络核心推向更接近物联网设备和数据源的网络边缘,减少了数据传输的延迟,使得联邦学习可以更快速地进行模型训练和更新。

2、公开号为cn114694015a的专利申请公开了基于通用框架的多任务联邦学习场景识别方法及相关组件,虽然其提出的框架无需对不同训练任务的训练数据集进行参数调整,但是它对高度异构数据的收敛性较差,并不能达到理想的效果。

3、公开号为cn115511108a的专利申请公开了一种基于数据集蒸馏的联邦学习个性化方法,对本地数据进行处理生成蒸馏数据并将蒸馏数据加密后上传至服务器;服务器利用所有的加密蒸馏数据进行全局模型训练,但是没有考虑模型的通信成本的问题,因此仍有很大的提升空间。

4、公开号为cn115688939a的专利申请公开了一种基于对抗式特征增广的长尾数据个性化联邦学习方法,利用特定的采样平衡样本特征集dbal和生成平衡样本特征集训练所述全局分类器f,结合全局特征提取器g,得到本地个性化模型,但是没有考虑边缘客户端和其他客户端的区别。

5、公开号为cn114385376a的专利申请公开了一种异构数据下边缘侧联邦学习的客户端选择方法,通过计算权重变化信息来衡量客户端更新的重要性,实现了fl服务器在真实的异构数据环境中确保被选择的数据样本符合科学性和代表性,同时通过增加额外选择的客户端数量参数s和周期参数p进一步提升fl训练模型的准确率,并且减少能耗;但网络性能不佳,仍有改进的空间。

6、因此,在大尺寸和复杂通信网络的物联网环境下,异质性的边缘设备是大量存在,带来了隐私、连接、带宽和延迟的挑战。现阶段,边缘云协同下的联邦学习(federatedlearning,fl)方法面临几个基本挑战:(i)对高度异构数据的收敛性较差,以及(ii)缺乏个性化解决方案。在存在异构本地数据分布的情况下,这些问题会恶化单个客户端上的全局fl模型的性能,甚至可能会阻碍受影响的客户端加入fl流程。由于客户端的数据集之间往往是非独立同分布的(non-independent and identically distributed,non-iid),直接进行模型聚合往往会影响模型的整体性能。传统的卷积神经网络(cnn)在计算机视觉任务中非常成功,但是它们对输入图像的尺寸和固定形状有着严格的要求。


技术实现思路

1、本专利技术的目的在于针对现有技术中的不足,提供一种基于对比学习和条件计算的个性化联邦学习方法,可以有效的提升联邦学习模型的效率,并大大降低了通信轮次。

2、为了达到上述目的,本专利技术采样以下技术方案来实现。

3、本专利技术提供的基于对比学习和条件计算的个性化联邦学习方法,由中央服务器和若干客户端实现;所述中央服务器包括全局模型;所述客户端包括全局模型、对比模型和客户端本地模型;所述全局模型、对比模型和客户端本地模型网络结构相同,均包括特征提取器和头部网络;该个性化联邦学习方法包括以下步骤:

4、s1中央服务器将当前训练轮次的全局模型参数下发给选定的若干客户端;

5、s2基于对比学习和条件计算,所述客户端利用本地训练数据对当前训练轮次的客户端本地模型进行训练,并将更新后的客户端本地模型参数返回至中央服务器;该步骤包括以下分步骤:

6、s21将本地训练数据分别输入全局模型、对比模型和本地模型中;

7、s22依据全局模型、对比模型和本地模型特征提取器提取的特征获取对比损失;

8、s23依据全局模型和本地模型特征提取器提取的特征,基于条件计算获取mmd损失;

9、s24依据全局模型头部网络和本地模型头部网络得到的总输出获取分类损失;

10、s25上述对比损失、mmd损失和分类损失构成总损失;

11、s26依据总损失对本地模型参数进行优化更新;

12、重复上述步骤s21-s26,直至本地模型收敛,各客户端将训练更新后的本地模型参数上传至中央服务器;

13、s3中央服务器将接收的所有参与训练的当前训练轮次的客户端本地模型参数进行聚合,得到下一训练轮的全局模型参数,并返回至步骤s1,直至所述中央服务器的全局模型收敛。

14、上述基于对比学习和条件计算的个性化联邦学习方法,总体架构假设有一个中央服务器和n个客户端,表示为m1,...,mn。每个客户端都有一个本地的训练数据集di。第i个客户端的优化目标为:

15、

16、其中,f(·;θi)表示基于参数θi的预测函数,f(xi;·)返回softmax操作之前的“logits”,l(·,·)表示损失函数,xi表示客户端的输入数据,yi表示标签数据,表示第i个客户端的期望损失。表示第i个客户端在第t个全局训练回合中的本地模型参数。θt表示中央服务器上的全局模型参数。在第t轮的个性化学习阶段,选择st个客户端,被选择的客户端下载全局模型参数,即,其中i∈st,并使用本地的训练数据集di训练该本地模型。一个数据集(xi,yi)在上述公式中的损失如下所示:

17、

18、其中,b是数据批量的大小。可以通过深度学习的方法进行个性化,将个性化训练后的本地模型参数表示为在聚合过程中,中央服务器收到这些个性化本地模型并取参数的平均值作为全局模型参数:中央服务器会将θt+1分发给下一训练轮次的另一个客户集当中,以进行下一训练轮次的个性化和聚合。在本地客户端,为下一训练轮次的客户端本地模型参数。

19、用d、k和c分别是输入空间、特征空间和标签空间的维度。本专利技术将全局模型、对比模型和客户端本地模型网络分为特征提取器及头部两个部分,特征提取器将输入映射到特征空间,头部head从低维特征空间映射到标签空间。本专利技术将全局模型、对比模型和客户端本地模型网络给定主干网络中的最后一个全连接层视为头部。

20、本专利技术中,全局模型、对比模型和客户端本地模型使用的是vit(visiontransformer),其为一种基于transformer架构的图像分类模型。所述vit包括嵌入层、变换编码器和多层感知机(mlp);以嵌本文档来自技高网...

【技术保护点】

1.一种基于对比学习和条件计算的个性化联邦学习方法,其特征在于,由中央服务器和若干客户端实现;所述中央服务器包括全局模型;所述客户端包括全局模型、对比模型和客户端本地模型;所述全局模型、对比模型和客户端本地模型网络结构相同,均包括特征提取器和头部网络;该个性化联邦学习方法包括以下步骤:

2.根据权利要求1所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,全局模型、对比模型和客户端本地模型使用的是ViT;所述Vit包括嵌入层、变换编码器和多层感知机;以嵌入层和变换编码器作为特征提取器,以MLP作为头部。

3.根据权利要求1或2所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,所述客户端还包括CPN模块;所述全局模型和本地模型的特征提取器提取的特征经CPN进行处理后再输入相应的头部。

4.根据权利要求3所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,所述CPN模块包括全连接层、归一化层和ReLU激活函数。

5.根据权利要求3所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,步骤S21中全局模型使用的是当前训练轮次的全局模型参数,对比模型使用的是上一训练轮次的本地模型参数;本地模型使用的是当前训练轮次的本地模型参数,当前训练轮次的本地模型参数,当前训练轮次开始时,首先使用当前轮次的全局模型参数对当前训练轮次的本地模型参数进行重写。

6.根据权利要求5所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,所述全局模型参数和对比模型参数都处于冻结状态。

7.根据权利要求1所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,步骤S22中,依据全局模型、对比模型和本地模型的特征提取器提取的特征ft、和fti构建对比损失函数Lsim,加快收敛速度;

8.根据权利要求1所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,步骤S23中,为了让全局模型和本地模型特征提取器提取的特征ft和fti进行特征对齐,将二者送入MMD损失函数进行约束;

9.根据权利要求5所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,步骤S24中,使用交叉熵损失函数来对本地模型头部和全局模型头部网络的分类结果进行约束;

10.根据权利要求5所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,在本地模型训练过程中,每一轮冻结的全局模型头部与本地模型头部head相加,形成新的本地模型头部head权重进行上传,以使个性化主体部分与全局主体部分拉近距离;

...

【技术特征摘要】

1.一种基于对比学习和条件计算的个性化联邦学习方法,其特征在于,由中央服务器和若干客户端实现;所述中央服务器包括全局模型;所述客户端包括全局模型、对比模型和客户端本地模型;所述全局模型、对比模型和客户端本地模型网络结构相同,均包括特征提取器和头部网络;该个性化联邦学习方法包括以下步骤:

2.根据权利要求1所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,全局模型、对比模型和客户端本地模型使用的是vit;所述vit包括嵌入层、变换编码器和多层感知机;以嵌入层和变换编码器作为特征提取器,以mlp作为头部。

3.根据权利要求1或2所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,所述客户端还包括cpn模块;所述全局模型和本地模型的特征提取器提取的特征经cpn进行处理后再输入相应的头部。

4.根据权利要求3所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,所述cpn模块包括全连接层、归一化层和relu激活函数。

5.根据权利要求3所述的基于对比学习和条件计算的个性化联邦学习方法,其特征在于,步骤s21中全局模型使用的是当前训练轮次的全局模型参数,对比模型使用的是上一训练轮次的本地模型参数;本地模型使用的是当前训练轮次的本地模型参数...

【专利技术属性】
技术研发人员:殷康宁王治国王艳陈东升季鑫慧朱瑞
申请(专利权)人:喀什地区电子信息产业技术研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1