一种联邦学习方法、装置、系统、电子设备及存储介质制造方法及图纸

技术编号:34845632 阅读:18 留言:0更新日期:2022-09-08 07:44
本公开提供了一种联邦学习方法、装置、系统、电子设备及存储介质,涉及大数据技术领域,尤其涉及机器学习技术领域。联邦学习网络中的多个终端设备按照计算资源被聚合为多个分组,每个分组中计算资源最强的终端设备为该分组的服务器,多个分组的服务器形成环状拓扑,该方法应用于服务器,包括:将上一个服务器传递的更新模型和本分组上一轮模型训练得到的更新模型聚合,得到本分组本轮模型训练的初始模型;将初始模型下发给本分组中所有终端设备,并接收本分组所有终端设备上传的本地模型;对所有本地模型聚合后得到本分组本轮模型训练的更新模型,并传递给下一个服务器。可避免设备空闲和中央服务器易崩溃的问题。备空闲和中央服务器易崩溃的问题。备空闲和中央服务器易崩溃的问题。

【技术实现步骤摘要】
一种联邦学习方法、装置、系统、电子设备及存储介质


[0001]本公开涉及大数据
,尤其涉及机器学习
的联邦学习方法、装置、系统、电子设备及存储介质。

技术介绍

[0002]联邦学习是一种机器学习范式,旨在中央服务器的协调之下利用终端设备之间的通信训练一个全局模型。在联邦学习的过程中,终端设备的训练数据始终保存在本地,不会传输给其他设备,实现了用户的数据隐私安全。现有的联邦学习可以分为同步联邦学习和异步联邦学习两种模式。

技术实现思路

[0003]本公开提供了一种联邦学习方法、装置、系统、电子设备及存储介质。
[0004]根据本公开的一方面,提供了一种联邦学习方法,联邦学习网络中的多个终端设备按照计算资源被聚合为多个分组,每个分组中计算资源最强的终端设备为该分组的服务器,所述多个分组的服务器形成环状拓扑,该方法应用于所述服务器,包括:
[0005]将上一个服务器传递的更新模型和本分组上一轮模型训练得到的更新模型聚合,得到本分组本轮模型训练的初始模型;
[0006]将所述初始模型下发给本分组中所有终端设备,并接收本分组所有终端设备上传的本地模型,所述本地模型为所述终端设备根据本地数据集对所述初始模型进行训练得到的;
[0007]对所有所述本地模型聚合后得到本分组本轮模型训练的更新模型,并传递给下一个服务器。
[0008]根据本公开的另一方面,提供了一种联邦学习装置,联邦学习网络中的多个终端设备按照计算资源被聚合为多个分组,每个分组中计算资源最强的终端设备为该分组的服务器,所述多个分组的服务器形成环状拓扑,该装置应用于所述服务器,包括:
[0009]异步单元,用于接收上一个服务器传递的更新模型;
[0010]聚合单元,用于将所述上一个服务器传递的更新模型和本分组上一轮模型训练得到的更新模型聚合,得到本分组本轮模型训练的初始模型;
[0011]同步单元,用于将所述初始模型下发给本分组中所有终端设备,并接收本分组所有终端设备上传的本地模型,所述本地模型为所述终端设备根据本地数据集对所述初始模型进行训练得到的;
[0012]所述聚合单元,还用于对所有所述本地模型聚合后得到本分组本轮模型训练的更新模型;
[0013]所述异步单元,还用于将所述聚合单元得到的更新模块传递给下一个服务器。
[0014]根据本公开的另一方面,提供了一种联邦学习系统,该系统应用于联邦学习网络,包括:聚合模块、拓扑模块和多个服务器,其中:
[0015]所述聚合模块,用于将所述联邦学习网络中的多个终端设备按照计算资源聚合为多个分组,选取每个分组中计算资源最强的终端设备作为该分组的服务器;
[0016]所述拓扑模块,用于将所述多个分组的服务器形成环状拓扑;
[0017]所述服务器,用于将上一个服务器传递的更新模型和本分组上一轮模型训练得到的更新模型聚合,得到本分组本轮模型训练的初始模型;将所述初始模型下发给本分组中所有终端设备,并接收本分组所有终端设备上传的本地模型,所述本地模型为所述终端设备根据本地数据集对所述初始模型进行训练得到的;对所有所述本地模型聚合后得到本分组本轮模型训练的更新模型,并传递给下一个服务器。
[0018]根据本公开的另一方面,提供了一种电子设备,包括:
[0019]至少一个处理器;以及
[0020]与所述至少一个处理器通信连接的存储器;其中,
[0021]所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述任一项所述的联邦学习方法。
[0022]根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述任一项所述的联邦学习方法。
[0023]根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述任一项所述的联邦学习方法。
[0024]在上述的方案中,对终端设备按照计算资源进行了聚合,一个分组内的终端设备的计算资源差别很小,可以有效解决现有联邦学习模式下设备空闲的问题;另外,异步通信发生在环状拓扑中的各个服务器之间,且各个服务器之间模型的传递方式是依次传递,因此,各服务器均不存在由于终端设备的频繁交互导致的崩溃问题。
[0025]应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0026]附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0027]图1是根据本公开实施例提供的联邦学习网络的示意图;
[0028]图2是根据本公开实施例提供的联邦学习方法的流程示意图;
[0029]图3是根据本公开实施例提供的对数组进行一轮优化的过程示意图;
[0030]图4是根据本公开实施例提供的确定数组初始位置的适应度值的流程示意图;
[0031]图5是根据本公开实施例提供的联邦学习装置的结构示意图;
[0032]图6是根据本公开实施例提供的联邦学习系统的结构示意图;
[0033]图7是用来实现本公开实施例的联邦学习方法的电子设备的框图。
具体实施方式
[0034]以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0035]在联邦学习网络中,由于资源异构的影响,导致各终端设备的计算资源不同、即算力不同,那么不同的终端设备在同一个模型训练任务中所花费的时间不同。在同步联邦学习模式下,中央服务器需要等待所有的终端设备将其本地训练的模型上传之后,才会进行聚合,如此,算力弱的终端设备就会掉队,这在数百个终端设备的场景下尤其常见,使得算力强的终端设备出现空闲现象;而在异步联邦学习模式下,中央服务器不需要等待掉队的终端设备,只需要在部分终端设备上传了本地训练的模型后即可聚合,如此,算力强的终端设备与中央服务器的交互非常的频繁,容易造成中央服务器的崩溃,同时,与算力强的终端设备相比,算力弱的终端设备上传的模型往往是过时的,这影响了全局模型的收敛性。
[0036]为了避免现有联邦学习模式下设备空闲和中央服务器容易崩溃的问题,如图1所示,本公开一实施例提供了一种新的联邦学习网络,包括多个终端设备,按照计算资源(即算力),这些终端设备被聚合成多个分组,分组内的终端设备的算力差异较小。每个分组中计算资源最强的终端设备可作为该分组的服务器,分组内按照同步联邦学习模式进行模型训练。各个分组的服务器构成一个环状拓扑,服务器之间异步通信进行模型训练。
[0037]基于图1所示的联邦本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种联邦学习方法,联邦学习网络中的多个终端设备按照计算资源被聚合为多个分组,每个分组中计算资源最强的终端设备为该分组的服务器,所述多个分组的服务器形成环状拓扑,该方法应用于所述服务器,包括:将上一个服务器传递的更新模型和本分组上一轮模型训练得到的更新模型聚合,得到本分组本轮模型训练的初始模型;将所述初始模型下发给本分组中所有终端设备,并接收本分组所有终端设备上传的本地模型,所述本地模型为所述终端设备根据本地数据集对所述初始模型进行训练得到的;对所有所述本地模型聚合后得到本分组本轮模型训练的更新模型,并传递给下一个服务器。2.根据权利要求1所述的方法,所述将本分组本轮模型训练的更新模型传递给下一个服务器之后,本分组本轮的模型训练完成,该方法还包括:重复执行多轮所述模型训练,直至本分组的更新模型收敛;计算资源最弱的分组的更新模型收敛时,该收敛的更新模型为全局模型。3.根据权利要求1所述的方法,所述多个分组的服务器形成环状拓扑,包括:所述多个分组的服务器按照计算资源由强到弱依次连接,且计算资源最弱的服务器连接计算资源最强的服务器,形成所述环状拓扑。4.根据权利要求1至3任一项所述的方法,所述将本分组本轮模型训练的更新模型传递给下一个服务器,包括:得到本分组本轮模型训练的更新模型时,启动计时器,响应于所述计时器记录的等待时间到时,将该更新模型传递给下一个服务器,并进行本分组下一轮的模型训练。5.根据权利要求4所述的方法,还包括:获取所述计时器记录的等待时间,包括:构建多个数组,并初始化每个数组的位置和速度,所述数组由除计算资源最弱的服务器以外的各服务器的等待时间变量组成,所述数组的位置指示各服务器的等待时间,所述数组的速度表征该数组在当前位置下对于目标位置的需求程度;对每个数组进行多轮优化,直至所有数组的位置相同,则该位置中包含的服务器的等待时间为相应的服务器的计时器记录的等待时间。6.根据权利要求5所述的方法,对所述数组进行一轮优化,包括:确定所述数组本轮的初始位置的适应度值,所述适应度值表征数组的当前位置与目标位置之间的距离;将所述数组的最小适应度值对应的初始位置,确定为所述数组当前的历史最优位置;确定本轮所有数组的初始位置的适应度值,将本轮适应度值最小的数组的初始位置作为当前的全局最优位置;根据所述全局最优位置,以及所述数组本轮的初始位置、本轮的初始速度和历史最优位置确定所述数组本轮的更新速度,作为所述数组下一轮的初始速度;根据所述数组本轮的初始位置和本轮的初始速度确定所述数组本轮的更新位置,作为下一轮的初始位置。7.根据权利要求6所述的方法,所述确定所述数组本轮的初始位置的适应度值,包括:对...

【专利技术属性】
技术研发人员:刘吉李广昊窦德景
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1