【技术实现步骤摘要】
一种基于残差网络的高准确率和高效通信的联邦平均算法
[0001]本专利技术涉及计算机
,具体涉及一种基于残差网络的高准确率和高效通信的联邦平均算法
。
技术背景
[0002]在数据经济时代,如何从大量数据中充分挖掘有用信息关系着众多企业的命脉
。
从传统的机器学习到如今的人工智能数据仍是核心地位
。
现实是,除了少数巨头企业拥有了大量的数据,绝大部分企业拥有的数据不仅量少且质量差,因此不足以支撑人工智能的实现
。
在传统方法中,通常是把各参与方的数据整合到服务器进行训练并得到模型
。
但由于数据存在的巨大的潜在价值,以及陆续出台的针对加强数据保护的相关政策,公司之间乃至公司内的部门之间往往不会提供自己的数据与其他的做聚合
。
因此由于用户隐私
、
商业机密和政策约束便引发了数据孤岛问题
。
那么如何联合不同组织与机构整合他们拥有的原始数据,共同训练出一个效果好能力强的模型迫在眉睫
。
[0003]基于上述背景,联邦学习应运而生,它是一种新的机器学习模式,各参与的客户端可借助其他方数据进行联合建模,而数据却保留在本地进行本地训练,客户端与服务器之间仅交换网络模型的参数,这样便在不暴露私有数据的前提下建立共享的机器学习模型
。
联邦学习通常迭代以下四个步骤:
1.
客户端向服务器索要模型参数,服务器把最新模型参数给客户端;
2.
客户 ...
【技术保护点】
【技术特征摘要】
1.
一种基于残差网络的高准确率和高效通信的联邦平均算法,其特征在于,具体包括以下步骤:步骤
1、
服务器对
MNIST
数据集进行
IID
和
Non
‑
IID
划分,并分配到各客户端上;步骤
2、
每个客户端本地构建残差网络模型,具体包括如下子步骤:步骤
21
,选择
ResNet18
作为残差网络模型的主干网络;步骤
22
,基于主干网络,构建
ResNet18
‑
E
的具体网络结构;所述
ResNet18
‑
E
包括依次连接的3×3卷积层
、
卷积组
Stage1、Stage2、Stage3
和线性层,其中:所述卷积组
Stage1、Stage2、Stage3
均包含两个残差块,每个残差块包括两个相同通道数的3×3卷积层,每个所述卷积层后接一个
Batch Normalization
层和
ReLU
激活函数;并将该残差块的输入跳跃加在其第二个卷积层后的
Batch Normalization
层和
ReLU
激活函数之间;另外,在
Stage2
的第一个残差块和
Stage3
的第一个残差块分别增加一个下采样结构;所述线性层为两个依次连接的线性层;步骤
3、
设置服务器和客户端之间通信轮数
R
,在每一轮通信中服务器随机选择所有客户端
C
中的
K
个参与该轮通信,并向选中的客户端发送其存储的全局模型的参数;步骤
4、
被选中的客户端下载全局模型的参数,在预设的本地迭代次数内进行本地机器学习训练;训练过程中用交叉熵损失函数计算网络损失,反向传播计算梯度,最后用随机梯度下降算法不断更新本地模型精度,得到各自对应的训练好的模型参数;步骤
5、
当这
K
个客户端更新结束后,它们分别将本地训练好的模型参数上传给服务...
【专利技术属性】
技术研发人员:王海,李蕊,郝明远,张寅,袁浩博,马于惠,
申请(专利权)人:西北大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。