System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于通信网络,具体涉及一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法。
技术介绍
1、随着5g网络的标准化和广泛部署,面向2030年及未来的6g将在5g的增强移动宽带、低时延高可靠连接、海量机器类通信三大典型场景基础上不断扩展。作为6g的新增典型场景之一,普惠智能服务依托网络对需要进行高效分布式智能学习或推理的智能化服务提供集成化的通信和ai算力。它不仅服务于特定应用,还将服务于未来整个通信系统,提高网络整体的性能和效率。在该场景中,将允许网络中各式各样的设备参与ai的开发和使用,使快捷灵活的智能服务覆盖社会各个领域。
2、然而,不论何时何地,任何单个网元都会面临有限的算力、智能和电量等挑战。针对ai模型训练和推理、全息通信、沉浸式云xr(extendedreality,扩展现实)等智能服务带来的极高通信需求和庞大算力消耗,需要泛在分布的各个网元中的算力、算法、数据等资源和功能能够高效协同运作。换句话说,为了实现智能普惠和连接智能,保障未来网络中ai等计算类服务的质量,6g网络需要从传统的信息传输基础设施转变为同时提供连接和计算服务的新型基础设施,即算力网络。该网络能够根据业务需求在云、边、端之间按需分配和灵活调度计算资源、存储资源以及网络资源,实现通算深度融合,通过连接泛在的算力,发挥算力的集群优势,从而构建高效、节能、安全且灵活的ai服务和开放生态。
3、在6g算力网络中开发ai业务时,主要通过联邦学习(federated learning,fl)和拆分学习(split le
4、因此,如何解决合理分配通信以及计算多维资源问题是本专利技术想要解决的技术问题。
技术实现思路
1、本专利技术的目的在于提供一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,以解决上述
技术介绍
中提出的问题以及现有技术的不足。
2、本专利技术目的是这样实现的:一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,其特征在于:该方法包括如下步骤:
3、步骤s1:建立6g算力网络模型,并构建面向分布式ai训练业务的自适应拆分联邦学习模型;
4、步骤s2:定义无线通信模型,对各智能终端在模型训练阶段和模型聚合阶段中的时延进行分析;
5、步骤s2-1:对各智能终端在模型训练阶段的时延进行分析;
6、步骤s2-2:对各智能终端在模型聚合阶段的时延进行分析;
7、步骤s3:构建业务总时延最小化优化问题;将业务总时延最小化优化问题转化为两个子问题,两个子问题包括子问题1和子问题2,子问题1为优化每一轮训练迭代中模型训练阶段的训练时延问题,子问题2为优化模型聚合阶段的传输时延问题;
8、步骤s4:利用最短路径搜索算法对模型训练阶段和模型聚合阶段的模型分割方式、协作节点选择与多域资源调度方式进行联合优化。
9、优选的,所述6g算力网络模型包括一个中心云服务器、n个基站和k个智能终端,基站用集合用表示,每个基站n配备一个移动边缘计算服务器,移动边缘计算服务器拥有计算资源和存储资源,计算资源用fn表示,存储资源用mn表示;
10、所述智能终端用集合集合表示,每个智能终端k拥有的计算资源和存储资源用fk和mk表示;
11、拥有的本地数据集用表示,其中dk表示样本数量,和分别表示对应样本输入特征和输出标签,q表示样本输入特征的维度,且令表示所有智能终端的总数据集大小;
12、智能终端的计算资源和存储资源和基站的计算资源和存储资源的大小关系为
13、优选的,所述步骤s2-1中对各智能终端在模型训练阶段的时延进行分析,具体为:
14、步骤s2-1-1:确定在模型训练阶段智能终端k的本地损失函数以及dnn模型的分割层集合;
15、每个智能终端k的本地损失函数其中,l(w;xi,yi)表示样本损失函数,xi为样本输入特征,yi为样本输出标签;w为模型参数;
16、用表示dnn模型中可选择的分割层集合,用表示终端k的模型训练分割层选择;
17、步骤s2-1-2:划分每个终端k的模型训练时延划分训练模式,确定各个训练模式的更新方式;
18、所述训练模式包括训练模式1、训练模式2以及训练模式3,将完全通过本地进行模型训练的训练模式为训练模式1,通过边-端协作进行模型训练的训练模式为训练模式2,通过边-端协作和边-边协作的训练模式为训练模式3;
19、训练模式1的智能终端子集合为智能终端k在第t轮迭代中的本地模型参数表示为每个智能终端k通过随机梯度下降方法行本地模型参数的更新:
20、
21、其中,ηl表示模型在本地训练的学习率,表示智能终端k计算的本地模型梯度;为智能终端k的本地损失函数关于模型参数的偏导数向量;
22、训练模式1中只包括本地模型训练时延,本地模型训练时延
23、其中,其中ζlfb表示处理一个数据样本的正向和反向传播过程的计算量。
24、优选的,所述训练模式2的智能终端子集合为智能终端k在第t轮迭代中的本地模型参数表示为其中和分别表示训练模式2终端侧模型和训练模式2基站侧模型;
25、在训练模式2中,需要对训练模式2终端侧模型进行训练,训练模式2终端侧模型时延其中,表示处理一个数据样本的训练模式2终端侧模型正向传播过程的计算量;
26、训练模式2终端侧模型的分割层输出数据通过下式得到:
27、
28、其中,f(x;w)表示在给定模型参数w下输入x与输出s之间的映射函数;
29、将和yi传输给基站n的时延其中,二元变量用于指示终端k是否选择基站n进行接入,如果是则为1,否则为0;表示接入基站子集合,表示一个数据样本的分割层数据大小;
30、训练模式2终端侧模型利用sgd进行训练模式2终端侧模型更新,更新公式为:
31、
32、时延
33、其中,表示处理一个数据样本的训练模式2终本文档来自技高网...
【技术保护点】
1.一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:该方法包括如下步骤:
2.根据权利要求1所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述6G算力网络模型包括一个中心云服务器、N个基站和K个智能终端,基站用集合用表示,每个基站n配备一个移动边缘计算服务器,移动边缘计算服务器拥有计算资源和存储资源,计算资源用Fn表示,存储资源用Mn表示;
3.根据权利要求1所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述步骤S2-1中对各智能终端在模型训练阶段的时延进行分析,具体为:
4.根据权利要求3所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述训练模式2的智能终端子集合为智能终端k在第t轮迭代中的本地模型参数表示为其中和分别表示训练模式2终端侧模型和训练模式2基站侧模型;
5.根据权利要求3所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述训练模式3的智能终端子集合为
6.根据权利要求1所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述步骤S2-2中对各智能终端在模型聚合阶段的时延进行分析,具体为:
7.根据权利要求1所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述业务总时延最小化优化问题为:
8.根据权利要求1所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述步骤S4中利用最短路径搜索算法对模型训练阶段和模型聚合阶段的模型分割方式、协作节点选择与多域资源调度方式进行联合优化,具体为:
9.根据权利要求8所述的一种面向分布式AI训练业务的6G算力网络自适应拆分联邦学习方法,其特征在于:所述步骤S4-3中选择最短路径搜索算法优化子问题2中模型分割方式选择和协作节点选择,具体为:
...【技术特征摘要】
1.一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,其特征在于:该方法包括如下步骤:
2.根据权利要求1所述的一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,其特征在于:所述6g算力网络模型包括一个中心云服务器、n个基站和k个智能终端,基站用集合用表示,每个基站n配备一个移动边缘计算服务器,移动边缘计算服务器拥有计算资源和存储资源,计算资源用fn表示,存储资源用mn表示;
3.根据权利要求1所述的一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,其特征在于:所述步骤s2-1中对各智能终端在模型训练阶段的时延进行分析,具体为:
4.根据权利要求3所述的一种面向分布式ai训练业务的6g算力网络自适应拆分联邦学习方法,其特征在于:所述训练模式2的智能终端子集合为智能终端k在第t轮迭代中的本地模型参数表示为其中和分别表示训练模式2终端侧模型和训练模式2基站侧模型;
5.根据权利要求3所述的一种面向分布式ai训练业务的6g算力网络自适应拆分联...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。