System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于纳什谈判理论的联邦学习激励方案制造技术_技高网
当前位置: 首页 > 专利查询>四川大学专利>正文

一种基于纳什谈判理论的联邦学习激励方案制造技术

技术编号:45000657 阅读:4 留言:0更新日期:2025-04-15 17:14
本发明专利技术提出了一种基于纳什谈判理论的联邦学习激励方案,旨在优化数据提供方与请求方之间的协作。通过引入SC‑NBTI协议,并结合IPFS分布式文件系统,实现了高效的任务管理和执行。为了提升通信效率和保护数据隐私,采用概率稀疏矩阵压缩技术来减少梯度传输的数据量和通信成本。针对复杂的纳什谈判解,本发明专利技术提出了一种贪心的客户端选择策略,并结合奖金支付策略,简化了解算过程,确保了联邦学习参与各方收益平衡。这种方法不仅提高了资源分配效率,还保证了所有参与者获得公平回报。SC‑NBTI被部署在区块链上,利用其透明、不可篡改的特点,实现了自动化管理,增强了任务的可追溯性和可验证性,减少了纠纷和违约风险。这种设计确保了联邦学习任务的高效进行。

【技术实现步骤摘要】

本专利技术涉及数据共享领域,尤其涉及联邦学习,具体是一种基于纳什谈判理论的联邦学习激励方案


技术介绍

1、为了保护数据隐私安全并解决数据孤岛问题,研究者们提出了联邦学习的概念。联邦学习是一种新兴的机器学习范式,允许多个参与方在不共享原始数据的情况下共同训练模型,从而避免了数据泄露的风险。这种方法通过在本地训练模型并将更新的模型参数发送到中央服务器来实现,从而在保护数据隐私的同时,实现了数据的共享和协作。

2、然而,在真实的数据共享场景中,联邦学习的数据请求方往往要考虑到如何激励数据提供方参与联邦学习的问题。数据提供方可能拥有宝贵的数据资源,但由于数据隐私和安全性等问题,他们可能不愿意直接共享数据。因此,数据请求方需要制定合适的激励机制,以鼓励数据提供方参与联邦学习。这可能包括提供数据交换、模型训练结果共享或经济奖励等方式,以便更好地促进数据的共享和合作,从而提高联邦学习的效果和效率。。

3、kang[57]提出了一个基于声誉系统的激励方案,利用了三重权重主观逻辑模型(twsl)来精确管理车辆的声誉。车辆可以根据其与其他车辆的交互历史计算出的声誉值来选择最佳的数据提供者,从而确保获取高质量的共享数据。zeng[34]针对移动边缘计算环境中的联邦学习,设计了一种多维拍卖激励方案。通过考虑数据质量、计算资源和网络条件等多个维度,该方案有效地激发了参与者的积极性,同时优化了资源分配,提高了系统效率。deng[58]着重于联邦学习中的质量感知问题,通过引入精确的用户激励和模型聚合机制,确保了数据质量的提升。同时,通过奖励高质量数据贡献者,鼓励了更多用户参与,从而加强了模型的整体性能和公平性。zhu[28]使用stackelberg博弈来研究联邦学习的激励机制,该方法通过对联邦学习中可用客户端的能耗的实时调整,达到提升模型准确率与资源使用效率的目的。zhan[36,59]通过深度强化学习方法为边缘学习设计了一种高效的激励机制。这种机制能够动态调整激励策略,以适应不断变化的网络环境和用户行为,从而优化资源分配,提高学习效率。lim[35]使用联盟博弈理论根据边际贡献来奖励联邦学习参与者,并通过合并与分裂算法来模拟动态决策过程,实现了在变化的网络状况下优化收益并形成稳定联盟结构的目标。ding[60]提出了一种考虑不完全信息下多维信息的契约理论激励机制。然而,根据分析研究以及实验结果表明,当本地数据集为独立同分布时,契约理论激励机制在弱不完全信息和完全信息下均能很好地发挥作用。而在非独立同分布(non-iid)环境中,契约理论的激励机制表现较差。

4、通过对上述研究进行分析可以发现,现有的激励机制都没有充分地考虑通信效率以及non-iid数据场景的问题。同时,他们往往是基于非合作博弈的方式设计的激励机制。非合作博弈意味着他们往往只能表征联邦学习参与各方的结构化交互,对于非结构化交互设置不友好。从一定程度上拔高了联邦学习的准入门槛,导致优质数据提供方的流失。此外,现有研究中的效用函数一般包含了二次或对数成本,这通常无法保障纳什均衡的唯一性。


技术实现思路

1、本专利技术的目的在于提出一种基于纳什谈判理论的联邦学习激励方案用于解决联邦学习场景下的激励不足问题,通过本专利技术提出的方案,可以鼓励更多的用户参与到联邦学习任务当中,从而提高模型准确率。

2、本专利技术的目的是这样达到的:

3、本专利技术首先通过对数据请求方和数据提供方的建模,将激励问题转化为寻找博弈各方的nbs解的问题。然后通过本章提出的客户端选择策略,将复杂的nbs解的计算简化为nbs解的近似,极大地提高了计算速度,保障了联邦学习的效率。

4、具体方式如下:

5、一种基于纳什谈判理论的联邦学习激励模型,包括如下步骤:

6、步骤1、数据请求方创建联邦学习任务并向相关社区广播数据请求信息,数据请求信息中包含任务id、任务预算、请求的数据规模等信息;

7、步骤2、数据提供方把本轮模型上传到ipfs,把ipfs的地址交给sc-nbti管理,同时支付本轮的模型奖励金;

8、步骤3、接收消息的成员们根据自身情况估算计算成本与通信成本,并根据其总成本给出一个最低报价,并将报价和本地数据规模上传至共享平台;

9、步骤4、nbti智能合约按照贪心策略选取数据提供方集合,并向被选中的数据提供方推送本轮ipfs地址;

10、步骤5、被选择的数据提供方从ipfs下载本轮模型参数;

11、步骤6、数据提供方利用本地数据对模型进行训练。并将训练结果进行稀疏化处理。

12、步骤7、数据提供方将稀疏化处理后的梯度更新上传至ipfs,并把ipfs地址放在区块链上。

13、步骤8、数据请求方从ipfs中取出各数据提供方上传的本轮模型梯度更新。

14、步骤9、数据请求方根据本轮梯度更新做模型聚合

15、步骤10、数据请求方核算本轮模型收益

16、步骤11、数据请求方将本轮的模型收益上传至nbti

17、步骤12、nbti智能合约根据本轮收益等分奖金

18、步骤13、重复步骤(2)-(12)直至模型收敛或达到指定迭代次数进一步地,如果数据提供者m决定参与第t轮联邦学习,对于m来说,他的效益就是他参与此轮联邦学习获得的奖励很显然应大于等于0。与此同时,他会产生相应的成本其中表示计算开销,表示通信开销。

19、我们定义布尔变量用于指示数据提供者m是否参加第t轮联邦学习:如果参加,则否则对于第t轮中的任意客户端m,其收益取决于他获得的奖励与他花费的成本,具体可以表示为:

20、

21、进一步地,所述步骤1中数据请求者的收益可以描述为:

22、

23、进一步地,所述步骤3中的谈判可以描述为以下优化问题:

24、

25、进一步地,上述优化可以描述为:

26、

27、进一步地,所述步骤4中贪心策略主要依赖于概率选择策略,数据提供方m被选择的概率为:

28、

29、进一步地,通过对上述条件的整合,优化问题可以描述为:

30、

31、进一步地,通过引入拉格朗日乘子θ和来约束和

32、

33、进一步的,对上述问题求解,可以得到:

34、

35、根据这个闭合形式的解,可以实现对客户端选择阶段挑选出的数据提供方们计算最优支付价格:

36、

37、本专利技术的积极效果是:

38、本专利技术将纳什谈判理论引入到激励机制中,构建了一个合作博弈激励模型nbti,降低了联邦学习的准入门槛,扩充了联邦学习的参与池。随后,为了简化纳什谈判解的复杂计算,本专利技术提出了一种基于贪心策略的客户端选择方案并基于此方案挑战奖励金支付策略,降低了计算的复杂度,保障了联邦学习的顺利进行。结果表明,本专利技术所提出的本文档来自技高网...

【技术保护点】

1.一种基于纳什谈判理论的联邦学习激励方案,其特征在于,所述方法包括以下步骤:

【技术特征摘要】

1.一种基于纳什谈判理论的联邦学习激励方...

【专利技术属性】
技术研发人员:陈良银李佳壕陈彦如李京鹏钟旺李春江黄宇辰沈立
申请(专利权)人:四川大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1