System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及智能机器人,具体而言,尤其涉及一种基于多层网络以及差异累计策略的智能机器人动态协作方法。
技术介绍
1、目前,智能机器人可应用于多个领域,比如港口物流和无人机组装。在快速发展的全球贸易中,港口作为货物运输的关键节点,对效率和可靠性的要求极高。传统的港口搬运工作依赖大量人力和简单机械,面临效率低下、安全风险高、成本昂贵等问题。虽然引入智能机器人在一定程度上缓解了上述问题。但是港口地形、天气情况复杂,不适合以有线方式控制机器人。无人机形状组装是一个新兴领域,目前主要集中在研究和开发阶段。这种技术允许无人机在飞行中改变形状,以适应不同的环境和任务需求。然而,这一领域面临着若干挑战。首先,形状变化增加了无人机系统的复杂性,需要复杂的控制算法。此外,无人机形状组装的应用还受到技术限制,尤其当采用全局分配任务算法时,对无人机间的通信、信息传递有极高的要求。
2、现有的控制机器人的方法中,复杂网络和多层网络的研究在近年来得到了显著的发展,特别是在演化博弈理论的应用方面。大量新网络模型的提出不仅提供了理解多种现实世界复杂系统的框架,还在生物学、社会科学、经济学和技术网络的分析中显示出其独特的价值。多层网络特别关注不同类型网络层之间的交互作用,如何影响整体网络的动态和功能。通过模拟这些层之间的相互作用,研究人员能够更好地解释系统如何在多个层面上协同作用。
3、演化博弈理论的引入,为理解复杂决策过程和竞争行为提供了强大的工具。不仅增进了对网络行为的理解,还推动了新算法的开发,这些算法现在正被用于优化网络设计、增
4、但是目前同时结合多层网络和演化博弈的研究较少,结合的往往都只考虑简单迁移单层复杂网络上的结论或是忽视策略差异盲目累加多层上的收益。这些举动都是与现实存在一定差距的,这些差距使现行算法在提高群体合作率方面过于依赖外界参数传递且是表现一般,从而提升后续操作的要求,给后续实验带来麻烦。
技术实现思路
1、有鉴于此,本专利技术的目的在于提出一种基于多层网络以及差异累计策略的智能机器人动态协作方法,通过实时反馈和持续的演化算法不断优化自己的行为策略,以适应不断变化的工作环境和任务需求。
2、本专利技术采用的技术手段如下:
3、一种基于多层网络以及差异累计策略的智能机器人动态协作方法,包括如下步骤:
4、s1、获取智能机器人的当前网络特征,基于当前网络特征采用gm算法建立多层网络模型;
5、s2、根据当前网络特征选择博弈模型、博弈矩阵参数和博弈混合比例,获得博弈矩阵;初始化机器人策略;
6、s3、所有智能机器人在多层网络模型的所有网络层中与自己交互范围内其他的智能机器人进行博弈交互;
7、s4、根据当层博弈矩阵计算博弈收益、适应度,使用差异累计策略修正适应度;
8、s5、依照s4修正后的适应度更新s2的机器人策略;
9、s6、判断系统是否到达稳态,如果到达,结束博弈,若未到达,返回s3。
10、进一步地,s1具体包括如下步骤:
11、s11、使用barabási-albert model生成n个包含n个节点的ba网络,使得ba网络中每一层上的节点和机器人的数量和位置一一对应,初始化ba网络中每个节点的交互半径参数ri;根据ba网络中获得各个节点的度k和网络的度分布情况;
12、s12、计算任意相邻ba网络之间节点的连接概率,并根据连接概率对连接相邻的ba网络,其中节点i和节点j连接概率的计算方式为:
13、
14、其中,参数t∈[0,1)控制网络的聚集程度,当t=0时,网络的聚集系数最大;参数r~lnn;xij用来表示i和j之间的双曲距离,计算公式如下:
15、xij=ri+rj+2lnsin(δθij/2)
16、δθij=kikj/(lili)
17、其中,ri抽象表示节点i的交互半径,ri的值越小,表示节点的交互半径越大;δθij用来表示节点之间的度相似程度,ki表示i的度,li表示i所处的网络的总连接数;
18、s13、使用xalvi-brunet and sokolov算法对s12连接好的多层网络进行调整;随机选取性质相同的两条边ab,cd,交换节点获得ac,bd;
19、s14、重新统计变更后的多层网络的特性,如果新特性相较于之前更趋近于s1的当前网络特征,则保留此次变化,否则舍弃;
20、s15、判断s14生成的网络模型是否等于或趋近s1的当前网络特征;若是,则结束流程,获得多层网络模型;若否,则返回s13继续调整。
21、进一步地,s2中,根据实际数据对博弈矩阵进行赋值,所述博弈模型包括囚徒困境矩阵和公共物品博弈,囚徒困境矩阵和公共物品博弈仅在同一层次的个体间中发生;
22、s2具体包括如下步骤:
23、s21、初始化囚徒困境博弈参数;囚徒困境博弈参数包括奖励r、惩罚p、诱惑t和双输s的具体数值;初始化过程中,使t>r>p>s和t+s<2r;
24、s22、初始化公共物品博弈参数;公共物品博弈参数包括贡献值c、收益b和增长系数r;
25、s23、设置不同博弈占比比例p,使占比为p的网络层次在博弈中采用囚徒困境博弈模型。
26、进一步地,s3具体包括如下步骤:
27、s31、对所有层次上的点的初始策略进行初始化,每个点有相同的概率选择合作c或背叛d,同一个机器人在不同网络层中的策略相互独立;
28、s32、初始化所有层次上的点采用差异累计策略的倾向为p∈(0,1],参数分布服从正态分布;
29、s33、所有层次上的点和自己交互半径内其余的点进行博弈;如果该层采用的是囚徒博弈,收益矩阵为:
30、
31、
32、节点根据自己和交互对象的策略确定自己的收益πijl,i和j代表进行交互的两个个体,l代表了所在的网络层次;如果该层为公共物品博弈,收益计算公式如下所示,i和j代表了节点i参与了以j为中心的博弈,l代表了所在的网络层次;
33、
34、进一步地,s4具体包括如下步骤:
35、s41、计算节点在m层上的收益:
36、
37、s42、根据博弈收益层次收益和层次权重获得适应度,公式如下:
38、
39、s43、根据节点采用差异累计策略的趋向判断是否对适应度进行修正,若采用,则:
40、
41、其中,s代表中心节点采用的策略,代表与中心节点采用不同的策略;
42、否则,适应度不变。
43、进一步地,s5具体包括如下步骤:
44、s51:节点i在其交互范围内随机选择一个对象节点j,获得其适应度u;
45、s52:计算策略模仿本文档来自技高网...
【技术保护点】
1.一种基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,包括如下步骤:
2.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S1具体包括如下步骤:
3.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S2中,根据实际数据对博弈矩阵进行赋值,所述博弈模型包括囚徒困境矩阵和公共物品博弈,囚徒困境矩阵和公共物品博弈仅在同一层次的个体间中发生;
4.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S3具体包括如下步骤:
5.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S4具体包括如下步骤:
6.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S5具体包括如下步骤:
7.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,S6具体包括如下步骤:
8.一种存储介质,其
9.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序运行执行所述权利要求1至7中任一项权利要求所述的基于多层网络以及差异累计策略的智能机器人动态协作方法。
...【技术特征摘要】
1.一种基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,包括如下步骤:
2.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,s1具体包括如下步骤:
3.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,s2中,根据实际数据对博弈矩阵进行赋值,所述博弈模型包括囚徒困境矩阵和公共物品博弈,囚徒困境矩阵和公共物品博弈仅在同一层次的个体间中发生;
4.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,s3具体包括如下步骤:
5.根据权利要求1所述的基于多层网络以及差异累计策略的智能机器人动态协作方法,其特征在于,s4具体包括如...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。