System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于部分历史嵌入的分布式图神经网络训练优化方法技术_技高网
当前位置: 首页 > 专利查询>吉林大学专利>正文

一种基于部分历史嵌入的分布式图神经网络训练优化方法技术

技术编号:41752079 阅读:1 留言:0更新日期:2024-06-21 21:36
本发明专利技术提供一种新的分布式图神经网络训练优化方法,涉及分布式深度学习领域。该方法根据图神经网络拓扑结构特点,量化节点中心性,在线选择部分历史嵌入代替原始数据进行训练,减少了数据传输过程中的特征传输量,保证了传输的特征量消耗相对于输入节点的数量保持常数倍或次线性,使其数据加载速度接近于完全历史嵌入训练,整体收敛精度接近于原始数据训练。

【技术实现步骤摘要】

本专利技术涉及分布式深度学习领域,尤其涉及一种基于部分历史嵌入的分布式图神经网络训练框架。


技术介绍

1、图神经网络(gnn)在分析非欧几里得图数据方面取得了很大的成功,在包括社交网络、推荐系统和知识图谱等各种应用中都取得了良好的效果。然而,在面对大规模的图数据时,现有的硬件技术,特别是显存大小成为了扩大图数据规模的阻碍。现有框架为了处理这种大规模图神经网络,采用了非全图训练方法,将图数据划分为多个子集,逐子集进行训练。进一步地,为了引入更多的计算与存储资源,加快训练速度,减少显存负担,将多个小批量并行地在多台机器上进行分布式训练。但在使用这些方法的训练过程中,在显存与内存间会存在的大量的图特征传输开销以及机器间的网络通信开销,这些为了将小批量加载进训练器而引入的数据加载开销成为了大规模图训练的性能瓶颈。部分工作采用采样的方法以减少数据加载开销,但同时会损失训练精度。因此,如何在保证精度的同时缓解该瓶颈已经成为扩大图神经网络规模的重大挑战。为了解决这一挑战,相关工作提出了使用节点历史嵌入(即中间训练状态)对非当前待训练子集内的依赖节点进行全部替换的方法,有效减小了每次迭代的数据加载量,进而提高了神经网络训练单次迭代的速度。但是,这种方法会带来不可控的训练精度损失,进而严重影响模型收敛速度与效果。由于图结构的各节点中心性具有差异,选择性地使用历史嵌入进行替换,给同时保证数据加载速度与精度带来了机会。因此,本文提出了一种基于部分历史嵌入的图神经网络在分布式环境下的训练框架。


技术实现思路

<p>1、本专利技术的目的是为了解决现有分布式图神经网络训练框架中存在的缺点,而提出的一种使用部分历史嵌入优化学习过程的方法。

2、为了实现上述目的,本专利技术采用了如下技术方案:根据图神经网络拓扑结构特点,量化节点中心性,在线选择部分历史嵌入代替原始数据进行训练,减少了数据传输过程中的特征传输量,保证了传输的特征量消耗相对于输入节点的数量保持常数倍或次线性。

3、优选的,包括以下步骤:

4、s1:图采样。采样器需要从图服务器获取图拓扑,根据用户指定的方法选择指定数量的训练顶点后,获得训练这些样本时需要的邻居节点并根据用户指定的方法选取部分邻居。

5、s2:选择性历史嵌入替换。使用选择传输算法对采样得到的子图进行分析,结合已有的历史嵌入信息,选取图中部分非核心节点,把它们标记为使用历史嵌入替换的节点。

6、s3:特征与历史嵌入收集。根据步骤s2中的标记信息,收集训练器进行训练所需要的特征以及历史嵌入,构建小批量供训练器进行训练。

7、s4:图神经网络训练。在图神经网络的前向传播结束后,将核心节点的历史嵌入回传至内存中的历史嵌入服务器。

8、s5:梯度同步与参数更新。同步各机器训练的梯度,使全局梯度一致,并进行参数更新,等待下一轮训练开始。

9、以上过程就是这个系统的整个训练流程。对比直接使用采样子图进行数据加载的方案,这个方案可以极大减小数据传输量,进而减少传输时间,同时尽可能保证这个小批量的前向计算精度,实现端到端的训练性能提升。

10、优选的,所述步骤s1中,指定的顶点选择数量为1000,顶点选择方法为多层全邻居采样。

11、优选的,所述步骤s2中,使用的历史嵌入选择算法为基于精度损失排名的历史嵌入算法。

12、优选的,所述步骤s4中,使用的模型是图卷积网络,即gcn模型。相关参数设置,图卷积网络层数为3层,隐藏特征设置为256。

13、优选的,所述步骤s5中,微调阶段继承预训练得到的所有超参数。

14、优选的,所述步骤s5中,深度学习模型采用优化器adam,学习率为1×e-4。每次迭代,反向传播时,梯度下降以此优化模型。

15、与现有技术相比,本专利技术的优点和积极效果在于,

16、本专利技术中,本优化方法不会使用额外的显存,进而不会提高神经网络训练的硬件要求。同时相比于使用舍弃部分图信息以减少节点依赖的方法,本方法引入的精度损失更小。最终,数据加载速度接近于完全历史嵌入训练,整体收敛精度接近于原始数据训练,其最高可以在单项数据集中提高50%的性能,平均约40%,并且保障精度损失在15%以内。

本文档来自技高网
...

【技术保护点】

1.一种用于分布式图神经网络的训练优化方法,量化节点中心性,在线选择部分历史嵌入代替原始数据进行训练,减少了数据传输过程中的特征传输量,保证了传输的特征量消耗相对于输入节点的数量保持常数倍或次线性,其特征在于:数据加载速度接近于完全历史嵌入训练,整体收敛精度接近于原始数据训练。

2.根据权利要求1所述的一种用于分布式图神经网络的训练优化方法,其特征在于:包括以下步骤:

3.根据权利要求2所述的一种基于部分历史嵌入的分布式图神经网络训练优化方法,其特征在于:所述步骤S2中,选择部分历史嵌入节点而不是全部历史嵌入节点进行替换。

4.根据权利要求2所述的一种基于部分历史嵌入的分布式图神经网络训练优化方法,其特征在于:所述步骤S2中,根据历史嵌入的时间戳以及神经网络参数变化的剧烈程度选择部分历史嵌入进行替换。

5.根据权利要求2所述的一种基于部分历史嵌入的分布式图神经网络训练优化方法,其特征在于:所述步骤S3中,需要收集以及传输至训练器的数据量相比于已有方法大大减小。

6.根据权利要求2所述的一种基于部分历史嵌入的分布式图神经网络训练优化方法,其特征在于:所述步骤S4中,相比于已有方法,需要将训练中间结果回传至内存。

...

【技术特征摘要】

1.一种用于分布式图神经网络的训练优化方法,量化节点中心性,在线选择部分历史嵌入代替原始数据进行训练,减少了数据传输过程中的特征传输量,保证了传输的特征量消耗相对于输入节点的数量保持常数倍或次线性,其特征在于:数据加载速度接近于完全历史嵌入训练,整体收敛精度接近于原始数据训练。

2.根据权利要求1所述的一种用于分布式图神经网络的训练优化方法,其特征在于:包括以下步骤:

3.根据权利要求2所述的一种基于部分历史嵌入的分布式图神经网络训练优化方法,其特征在于:所述步骤s2中,选择部分历史嵌入节点而不是全部历史嵌入节点...

【专利技术属性】
技术研发人员:李洪亮徐海啸韩俊泽李想徐哲文
申请(专利权)人:吉林大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1