System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于互信息最大化的图表示学习方法及装置制造方法及图纸_技高网

一种基于互信息最大化的图表示学习方法及装置制造方法及图纸

技术编号:40318401 阅读:13 留言:0更新日期:2024-02-07 21:01
本发明专利技术公开了一种基于互信息最大化的图表示学习方法及装置,通过最大化子图和原图之间的互信息,构建图数据信息提取网络,以便更好的提取拓扑图数据中的关键信息,避免有效信息的丢失。同时,本发明专利技术实施例采用自回归子图生成器获取子图,并通过属性卷积算子、层卷积算子和聚合卷积算子得到图表示,使最终获得的图表示可以表达图数据更多的重要信息。

【技术实现步骤摘要】

本专利技术属于图数据分析,具体涉及一种基于互信息最大化的图表示学习方法及装置


技术介绍

1、具有拓扑结构的图数据(即拓扑图)通常指:图中包含有节点和边,节点和边的排列方式或连接方式具有特定的拓扑性质。这种类型的图数据在网络、电路设计、计算机科学、城市轨道交通网和其他领域中经常出现。

2、图表示学习是一种机器学习领域的研究方向,旨在将拓扑图中的节点或边转化为低维向量表示,以便进行各种机器学习任务,如节点分类、链接预测、社区检测等。图表示学习的目标是捕获拓扑图中的结构和关系,并将其转化为向量表示,以便计算机可以更好地理解和处理拓扑图。

3、目前,随着深度学习模型的进步,图表示学习方法得到充分的提升和扩展,其中,互信息作为一种重要的信息度量,对图表示学习的发展做出了重大贡献。现有的基于互信息最大化的图表示学习方法旨在最大化节点表示和图级表示之间的互信息,使得学习到的图表示可以富含更多原图中的关键信息,从而在下游任务中表现出色。

4、但是,现有互信息最大化的方法采用的方式均为最大化点和图表示之间的互信息,而这会丢失掉拓扑图数据的结构信息,使得模型提取信息能力不足,即点-图模型与最优解之间有很大的差距,使学习到的图表示丢失大量关键信息。


技术实现思路

1、本专利技术实施例中提供了一种基于互信息最大化的图表示学习方法及装置,以解决采用现有互信息最大化方法获得的图表示丢失大量关键信息的问题。

2、为了解决上述技术问题,本专利技术实施例公开了如下技术方案:

3、本专利技术的一个方面提供一种基于互信息最大化的图表示学习方法,应用于具有拓扑结构的拓扑图数据,包括:

4、获取多个拓扑图数据作为训练数据;

5、针对每个训练数据,均按照以下方式进行处理,获得读出图表示和重建图表示:

6、采用预设的属性卷积算子,将所述训练数据转化为融合有边嵌入向量的初始节点嵌入向量;

7、将所述初始节点嵌入向量输入到预设的图数据信息提取网络,得到所述图数据信息提取网络中每一层的节点嵌入向量;

8、通过预设的层卷积算子将每一层的节点嵌入向量聚合为最终节点嵌入向量;

9、利用读出函数获得最终节点嵌入向量的图表示,作为所述训练数据的读出图表示;

10、基于预设的自回归子图生成器,根据最终节点嵌入向量生成所述训练数据的预设数量个子图的节点嵌入向量;

11、采用读出函数分别获取每个子图节点嵌入向量的图表示;

12、基于预设的聚合卷积算子对所有子图的图表示进行聚合处理,得到所述训练数据的重建图表示;

13、利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络;

14、将目标图数据输入到优化后的图数据信息提取网络,获得目标图数据的图表示。

15、可选地,所述采用预设的属性卷积算子,将所述训练数据转化为融合有边嵌入向量的初始节点嵌入向量,包括:

16、按照以下方式,利用多层感知机网络将所述训练数据转化为节点嵌入向量和边嵌入向量:

17、

18、

19、其中,和分别为节点嵌入向量和边嵌入向量;mlpv为节点的多层感知机网络,mlpe为边的多层感知机网络,xv为所述训练数据节点的表示,xe为所述训练数据边的表示;agg(.)为将边嵌入向量聚合到相应节点嵌入向量中的算子;r为实数集;d为节点嵌入向量或边嵌入向量的维度;

20、按照以下方式,基于预设的属性卷积算子将边嵌入向量融合到节点嵌入向量,得到融合后的初始节点嵌入向量:

21、

22、其中,x(0)为融合后的初始节点嵌入向量;fa为预设的属性卷积算子。

23、可选地,所述利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络,包括:

24、按照以下方式构建损失函数:

25、

26、其中,i(x;y)为随机变量x和y之间的互信息;

27、

28、其中,ep为在分布p下的期望值;g为所有训练数据;

29、sp(x)=log(1+ex)为softplus函数,t(·,·)为互信息估计器网络;h(g)为读出图表示;为重建图表示。

30、可选地,所述利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络,还包括:

31、根据打乱函数,分别将每个训练数据初始节点嵌入向量中不同维度的数值进行交换处理;

32、利用读出函数分别获取每个训练数据打乱后节点嵌入向量的图表示,作为打乱图表示;

33、按照以下方式构建损失函数:

34、

35、其中,i(x;y)为随机变量x和y之间的互信息;

36、

37、其中,ep为在分布p下的期望值;g为所有训练数据;

38、sp(x)=log(1+ex)为softplus函数,t(·,·)为互信息估计器网络;h(g)为读出图表示;为重建图表示;为打乱图表示。

39、可选地,所述将所述初始节点嵌入向量输入到预设的图数据信息提取网络,得到所述图数据信息提取网络中每一层的节点嵌入向量,包括:

40、采用以下方式获得图数据信息提取网络中每一层的节点嵌入向量:

41、x(k)=h(x(k-1),fk(a·x(k-1)))

42、其中,h(k)为第k层的多层感知机,f(k)为第k层的节点聚集函数;x(k)为第k层的节点嵌入向量,1<k<l,l为图数据信息提取网络的层数,x(0)为初始节点嵌入向量;a为训练数据g=(v,e,a)中表达节点连接关系的邻接矩阵。

43、可选地,所述方法还包括:

44、利用树状分裂生成器或多头生成器作为预设的自回归子图生成器。

45、可选地,所述方法还包括:

46、利用大小为(2,1)的卷积神经网络构建所述属性卷积算子;

47、利用大小为(l,1)的卷积神经网络构建所述层卷积算子,其中,l为图数据信息提取网络的层数;

48、利用大小为(s,1)的卷积神经网络构建所述聚合卷积算子,其中,s为子图的个数。

49、本专利技术的另一个方面公开一种基于互信息最大化的图表示学习装置,应用于具有拓扑结构的图数据,包括:

50、训练数据获取模块,用于获取多个拓扑图数据作为训练数据;

51、训练数据处理模块,用于获取每个训练数据的读出图表示和重建图表示,包括:

52、初始节点嵌入向量子模块,用于采用预设的属性卷积算子,将训练数据转化为融合有边嵌入向量的初始节点嵌入向量;

53、层节点嵌入向量提取子模块,用于将所述初始节点嵌入向量输入到预设的图数本文档来自技高网...

【技术保护点】

1.一种基于互信息最大化的图表示学习方法,应用于具有拓扑结构的拓扑图数据,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,所述采用预设的属性卷积算子,将所述训练数据转化为融合有边嵌入向量的初始节点嵌入向量,包括:

3.根据权利要求1所述的方法,其特征在于,所述利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络,包括:

4.根据权利要求1所述的方法,其特征在于,所述利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络,还包括:

5.根据权利要求1所述的方法,其特征在于,所述将所述初始节点嵌入向量输入到预设的图数据信息提取网络,得到所述图数据信息提取网络中每一层的节点嵌入向量,包括:

6.根据权利要求1所述的方法,其特征在于,所述方法还包括:

7.根据权利要求1所述的方法,其特征在于,所述方法还包括:

8.一种基于互信息最大化的图表示学习装置,应用于具有拓扑结构的图数据,其特征在于,包括:

【技术特征摘要】

1.一种基于互信息最大化的图表示学习方法,应用于具有拓扑结构的拓扑图数据,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,所述采用预设的属性卷积算子,将所述训练数据转化为融合有边嵌入向量的初始节点嵌入向量,包括:

3.根据权利要求1所述的方法,其特征在于,所述利用预设的互信息最大化损失函数、每个训练数据的读出图表示和重建图表示,优化所述图数据信息提取网络,包括:

4.根据权利要求1所述的方法,其特征在于,所述利用预设的互信息最大化损失函数...

【专利技术属性】
技术研发人员:韩丛英刘子文王晨光郭田德
申请(专利权)人:中国科学院大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1