图结构学习方法和装置制造方法及图纸

技术编号:35518099 阅读:34 留言:0更新日期:2022-11-09 14:35
本公开的实施例公开了图结构学习方法和装置。该方法的具体实施方式包括:获取样本集,其中,每个样本包括节点特征矩阵、邻接矩阵和每个节点的真实标签;从样本集中选择样本,执行如下训练步骤:从所选择的样本的邻接矩阵中提取出图结构;将图结构和所选择的样本的节点特征矩阵输入图神经网络,得到每个节点的预测标签;基于每个节点的预测标签和真实标签计算损失值;若损失值不满足预定收敛条件,则调整图结构和图神经网络的参数,从样本集中重新选择样本,继续执行上述训练步骤;否则,确定图结构和图神经网络训练完成。该实施方式通过将图的结构信息和图神经网络参数解耦,从而使图结构学习变成对图的结构信息优化和对图神经网络参数优化。络参数优化。络参数优化。

【技术实现步骤摘要】
图结构学习方法和装置


[0001]本公开的实施例涉及计算机
,具体涉及图结构学习方法和装置。

技术介绍

[0002]近年来,图结构学习(GSL)作为一种学习图结构的手段,受到了广泛的关注。GSL的目标是解决如下的问题:
[0003]假设图的表示为其中是点的集合,是点的集合,是边的集合。点的特征表示为其中为节点v
i
的特征。图的初始化结构表示为邻接矩阵A∈{0,1}
N
×
N
,其中A
ij
>0表示(v
i
,v
j
)∈ε。以Θ为参数的图神经网络(GNN)编码器f(X,A),接收图结构和节点特征作为输入,同时为下游任务输出节点的嵌入式表示(X,A),接收图结构和节点特征作为输入,同时为下游任务输出节点的嵌入式表示给定图GSL的目标是学习一个干净的邻接矩阵A
*
同时学习相应的节点嵌入表示H
*
=f(X,A
*
)。
[0004]现有的图结构学习方法存在一些通用的缺点:(i)对于边建模方法,现有方法使用参数共享机制对边缘进行建模,可能存在局部结构异质性问题。(ii)局部优化,局部优化问题侧重于利用邻居节点的信息对参数进行优化,忽略了全局视图的影响。

技术实现思路

[0005]本公开的实施例提出了图结构学习方法和装置。
[0006]第一方面,本公开的实施例提供了一种图结构学习方法,包括:获取样本集,其中,每个样本包括节点特征矩阵、邻接矩阵和每个节点的真实标签;从所述样本集中选择样本,执行如下训练步骤:从所选择的样本的邻接矩阵中提取出图结构;将所述图结构和所选择的样本的节点特征矩阵输入图神经网络,得到每个节点的预测标签;基于每个节点的预测标签和真实标签计算损失值;若所述损失值不满足预定收敛条件,则调整所述图结构和所述图神经网络的参数,从所述样本集中重新选择样本,继续执行上述训练步骤;否则,确定所述图结构和所述图神经网络训练完成。
[0007]在一些实施例中,所述调整所述图结构和所述图神经网络的参数,包括:固定所述图结构,并通过梯度下降方式调整所述图神经网络的参数;固定所述图神经网络的参数,并通过链式法则求解图结构的梯度,根据图结构的梯度调整所述图结构。
[0008]在一些实施例中,所述样本集包括训练样本集和验证样本集;以及所述从所选择的样本的邻接矩阵中提取出图结构,包括:从所述训练样本集选择预定数目个训练样本;从所选择的训练样本的邻接矩阵中提取出第一图结构;从所述验证样本集选择验证样本;从所选择的验证样本的邻接矩阵中提取出第二图结构。
[0009]在一些实施例中,所述基于每个节点的预测标签和真实标签计算损失值,包括:将第一图结构得到的预测标签和真实标签计算内层损失值;若内层损失值不满足预定收敛条件,则将第二图结构得到的预测标签和真实标签计算外层损失值,并根据外层损失值计算
图结构的初始梯度。
[0010]在一些实施例中,所述从所选择的样本的邻接矩阵中提取出图结构,包括:获取初始的图结构;将所述初始的图结构输入非负激活函数,得到中间矩阵;将所述中间矩阵与所选择的样本的邻接矩阵按位相乘,得到图结构。
[0011]第二方面,本公开的实施例提供了一种用于输出信息的方法,包括:获取原始图结构和通过如第一方面所述的方法生成的通用图结构;将所述通用图结构输入非负激活函数,得到中间矩阵;将所述中间矩阵与所述原始图的邻接矩阵按位相乘,得到待分析的图结构;将所述待分析的图结构和原始图的节点特征矩阵输入采用如第一方面所述的方法生成的图神经网络中,输出各节点的分类结果。
[0012]第三方面,本公开的实施例提供了一种图结构学习装置,包括:获取单元,被配置成获取样本集,其中,每个样本包括节点特征矩阵、邻接矩阵和每个节点的真实标签;训练单元,被配置成从所述样本集中选择样本,执行如下训练步骤:从所选择的样本的邻接矩阵中提取出图结构;将所述图结构和所选择的样本的节点特征矩阵输入图神经网络,得到每个节点的预测标签;基于每个节点的预测标签和真实标签计算损失值;若所述损失值不满足预定收敛条件,则调整所述图结构和所述图神经网络的参数,从所述样本集中重新选择样本,继续执行上述训练步骤;否则,确定所述图结构和所述图神经网络训练完成。
[0013]在一些实施例中,所述训练单元进一步被配置成:固定所述图结构,并通过梯度下降方式调整所述图神经网络的参数;固定所述图神经网络的参数,并通过链式法则求解图结构的梯度,根据图结构的梯度调整所述图结构。
[0014]在一些实施例中,所述样本集包括训练样本集和验证样本集;以及所述训练单元进一步被配置成:从所述训练样本集选择预定数目个训练样本;从所选择的训练样本的邻接矩阵中提取出第一图结构;从所述验证样本集选择验证样本;从所选择的验证样本的邻接矩阵中提取出第二图结构。
[0015]在一些实施例中,所述训练单元进一步被配置成:将第一图结构得到的预测标签和真实标签计算内层损失值;若内层损失值不满足预定收敛条件,则将第二图结构得到的预测标签和真实标签计算外层损失值,并根据外层损失值计算图结构的初始梯度。
[0016]在一些实施例中,所述训练单元进一步被配置成:获取初始的图结构;将所述初始的图结构输入非负激活函数,得到中间矩阵;将所述中间矩阵与所选择的样本的邻接矩阵按位相乘,得到图结构。
[0017]第四方面,本公开的实施例提供了一种用于输出信息的装置,包括:获取单元,被配置成获取原始图和通过如第一方面所述的方法生成的通用图结构;激活单元,被配置成将所述通用图结构输入非负激活函数,得到中间矩阵;提取单元,被配置成将所述中间矩阵与所述原始图的邻接矩阵按位相乘,得到待分析的图结构;分类单元,被配置成将所述待分析的图结构和原始图的节点特征矩阵输入采用如第一方面所述的方法生成的图神经网络中,输出各节点的分类结果。
[0018]第五方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面和第二方面任一项所述的方法。
[0019]第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如第一方面和第二方面任一项所述的方法。
[0020]本公开实施例提供的图结构学习方法和装置,通过将图的结构信息和GNN参数解耦,从而使图结构学习问题变成两个简单的问题,即对图的结构信息优化以及对GNN参数优化。
[0021]同时,针对如何同时优化结构信息和GNN参数,提出了使用双向优化的方法,即在内层针对GNN参数进行优化时,保持图的结构不变;在外层针对图结构进行优化时,保持得到的GNN参数不变。通过不断迭代,当达到模型的停止条件时,同时得到图的结构信息和GNN参数信息。
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种图结构学习方法,包括:获取样本集,其中,每个样本包括节点特征矩阵、邻接矩阵和每个节点的真实标签;从所述样本集中选择样本,执行如下训练步骤:从所选择的样本的邻接矩阵中提取出图结构;将所述图结构和所选择的样本的节点特征矩阵输入图神经网络,得到每个节点的预测标签;基于每个节点的预测标签和真实标签计算损失值;若所述损失值不满足预定收敛条件,则调整所述图结构和所述图神经网络的参数,从所述样本集中重新选择样本,继续执行上述训练步骤;否则,确定所述图结构和所述图神经网络训练完成。2.根据权利要求1所述的方法,所述调整所述图结构和所述图神经网络的参数,包括:固定所述图结构,并通过梯度下降方式调整所述图神经网络的参数;固定所述图神经网络的参数,并通过链式法则求解图结构的梯度,根据图结构的梯度调整所述图结构。3.根据权利要求2所述的方法,所述样本集包括训练样本集和验证样本集;以及所述从所选择的样本的邻接矩阵中提取出图结构,包括:从所述训练样本集选择预定数目个训练样本;从所选择的训练样本的邻接矩阵中提取出第一图结构;从所述验证样本集选择验证样本;从所选择的验证样本的邻接矩阵中提取出第二图结构。4.根据权利要求3所述的方法,所述基于每个节点的预测标签和真实标签计算损失值,包括:将第一图结构得到的预测标签和真实标签计算内层损失值;若内层损失值不满足预定收敛条件,则将第二图结构得到的预测标签和真实标签计算外层损失值,并根据外层损失值计算图结构的初始梯度。5.根据权利要求1所述的方法,所述从所选择的样本的邻接矩阵中提取出图结构,包括:获取初始的图结构;将所述初始的图结构输入非负激活函数,得到中间矩阵;将所述中间矩阵与所选择的样本的邻接矩阵按位相乘,得到图结构。6.一种用于输出信息的方法,包括:获取原始图和通过如权利要求1

5之一所述的方法生成的通用图结构;将所述通用图结构输入非负激活函数,...

【专利技术属性】
技术研发人员:沈力尹楠
申请(专利权)人:京东科技信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1