当前位置: 首页 > 专利查询>清华大学专利>正文

超图连续学习方法、装置、电子设备及存储介质制造方法及图纸

技术编号:38015398 阅读:7 留言:0更新日期:2023-06-30 10:40
本申请涉及一种超图连续学习方法、装置、电子设备及存储介质,其中,方法包括:提取样本特征,并基于预设度量方式利用样本特征建立超图;面向连续学习过程中结点与超边不断增加的超图,使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图;合并第一子超图与新增的超边、结点所构成的超图,获得表达增长后的超图结构的第二子超图;基于第二子超图,利用基于预设超图神经网络的学习方法获得对无标签结点的预测结果。由此,解决了相关技术中,在进行超图学习时,忽略超图对复杂高阶关联的刻画能力,使得连续学习过程中分类任务的准确率降低,难以提升模型的运算效率,提高了模型对内存的需求等问题。提高了模型对内存的需求等问题。提高了模型对内存的需求等问题。

【技术实现步骤摘要】
超图连续学习方法、装置、电子设备及存储介质


[0001]本申请涉及连续学习
,特别涉及一种超图连续学习方法、装置、电子设备及存储介质。

技术介绍

[0002]随着万物互联的脚步加快及网络技术的快速发展,互联网上不断涌现着大量的数据,连续学习的目的在于从不断增长的数据中进行学习。随着数据的复杂性不断上升,如何高效的挖掘数据背后的复杂关联也越发重要,超图相比于图,每一条超边可以连接多个结点,更适合刻画样本之间的复杂关联。
[0003]相关技术中,可以对图像预处理,对预处理后得到的图像进行基于超图的图像表示,对构建好的超图进行基于超图学习的超像素分割。
[0004]然而,相关技术中,在进行超图学习时,忽略超图对复杂高阶关联的刻画能力,难以采用基于采样的策略或基于聚类的策略,挖掘能够表达原始超图结构的子超图,使得连续学习过程中分类任务的准确率降低,难以提升模型的运算效率,提高了模型对内存的需求,有待改进。

技术实现思路

[0005]本申请提供一种超图连续学习方法、装置、电子设备及存储介质,以解决相关技术中,在进行超图学习时,忽略超图对复杂高阶关联的刻画能力,难以采用基于采样的策略或基于聚类的策略,挖掘能够表达原始超图结构的子超图,使得连续学习过程中分类任务的准确率降低,难以提升模型的运算效率,提高了模型对内存的需求等问题。
[0006]本申请第一方面实施例提供一种超图连续学习方法,包括以下步骤:提取样本特征,并基于预设度量方式利用所述样本特征建立超图;面向连续学习过程中结点与超边不断增加的所述超图,使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图;合并所述第一子超图与新增的超边、结点所构成的超图,获得表达增长后的超图结构的第二子超图;以及基于所述第二子超图,利用基于预设超图神经网络的学习方法获得对无标签结点的预测结果。
[0007]可选地,在本申请的一个实施例中,所述提取样本特征,并基于预设度量方式利用所述样本特征建立超图,包括:使用特征提取器提取所述样本特征;构建所述超图,其中,每个超图结构利用G
t
=(V
t
;E
t
;w
t
)描述,V
t
中的每个顶点代表第t时刻一个训练和测试数据,每个样本与距离最近的k个结点建立超边E
t
,w
t
为每个超边的权重。
[0008]可选地,在本申请的一个实施例中,所述使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图,包括:从所述t时刻新增的任意结点开始,按照第一预设概率进行随机游走,到达t

1时刻的某一结点,或按照第二预设概率随机跳跃到另一个所述t时刻新增的结点,重复上述过程,直到获得目标数量的来自t

1时刻的结点。
[0009]可选地,在本申请的一个实施例中,所述使用基于预设采样策略或基于预设聚类
策略获得表达原始超图结构的第一子超图,包括:对所述t

1时刻的所有结点进行聚类,得到K个聚类簇,其中,聚类簇的中心被称作聚类结点,且不同聚类的结点之间的边被转化为聚类结点之间的边,聚类结点之间的边共同构成能够表达原始超图结构的所述第一子超图。
[0010]本申请第二方面实施例提供一种超图连续学习装置,包括:建立模块,用于提取样本特征,并基于预设度量方式利用所述样本特征建立超图;第一获取模块,用于面向连续学习过程中结点与超边不断增加的所述超图,使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图;第二获取模块,用于合并所述第一子超图与新增的超边、结点所构成的超图,获得表达增长后的超图结构的第二子超图;以及学习模块,用于基于所述第二子超图,利用基于预设超图神经网络的学习方法获得对无标签结点的预测结果。
[0011]可选地,在本申请的一个实施例中,所述建立模块包括:提取单元,用于使用特征提取器提取所述样本特征;构建单元,用于构建所述超图,其中,每个超图结构利用G
t
=(V
t
;E
t
;w
t
)描述,V
t
中的每个顶点代表第t时刻一个训练和测试数据,每个样本与距离最近的k个结点建立超边E
t
,w
t
为每个超边的权重。
[0012]可选地,在本申请的一个实施例中,所述第一获取模块包括:获取单元,用于从所述t时刻新增的任意结点开始,按照第一预设概率进行随机游走,到达t

1时刻的某一结点,或按照第二预设概率随机跳跃到另一个所述t时刻新增的结点,重复上述过程,直到获得目标数量的来自t

1时刻的结点。
[0013]可选地,在本申请的一个实施例中,所述第一获取模块包括:聚类单元,用于对所述t

1时刻的所有结点进行聚类,得到K个聚类簇,其中,聚类簇的中心被称作聚类结点,且不同聚类的结点之间的边被转化为聚类结点之间的边,聚类结点之间的边共同构成能够表达原始超图结构的所述第一子超图。
[0014]本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的超图连续学习方法。
[0015]本申请第四方面实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,该程序被处理器执行时实现如上的超图连续学习方法。
[0016]本申请实施例可以利用超图结构描述连续学习数据样本之间的高阶复杂关联,并使用超图学习模型获得含有结构信息的结点特征,提升下游分类任务的准确性,同时采用基于采样的策略或基于聚类的策略,在原始超图的较小子超图上进行超图学习,从而提升模型的运算效率,降低模型对内存的需求。由此,解决了相关技术中,在进行超图学习时,忽略超图对复杂高阶关联的刻画能力,难以采用基于采样的策略或基于聚类的策略,挖掘能够表达原始超图结构的子超图,使得连续学习过程中分类任务的准确率降低,难以提升模型的运算效率,提高了模型对内存的需求等问题。
[0017]本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
[0018]本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
[0019]图1为根据本申请实施例提供的一种超图连续学习方法的流程图;
[0020]图2为根据本申请一个实施例的超图连续学习方法的原理示意图;
[0021]图3为根据本申请实施例提供的一种超图连续学习装置的结构示意图;
[0022]图4为根据本申请实施例提供的电子设备的结构示意图。
具体实施方式
[0023]下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种超图连续学习方法,其特征在于,包括以下步骤:提取样本特征,并基于预设度量方式利用所述样本特征建立超图;面向连续学习过程中结点与超边不断增加的所述超图,使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图;合并所述第一子超图与新增的超边、结点所构成的超图,获得表达增长后的超图结构的第二子超图;以及基于所述第二子超图,利用基于预设超图神经网络的学习方法获得对无标签结点的预测结果。2.根据权利要求1所述的方法,其特征在于,所述提取样本特征,并基于预设度量方式利用所述样本特征建立超图,包括:使用特征提取器提取所述样本特征;构建所述超图,其中,每个超图结构利用G
t
=(V
t
;E
t
;w
t
)描述,V
t
中的每个顶点代表第t时刻一个训练和测试数据,每个样本与距离最近的k个结点建立超边E
t
,w
t
为每个超边的权重。3.根据权利要求2所述的方法,其特征在于,所述使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图,包括:从所述t时刻新增的任意结点开始,按照第一预设概率进行随机游走,到达t

1时刻的某一结点,或按照第二预设概率随机跳跃到另一个所述t时刻新增的结点,重复上述过程,直到获得目标数量的来自t

1时刻的结点。4.根据权利要求3所述的方法,其特征在于,所述使用基于预设采样策略或基于预设聚类策略获得表达原始超图结构的第一子超图,包括:对所述t

1时刻的所有结点进行聚类,得到K个聚类簇,其中,聚类簇的中心被称作聚类结点,且不同聚类的结点之间的边被转化为聚类结点之间的边,聚类结点之间的边共同构成能够表达原始超图结构的所述第一子超图。5.一种超图连续学习装置,其特征在于,包括:建立模块,用于提取样本特征,并基于预设度量方式利用所述样本特征建立超图;第一获取模块,用于面向连续学习过程中结点与超边不断增加的所...

【专利技术属性】
技术研发人员:高跃张欣炜张吉余婷
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1