一种稀疏知识图谱的可解释推理方法及装置制造方法及图纸

技术编号:39508999 阅读:15 留言:0更新日期:2023-11-25 18:44
本发明专利技术公开了一种稀疏知识图谱的可解释推理方法及装置,包括:使用嵌入表示和规则挖掘的迭代相互增强策略

【技术实现步骤摘要】
一种稀疏知识图谱的可解释推理方法及装置


[0001]本专利技术属于人工智能
,尤其涉及一种稀疏知识图谱的可解释推理方法及装置


技术介绍

[0002]随着互联网技术的发展,大量包含丰富知识和信息的异构数据通过互联网被获取

因此,使人类能够理解世界

学习技能和做出决策的知识表示和学习已成为一个热门研究课题

知识图谱
(KG)
在大规模知识库的表示和推理方面表现出了优越的性能
。KGs
被广泛用于支持语义网络的实际应用,如信息检索

问答系统

智能对话等

[0003]由于知识来源的缺乏和知识提取过程中的偏差,
KGs
普遍存在实体和关系的不完整性

知识图谱推理
(KGR)
可以从现有事实中推导出新的事实,从而缓解知识图谱信息缺失的问题
。KGR
的任务包括知识完成和知识去噪

前者是补全
KGs
中缺失的实体或关系,而后者是三元组是否正确

[0004]研究者们已经开发了多种的
KGR
方法

然而,它们中的大多数是为实体之间具有充足路径的密集
KGs
设计的

稀疏
KGs
是指实体之间存在许多缺失关系的
KGs。
许多采样的
KG
数据集和特定领域的
KG(

WD

singer)
都面临稀疏性问题

在实际应用中,建立在军事和网络安全等领域的
KGs
也通常是稀疏的

因此,如何在稀疏
KG
中实现可解释推理在知识图谱研究中变得越来越重要

[0005]然而,由于
KG
语义的多样性,基于规则的方法在大规模
KG
中表现出较差的可扩展性

有限的表达能力和较高的时间复杂性

为了解决上述问题,研究人员试图将图模型和神经网络
(NN)
与规则相结合,进行混合推理

最近,将规则与神经网络相结合的混合
KGR
方法
(

RulE、ExpressGNN

RNNLogic)
在可解释性和效率方面表现出了优异的性能

[0006]基于
RL
的方法可以缓解路径空间大的问题

然而,他们根据二元奖励信号即“命中奖励”来训练模型,但“命中回报”是稀疏的,导致效率低下,甚至无法学习最优策略

此外,大多数
RL
模型都面临着冷启动问题


技术实现思路

[0007]有鉴于此,本专利技术的目标是在稀疏
KGs
中实现可解释的多跳推理

基于嵌入表示的方法具有令人满意的效率,但由于它们大多利用“黑盒”模型,因此无法解释

基于规则的
KGR
方法是全局可解释的,但效率低下,并且从稀疏
KGs
中学习规则也很困难

基于
RL
的方法可以实现多跳
KGR
,并提供清晰的推理路径,但冷启动和稀疏奖励的问题影响了它们的效率和结果

为了结合上述三类方法的优点并弥补它们各自的不足,本专利技术提出了一个稀疏
KGR
框架,该框架结合了规则挖掘

嵌入表示和强化学习,将其命名为
RuMER

RL。
[0008]本专利技术第一方面公开的稀疏知识图谱的可解释推理方法,包括以下步骤:
[0009]获取稀疏知识图谱;
[0010]对稀疏知识图谱构建向量形式的关系嵌入和矩阵形式的关系嵌入;
[0011]构建嵌入表示模块

规则挖掘模块和强化学习模块;首先对规则挖掘模块和嵌入表示模块进行交互和增强,以学习更多高质量的规则

更可靠的嵌入表示和更多用于训练的三元组;然后,强化学习模块充当推理引擎,利用规则和嵌入表示来执行奖励塑造,并添加内在的好奇心机制来获得单步奖励并激励智能体进行探索;
[0012]强化学习模块的奖励函数包括命中奖励

嵌入评分奖励和规则匹配奖励,并使用基于好奇心的单时间步长奖励,以引导强化学习模块智能体在更大的行动空间中进行探索

附图说明
[0013]图1本专利技术的框架图,
ER

RM
模块相互增强,并提供信息和数据给作为主推理引擎的
RL
模块;
[0014]图
2ER
模块和
RM
模块迭代相互增强的详细步骤

在每一个
epoch
中,
ER
模型引导出候选规则,构建规则池并计算置信度,然后,
RM
模块对
AnyBURL
挖掘的规则和规则池中的规则进行协同过滤,以生成高质量规则

最后将生成的额外三元组传输给
ER
模型进行训练;
[0015]图
3ER
模块和
RM
模块之间更加直观的交互机制
。ER
模块为
RM
模块引入候选规则,
RM
模块又为
ER
模型的训练提供了三元组;
[0016]图
4RL
模块的总体框架的左半部分,上部分显示了规则匹配和奖励计算的过程,下部分显示了基于因果生成模型的内在好奇心驱动模块和单步好奇心奖励的计算过程;
[0017]图
5RL
模块的总体框架的右半部分,具体描述了
KG

RL
探索的过程,并显示了
DA
策略和
ASE
策略;
[0018]图6在六个基准数据集上对
ER

RM
模块进行消融实验的性能比较;
[0019]图7原始
ICM
和基于因果生成模型的
ICD
在状态预测的
MSE
上的比较;
[0020]图8原始
ICM、
基于因果生成模型的
ICD
和没有好奇心机制的模型在路径命中率上的比较;
[0021]图
9Hit@10

PR

LI
随参数
η
...

【技术保护点】

【技术特征摘要】
1.
一种稀疏知识图谱的可解释推理方法,其特征在于,包括以下步骤:获取稀疏知识图谱;对稀疏知识图谱构建向量形式的关系嵌入和矩阵形式的关系嵌入;构建嵌入表示模块

规则挖掘模块和强化学习模块;首先对规则挖掘模块和嵌入表示模块进行交互和增强,以学习更多高质量的规则

更可靠的嵌入表示和更多用于训练的三元组;然后,强化学习模块充当推理引擎,利用规则和嵌入表示来执行奖励塑造,并添加内在的好奇心机制来获得单步奖励并激励智能体进行探索;强化学习模块的奖励函数包括命中奖励

嵌入评分奖励和规则匹配奖励,并使用基于好奇心的单时间步长奖励,以引导强化学习模块智能体在更大的行动空间中进行探索
。2.
根据权利要求1所述的稀疏知识图谱的可解释推理方法,其特征在于,所述嵌入表示模块使用嵌入表示和规则挖掘的迭代相互增强策略缓解
KG
的稀疏性和提高嵌入表示的质量;在该策略中,嵌入表示模块利用关系矩阵引导规则,并将引导出的规则与
AnyBURL
方法学习的先验规则一起生成可靠的规则;这些规则反过来生成额外的附加三元组,为嵌入表示提供更多的训练数据;所述强化学习模块为智能体开发了三种策略来在稀疏
KGs
中进行有效的推理,包括动态预期策略

动作空间扩展策略和内在好奇心驱动策略,并为智能体的行为和状态开发了一个因果生成模型;这三种策略为推理提供更多信息,缓解
KGs
的稀疏性,增强强化学习智能体的探索能力
。3.
根据权利要求2所述的稀疏知识图谱的可解释推理方法,其特征在于,使用
DISMULT
模型建立向量形式的关系嵌入和矩阵形式的关系嵌入,对于
KG
中的三元组
<s,r,o>

DISMULT
模型将
s

o
转换为维数的向量,其中
d
是嵌入向量的维数,
s
是头实体,
o
是尾实体,
r
是关系;在预处理
KG
时将反向三元组
<o

r
‑1,
s>
添加到每个三元组
<s

r

o>
中,使得
DISMULT
能对非对称关系进行建模
。4.
根据权利要求3所述的稀疏知识图谱的可解释推理方法,其特征在于,将多跳推理建模为马尔可夫决策过程:从头部实体
e
s
开始,连续选择与当前实体相对应的最大概率的边作为方向,并移动到下一个实体,直到最大跳数
T
;状态:状态指示智能体在遍历期间位于
KG
上的位置;每个状态表示为
s
t

(r
q

e
t

h
t
)
,其中
e
t

t
时刻的智能体所在的实体位置,
h
t
是历史路径的表示,
r
q
是要查询的关系;动作:表示状态
s
t
的动作空间,它是当前实体
e
t
的所有出边的集合,即智能体执行一个动作,并通过边从
KG
上的一个实体移动到另一个实体;在每一步中,将动作表示为此外,添加自循环操作
(r
LOOP

e
t
)
来从实体移动到它自己;
(r
LOOP

e
t
)
被称为“NO_OP”,它允许智能体选择“停止”操作并终止遍历;状态转移:状态转移被定义为映射函数
δ
:它通过仅将状态中的当前实体更新为智能体选择的边所到达的新实体来实现状态的转换,即,如果在状态
s
t

(r
q

e
t

h
t
)
中选择动作
a
t

(r

e
t+1
)
,则
δ
(s
t

a
t
)

(r
q

e
t+1

h
t+1
)
;奖励:对于查询
<e
s

r
q
,?
>
,如果智能体最终到达正确的目标实体
e
o
,即
e
T

e
o
,则奖励
R
h
=1,否则
R
h
=0;对奖励进行重塑,即对于结果
e
T
≠e
o
,根据嵌入分数计算奖励
R
e
;策略网络:一个策略网络来指导智能体在每个步骤中的动作;
KG
中的每个实体和关系都表示为嵌入向量
e
t

r
t
,状态
s
t
和动作
a
t
表示为
s
t

[r
q

e
t

h
t
]

a
t

[r
t+1

e
t+1
]
,此处为



表示连接运算符;为了指导智能体的序列决策,引入
LSTM
来对历史路径信息的向量进行编码;为了在步骤0形成动作,设置一个特殊的起始关系
r0;下式为历史路径信息向量的迭代计算公式:
h0=
LSTM(0

[r0;
e
s
])

h
t

LSTM(a
t

h
t
‑1).h0和
h
t
分别是步骤0和步骤
t
时的历史路径信息向量;然后将中的所有动作堆叠起来,用表示动作空间;此外,基于
s
t

h
t
,利用具有
ReLU
非线性的两层前馈神经网络来估计当前可执行动作的概率;智能体根据所有可能动作的概率分布来决定下一...

【专利技术属性】
技术研发人员:成清曾泽凡刘忠谭成乐王敏柴尚坤胡星辰
申请(专利权)人:中国人民解放军国防科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1