【技术实现步骤摘要】
一种稀疏知识图谱的可解释推理方法及装置
[0001]本专利技术属于人工智能
,尤其涉及一种稀疏知识图谱的可解释推理方法及装置
。
技术介绍
[0002]随着互联网技术的发展,大量包含丰富知识和信息的异构数据通过互联网被获取
。
因此,使人类能够理解世界
、
学习技能和做出决策的知识表示和学习已成为一个热门研究课题
。
知识图谱
(KG)
在大规模知识库的表示和推理方面表现出了优越的性能
。KGs
被广泛用于支持语义网络的实际应用,如信息检索
、
问答系统
、
智能对话等
。
[0003]由于知识来源的缺乏和知识提取过程中的偏差,
KGs
普遍存在实体和关系的不完整性
。
知识图谱推理
(KGR)
可以从现有事实中推导出新的事实,从而缓解知识图谱信息缺失的问题
。KGR
的任务包括知识完成和知识去噪
。
前者是补全
KGs
中缺失的实体或关系,而后者是三元组是否正确
。
[0004]研究者们已经开发了多种的
KGR
方法
。
然而,它们中的大多数是为实体之间具有充足路径的密集
KGs
设计的
。
稀疏
KGs
是指实体之间存在许多缺失关系的
KGs。
许多采样的
KG
【技术保护点】
【技术特征摘要】
1.
一种稀疏知识图谱的可解释推理方法,其特征在于,包括以下步骤:获取稀疏知识图谱;对稀疏知识图谱构建向量形式的关系嵌入和矩阵形式的关系嵌入;构建嵌入表示模块
、
规则挖掘模块和强化学习模块;首先对规则挖掘模块和嵌入表示模块进行交互和增强,以学习更多高质量的规则
、
更可靠的嵌入表示和更多用于训练的三元组;然后,强化学习模块充当推理引擎,利用规则和嵌入表示来执行奖励塑造,并添加内在的好奇心机制来获得单步奖励并激励智能体进行探索;强化学习模块的奖励函数包括命中奖励
、
嵌入评分奖励和规则匹配奖励,并使用基于好奇心的单时间步长奖励,以引导强化学习模块智能体在更大的行动空间中进行探索
。2.
根据权利要求1所述的稀疏知识图谱的可解释推理方法,其特征在于,所述嵌入表示模块使用嵌入表示和规则挖掘的迭代相互增强策略缓解
KG
的稀疏性和提高嵌入表示的质量;在该策略中,嵌入表示模块利用关系矩阵引导规则,并将引导出的规则与
AnyBURL
方法学习的先验规则一起生成可靠的规则;这些规则反过来生成额外的附加三元组,为嵌入表示提供更多的训练数据;所述强化学习模块为智能体开发了三种策略来在稀疏
KGs
中进行有效的推理,包括动态预期策略
、
动作空间扩展策略和内在好奇心驱动策略,并为智能体的行为和状态开发了一个因果生成模型;这三种策略为推理提供更多信息,缓解
KGs
的稀疏性,增强强化学习智能体的探索能力
。3.
根据权利要求2所述的稀疏知识图谱的可解释推理方法,其特征在于,使用
DISMULT
模型建立向量形式的关系嵌入和矩阵形式的关系嵌入,对于
KG
中的三元组
<s,r,o>
,
DISMULT
模型将
s
和
o
转换为维数的向量,其中
d
是嵌入向量的维数,
s
是头实体,
o
是尾实体,
r
是关系;在预处理
KG
时将反向三元组
<o
,
r
‑1,
s>
添加到每个三元组
<s
,
r
,
o>
中,使得
DISMULT
能对非对称关系进行建模
。4.
根据权利要求3所述的稀疏知识图谱的可解释推理方法,其特征在于,将多跳推理建模为马尔可夫决策过程:从头部实体
e
s
开始,连续选择与当前实体相对应的最大概率的边作为方向,并移动到下一个实体,直到最大跳数
T
;状态:状态指示智能体在遍历期间位于
KG
上的位置;每个状态表示为
s
t
=
(r
q
,
e
t
,
h
t
)
,其中
e
t
是
t
时刻的智能体所在的实体位置,
h
t
是历史路径的表示,
r
q
是要查询的关系;动作:表示状态
s
t
的动作空间,它是当前实体
e
t
的所有出边的集合,即智能体执行一个动作,并通过边从
KG
上的一个实体移动到另一个实体;在每一步中,将动作表示为此外,添加自循环操作
(r
LOOP
,
e
t
)
来从实体移动到它自己;
(r
LOOP
,
e
t
)
被称为“NO_OP”,它允许智能体选择“停止”操作并终止遍历;状态转移:状态转移被定义为映射函数
δ
:它通过仅将状态中的当前实体更新为智能体选择的边所到达的新实体来实现状态的转换,即,如果在状态
s
t
=
(r
q
,
e
t
,
h
t
)
中选择动作
a
t
=
(r
,
e
t+1
)
,则
δ
(s
t
,
a
t
)
=
(r
q
,
e
t+1
,
h
t+1
)
;奖励:对于查询
<e
s
,
r
q
,?
>
,如果智能体最终到达正确的目标实体
e
o
,即
e
T
=
e
o
,则奖励
R
h
=1,否则
R
h
=0;对奖励进行重塑,即对于结果
e
T
≠e
o
,根据嵌入分数计算奖励
R
e
;策略网络:一个策略网络来指导智能体在每个步骤中的动作;
KG
中的每个实体和关系都表示为嵌入向量
e
t
和
r
t
,状态
s
t
和动作
a
t
表示为
s
t
=
[r
q
;
e
t
;
h
t
]
和
a
t
=
[r
t+1
;
e
t+1
]
,此处为
′
;
′
表示连接运算符;为了指导智能体的序列决策,引入
LSTM
来对历史路径信息的向量进行编码;为了在步骤0形成动作,设置一个特殊的起始关系
r0;下式为历史路径信息向量的迭代计算公式:
h0=
LSTM(0
,
[r0;
e
s
])
,
h
t
=
LSTM(a
t
,
h
t
‑1).h0和
h
t
分别是步骤0和步骤
t
时的历史路径信息向量;然后将中的所有动作堆叠起来,用表示动作空间;此外,基于
s
t
和
h
t
,利用具有
ReLU
非线性的两层前馈神经网络来估计当前可执行动作的概率;智能体根据所有可能动作的概率分布来决定下一...
【专利技术属性】
技术研发人员:成清,曾泽凡,刘忠,谭成乐,王敏,柴尚坤,胡星辰,
申请(专利权)人:中国人民解放军国防科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。