【技术实现步骤摘要】
基于孪生交互和微调表示的中文语义匹配方法
[0001]本专利技术涉及计算机应用领域,具体涉及一种基于孪生交互和微调表示的中文语义匹配方法。
技术介绍
[0002]中文语义匹配就是针对两个不同的句子,判断它们之间的语义匹配度。中文语义匹配任务的核心在于挖掘文本的深度语义信息,探究不同文本之间的语义关系。文本语义匹配的技术可应用于智能问答、机器翻译以及内容检索等领域,目前所公开的文本语义匹配技术还存在匹配准确率需要进一步提高的问题。
技术实现思路
[0003]本专利技术针对目前中文语义匹配技术存在的问题,提供了一种基于RoBERTa
‑
WWE
‑
EXT的孪生交互以及微调表示的中文语义匹配方法,以提升中文语义匹配任务的准确率。
[0004]本专利技术所提供的方法,首先以RoBERTa
‑
WWM
‑
EXT预训练模型完成文本的向量初始化,针对初始特征向量构造内嵌了软对齐注意力机制(SA
‑
Attention)和BiLSTM训练层的孪生结构,用以增强句对之间的语义交互性。其次将两个待匹配文本连接起来接入RoBERTa
‑
WWM
‑
EXT预训练模型进行向量化,将连接的向量化结果输入LSTM
‑
BiLSTM网络层做增强训练,用以强化句子内部的上下语义关系。然后搭建可微调RoBERTa
‑
WWM
‑
EXT初始向量的训练模型,用以产生经 ...
【技术保护点】
【技术特征摘要】
1.一种基于孪生交互和微调表示的中文语义匹配方法,其特征在于,所述方法包括以下步骤:(1)将两个待匹配的文本S1、S2接入RoBERTa
‑
WWM
‑
EXT预训练模型,完成文本S1、S2的向量初始化,提取RoBERTa
‑
WWM
‑
EXT预训练模型的Pooler_out层,公式描述为S1vec=[RoBERTaWE([S1])]
Pooler_out
、S2vec=[RoBERTaWE([S2])]
Pooler_out
,其中S1vec、S2vec分别为文本S1、S2的初步特征向量表示;(2)将向量S1vec、S2vec交叉输入内嵌了软对齐注意力机制、BiLSTM训练层的孪生结构;在软对齐注意力机制处理过程中,首先计算S1vec、S2vec的注意力打分函数,然后利用SoftMax函数计算最终的注意力分布函数P,再分别与向量S1vec、S2vec求积计算得出相应的加权分布向量和向量向量分别与原始向量S1vec、S2vec相加,最终输出向量表示为Avec1、Avec2;将输出向量Avec1、Avec2分别接入BiLSTM网络层,最终经过融合产生文本S1、S2在两个孪生子通道所分别对应的特征向量表示SiaVec1、SiaVec2;针对向量SiaVec1、SiaVec2进行对应项相减、相乘,并将结果连接,公式描述为SiaVec=[|SiaVec1
‑
SiaVec2|,SiaVec1
⊙
SiaVec2],SiaVec为文本S1、S2经过孪生结构产生的交互向量;(3)将文本S1、S2连接为单句文本,公式为Sen=[[CLS]S1[SEP]S2[SEP]],[CLS]为文本的开头标识,[SEP]为两文本的间隔标识,Sen即为两文本连接的单句型文本;将Sen输入到RoBERTa
‑
WE模型,提取模型的Pooler_out输出层向量Pvec作为Sen的向量表示;将向量P...
【专利技术属性】
技术研发人员:强保华,席广勇,王玉峰,李宝莲,陈金勇,
申请(专利权)人:中国电子科技集团公司第五十四研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。