【技术实现步骤摘要】
一种方面级情感分析的预训练语义组合细化方法
[0001]本专利技术涉及自然语言识别处理领域中的情感分析,具体是一种方面级情感分析的预训练语义组合细化方法,可广泛应用于各个领域的方面级情感分析任务中。
技术介绍
[0002]方面级情感分类的目的是预测方面词在句子或者文档中的极性,它是一项细粒度情感分析的任务,与传统的情感分析任务不同,它是在方面词上做情感极性分析(一般为积极、消极、中性三个分类)。方面级情感分类常用在评论人的评论句子中,如:商场购物评论、餐饮评论、电影评论等。方面级情感分类,通常在一个句子中有多个方面词及其相关的情感极性。
[0003]随着人工神经网络技术的不断发展,各种神经网络如Long Short
‑
Term Memory(LSTM)、Deep Memory Network和Google AI Language提出的Bidirectional Encoder Representations from Transformers(BERT)预训练神经网络语言模型被应用于方面极性分类,从而为其提供端到端的分类方法,而无需任何特征工程工作。当句子中有多个目标时,方面极性分类任务需要区分不同方面的情绪。因此,与句子级情感分析中只有一个整体情感类别相比,方面极性分类任务需要更细腻的情感分析,虽然可以通过预训练神经网络语言模型BERT对评语进行深入理解,但实验表明BERT对两极化的小语料,如SemEval 2015task 12与SemEval 2016task 5,有较大的改进,而在包
【技术保护点】
【技术特征摘要】
1.一种方面级情感分析的预训练语义组合细化方法,其特征在于包括以下步骤:S1.将评语句子X与其待评测的方面目标A组成一个句子对,送入一个预训练神经网络语言模型BERT中,得到方面级情感分析的预训练语义H,然后分别将H送入步骤S2的全局语义细化模块与步骤S3的多粒度局部语义细化模块;S2.将预训练语义H送入一个串行的多层逐点卷积层,进行逐点语义细化,得到全局语义细化的初级语义H
g
,并将H
g
和预训练语义H进行组合,得到组合全局细化语义然后将的平均池化向量与中分类符的隐藏状态相连接,通过一个门控机制组合成全局语义细化的输出向量Z
g
,最后转步骤S4;S3.将预训练语义H分别送入三个窗口尺寸不相同且连续的并行卷积神经网络,进行多粒度局部语义细化,并将三个并行卷积神经网络的输出进行最大化池化,然后将三个并行卷积神经网络的最大化池化向量连接起来,得到多粒度局部语义细化的输出向量Z
l
;S4.将全局语义细化的输出向量Z
g
与多粒度局部语义细化的输出向量Z
l
组合起来,得到待评测的方面目标A的最终情感分类向量Z,然后将Z送入一个全连接的分类层,对待评测的方面目标A进行情感预测;S5.使用步骤S1到步骤S4,在方面级情感分析数据集Ψ的训练集上,对预训练神经网络语言模型BERT进行微调;S6.使用步骤S5微调的BERT模型,并采用步骤S1到步骤S4,对方面级情感分析数据集Ψ的测试集中的方面目标进行情感极性分类;所述BERT模型是指GoogleAILanguage提出的BidirectionalEncoderRepresentationsfromTransformers预训练神经网络语言模型;所述步骤S1具体包括:S1.1将评语句子X与其待评测的方面目标A组成一个如下形式的BERT句子对输入序列S:其中,w
[cls]
为BERT模型的分类符,w
[sep]
为BERT模型的分隔符,为评语句子X在BERT中的词序列,为方面目标A在BERT中的词序列,n为句子对输入序列S中词的个数,d
w
为BERT中词编码的维度;S1.2将S送入BERT模型进行处理,得到方面级情感分析的预训练语义H:H=BERT(S)={h1,h2,h3,...,h
n
}∈R
n
×
d
(2)其中,{h1,h2,h3,
…
,h
n
}为S在BERT中的隐藏状态序列,BERT(
·
)表示一个BERT模型,d为BERT模型的隐藏状态的维度;所述步骤S2具体包括:S2.1将预训练语义H送入一个串行的多层逐点卷积层MPC(Multi
‑
layerPoint
‑
wiseConvolutions)中,进行逐点语义细化,得到全局语义细化的初级语义H
g
,计算过程如下:其中,MPC中的卷积窗口大小为1,MPC中的卷积核数量设置为与BERT中隐藏状态的维数d相同,σ1(
·
)表示整流线性单元(ReLU)激活函数,符号“*”表示卷积层中所有卷积核的卷
积运算,与分别是第i个卷积层的权重矩阵与偏置向量,分别是第i个卷积层的权重矩阵与偏置向量,分别为第i个与第i
‑
1个逐点卷积层的输出;当i等于1时:即MPC的初始输入是BERT输出的预训练语义H;当i等于m时,得到全局语义细化的初级语义H
g
,即m是MPC中逐点卷积的层数,它是一个可学习的动态超参数,所述动态超参数是指对于不同的数据集可以取不同值的超参数;S2.2将H
g
和预训练语义H进行组合,得到组合全局细化语义计算过程如下:设置一个组合选择的动态超参数choice,如果choice为连接运算connection_operation,则由公式(4)进行组合,如果choice为残差网络residual_network,则由公式(5)进行组合:(5)进行组合:其中,Residual(
·
)表示一个残差网络,MHSA(
·
)表示一个多头自注意力(Multi
‑
HeadSelf
‑
Attention),linear(
·
)表示一个将维度从n
×
2d变换为n
×
d的线性变换层(LinearTransformLayer),公式(4)中的"+"表示逐点相加,公式(5)中的";"表示连接运算;S2.3将的平均池化向量与中分类符的隐藏状态相连接,通过一个门控机制组合成全局语义细化的输出向...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。