【技术实现步骤摘要】
一种新闻评论生成方法、系统、设备及存储介质
[0001]本专利技术涉及自然语言生成
,尤其涉及一种新闻评论生成方法、系统、设备及存储介质。
技术介绍
[0002]随着科技不断发展,新闻在网络平台上的传播使得用户通过评论可以发表自己的观点。新闻评论一方面可以对新闻内容做进一步的解释,另一方面可以吸引更多用户的讨论。针对新闻评论的生成方法可以针对一则特定新闻生成评论,激发用户交流回复的热情,从而增加新闻的热度,甚至还能够发挥到舆论导向的作用,使得社会更加稳定和谐。目前阶段新闻评论自动生成技术的相关研究十分稀少,相关课题具有非常大的研究价值。
[0003]现有的新闻评论生成技术多采用基于预训练语言模型进行微调的方法,但往往面临着一个问题:生成的评论难以控制。现有模型生成评论的过程中,无法控制所得评论的立场、情感、语言风格等,导致对于某些新闻生成出不合时宜的评论,因此,有必要对现有的新闻评论生成技术进行改进。
技术实现思路
[0004]本专利技术的目的是提供一种新闻评论生成方法、系统、设备及存储介质,能够生成带有指定立场地评论,并实现评论生成的多样性,具有良好地应用前景。
[0005]本专利技术的目的是通过以下技术方案实现的:
[0006]一种新闻评论生成方法,包括:
[0007]训练阶段:将当前新闻文本与给定的立场符号及立场提示模板拼接,构成第一输入数据,将当前新闻已生成的评论文本作为第二输入数据;其中,所述立场符号用于表示立场类型,所述立场提示模板包含与给定的立场符号 ...
【技术保护点】
【技术特征摘要】
1.一种新闻评论生成方法,其特征在于,包括:训练阶段:将当前新闻文本与给定的立场符号及立场提示模板拼接,构成第一输入数据,将当前新闻已生成的评论文本作为第二输入数据;其中,所述立场符号用于表示立场类型,所述立场提示模板包含与给定的立场符号相同立场类型的自然语言文本;通过嵌入层,分别获得所述第一输入数据对应的第一表示向量,以及所述第二输入数据对应的第二表示向量;通过编码器对所述第一表示向量进行编码,通过解码器结合编码器输出的编码结果对所述第二表示向量进行解码,获得解码向量,根据解码向量预测当前新闻已生成的评论文本中的下一个词的概率分布,并且利用给定的立场符号预测每个词的概率分布;基于预测出每个词的两类概率分布构建总损失函数,对所述嵌入层、编码器与解码器进行训练;预测阶段,将待生成评论的新闻文本与指定的立场符号及立场提示模板拼接,构成预测数据,通过训练后的嵌入层、编码器与解码器,预测出评论文本。2.根据权利要求1所述的一种新闻评论生成方法,其特征在于,所述将当前新闻文本与给定的立场符号及立场提示模板拼接,构成第一输入数据包括:将符号[CLS]作为开始符号,将符号[SEP]作为分隔符号,给定的立场符号表示为S,当前新闻文本的词序列表示为立场提示模板的词序列表示为第一输入数据表示为:其中,L
T
表示当前新闻文本的词数量,L
P
表示立场提示模板的词数量。3.根据权利要求1所述的一种新闻评论生成方法,其特征在于,所述编码器包括依次连接的N层的Transformer模块,每一层的Transformer模块包括一系列的多头自注意力机制及前馈网络;第i层的Transformer模块输入为第i
‑
1层Transformer模块输出的表征向量X
i
‑1,当i=1时,X0=Emb1,所述Emb1表示第一表示向量;第i层的Transformer模块输出的表征向量通过下述方式得到:通过下述方式得到:通过下述方式得到:其中,表示计算得到的注意力向量,X
i
表示第i层的Transformer模块输出的表征向量,和分别表示编码器中第k个注意力头中的Query矩阵,Key矩阵和Value矩阵,d
e
表示向量表征的维度;T表示矩阵转置符号;是表示对表征向量X
i
‑1进行多头自注意力机制处理与层归一化处理后得到的中间表征向量,LN表示层归一化操作,FFN表示前馈网络;
将N层的Transformer模块输出的表征向量X
N
作为编码器输出的编码结果H
encoder
。4.根据权利要求1所述的一种新闻评论生成方法,其特征在于,所述解码器包括依次连接的N层的Transformer模块,每一层的Transformer模块包括一系列的多头自注意力机制及前馈网络;在自注意力机制中加入掩码机制,表示为:其中,表示计算得到的注意力向量,Y
i
‑1表示输入至第i层Transformer模块的表征向量,即第i
‑
1层Transformer模块输出的表征向量,当i=1时,Y0=Emb2,所述Emb2表示第二表示向量;和分别表示解码器中第k个注意力头中的Query矩阵,Key矩阵和Value矩阵,d
e
表示向量表征的维度;M为一个下三角元素为0,其余元素为
‑
inf的矩阵,
‑
inf表示负无穷大;结合加入掩码机制后的自注意力,通过前馈网络、残差连接与前馈网络获得自注意力机制的计算结果机制的计算结果机制的计算结果其中,是表示对表征向量Y
i
‑1进行多头自注意力机制处理与层归一化处理后得到的中间表征向量,LN表示层归一化操作,FFN表示前馈网络;之后,经过和编码器输出之间的注意力模块,融合编码器信息,表示为:之后,经过和编码器输出之间的注意力模块,融合编码器信息,表示为:之后,经过和编码器输出之间的注意力模块,融合编码器信息,表示为:其中,和分别表示解码器和编码器输出之间的注意力模块中第k个注意力头中的Query矩阵,Key矩阵和Value矩阵,H
encoder
表示编码器输出的编码结果,表示融合编码器信息时获得的中间表征向量,Y
i
表示第i层Transformer模块输出的表征向量,T表示矩阵转置符号;将第N层Transformer模块输出的表征向量Y
N
作为解码向量H
decoder
。5.根据权利...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。