信息处理模型训练方法、装置、设备及存储介质制造方法及图纸

技术编号:28839254 阅读:25 留言:0更新日期:2021-06-11 23:37
本申请实施例公开了一种信息处理模型训练方法、装置、设备及计算机存储介质,所述方法包括:获取训练样本;确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。如此,通过使用文本的字特征和词组特征,准确判别出文本的情感属性。

【技术实现步骤摘要】
信息处理模型训练方法、装置、设备及存储介质
本申请涉及计算机
,尤其涉及一种信息处理模型训练方法、装置、设备及计算机存储介质。
技术介绍
目前,文本中存在一词多义的现象,即同一个词用在不同的语义环境下可能会产生相反的情感属性,甚至于同样的一句话,可能语气不同都会产生相反的情感属性。因此,在文本具有词汇用法繁多,语境复杂,上下文关联极强等特点的情况下,如何准确判别出文本情感属性,已成为需要解决的问题。
技术实现思路
本申请实施例提供一种信息处理模型训练方法、装置、设备及计算机存储介质,能够准确判别出文本情感属性。为达到上述目的,本申请实施例的技术方案是这样实现的:第一方面,本申请实施例提供一种信息处理模型训练方法,所述方法包括:获取训练样本;确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;对所述第一样本特征和所述第二样本特征进行处理,得到第三样本特征;基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。在一些实施例中,所述确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征,包括:基于所述训练样本,分别获取由单个字组成的字样本序列和由词组组成的词组样本序列;基于所述字样本序列,获取以字向量为维度的第一样本特征,以及基于所述词组样本序列,获取以词向量为维度的第二样本特征。在一些实施例中,所述目标信息处理模型包括双线性卷积神经网络模型,所述基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型,包括:利用所述目标信息处理模型中第一卷积神经网络的卷积层,基于所述第一样本特征,获取各个卷积核对应的第一局部特征;利用所述第一卷积神经网络的全连接层,将所述第一局部特征进行拼接,获取第一特征;利用所述目标信息处理模型中第二卷积神经网络的卷积层,基于所述第二样本特征,获取各个卷积核对应的第二局部特征;利用所述第二卷积神经网络的全连接层,将所述第二局部特征进行拼接,获取第二特征;利用所述目标信息处理模型中线性混合层,基于所述第一特征和所述第二特征获取混合特征;将所述混合特征输入到所述目标信息处理模型中输出层,获取所述训练样本的预测情感属性;基于所述预测情感属性和所述训练样本的情感属性,训练所述目标信息处理模型。在一些实施例中,在所述训练目标信息处理模型之后,所述方法还包括:在所述训练样本中选择至少两个第一训练样本;基于所述至少两个第一训练样本,训练至少两个候选信息处理模型;利用所述至少两个候选信息处理模型,预测新的样本的预测情感属性。在一些实施例中,在所述利用所述至少两个候选信息处理模型,预测新的样本的预测情感属性后,所述方法还包括:在所述至少两个候选信息处理模型针对所述新的样本,预测的预测情感属性相等的数量大于第一阈值时,将所述新的样本中的第一样本作为所述目标信息处理模型的训练样本;所述第一样本为所述新的样本中的部分或全部样本;所述至少两个候选信息处理模型针对所述新的样本,预测的预测情感属性相等的数量小于或等于第一阈值时,对所述新的样本的情感属性进行标注,并将所述新的样本作为所述目标信息处理模型的训练样本。在一些实施例中,所述方法还包括:获取预测样本中以字向量为维度的第三样本特征和以词向量为维度的第四样本特征;将所述第三样本特征和所述第四样本特征输入所述目标信息处理模型,获得预测样本对应的预测情感属性。第二方面,本申请实施例提供一种信息处理模型训练装置,所述装置包括获取模块、确定模块和训练模块,其中,所述获取模块,用于获取训练样本;所述确定模块,用于确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;所述训练模块,用于基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。在一些实施例中,所述装置还包括预测模块,其中,所述确定模块,还用于获取预测样本中以字向量为维度的第三样本特征和以词向量为维度的第四样本特征;所述预测模块,用于将所述第三样本特征和所述第四样本特征输入所述目标信息处理模型,获得预测样本对应的预测情感属性。第三方面,本申请实施例提供一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器用于运行所述计算机程序时,执行本申请任一实施例所提供的信息处理模型训练方法的步骤。第四方面,本申请实施例提供一种计算机存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现本申请任一实施例所提供的信息处理模型训练方法的步骤。上述实施例所提供的信息处理模型训练方法,所述方法包括:获取训练样本;确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。如此,所述信息处理模型不仅智能化程度高,不需要人工输入特征,还使用训练样本的字特征和词组特征作为信息处理模型的输入,从而提高了预测样本情感属性的准确性。同时通过带标签的训练样本训练所述信息处理模型,实现有监督学习,提高所述信息处理模型的准确性,以及无需人工干预和人工编码,自动化训练所述信息处理模型,大大提升了训练效率。附图说明图1为本申请一实施例中信息处理模型训练方法的处理流程示意图;图2为本申请一实施例中信息处理模型训练装置的结构示意图;图3为本申请另一实施例中信息处理模型训练装置的结构示意图;图4为本申请另一实施例中离线训练方法的处理流程示意图;图5为本申请一实施例中信息处理模型的结构示意图;图6为本申请一实施例中训练多模型方法的处理流程示意图;图7为本申请一实施例中新增训练样本方法的处理流程示意图;图8为本申请一实施例中增量学习方法示意图;图9为本申请一实施例中信息处理模型训练设备的结构示意图。具体实施方式为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对申请的具体技术方案做进一步详细描述。以下实施例用于说明本申请,但不用来限制本申请的范围。除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的
的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。在对本申请实施例提供一种信息处理模型训练方法进行详细描述之前,首先对本申请涉及的技术进行简要介绍。CNN(ConvolutionalNeuralNetwork,卷积神经网络)属于人工神经网本文档来自技高网
...

【技术保护点】
1.一种信息处理模型训练方法,其特征在于,所述方法包括:/n获取训练样本;/n确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;/n基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。/n

【技术特征摘要】
1.一种信息处理模型训练方法,其特征在于,所述方法包括:
获取训练样本;
确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征;
基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型。


2.根据权利要求1所述方法,其特征在于,所述确定所述训练样本对应的以字向量为维度的第一样本特征和以词向量为维度的第二样本特征,包括:
基于所述训练样本,分别获取由单个字组成的字样本序列和由词组组成的词组样本序列;
基于所述字样本序列,获取以字向量为维度的第一样本特征,以及基于所述词组样本序列,获取以词向量为维度的第二样本特征。


3.根据权利要求1所述方法,其特征在于,所述目标信息处理模型包括双线性卷积神经网络模型,所述基于所述第一样本特征和所述第二样本特征,及所述训练样本的情感属性训练目标信息处理模型,包括:
利用所述目标信息处理模型中第一卷积神经网络的卷积层,基于所述第一样本特征,获取各个卷积核对应的第一局部特征;
利用所述第一卷积神经网络的全连接层,将所述第一局部特征进行拼接,获取第一特征;
利用所述目标信息处理模型中第二卷积神经网络的卷积层,基于所述第二样本特征,获取各个卷积核对应的第二局部特征;
利用所述第二卷积神经网络的全连接层,将所述第二局部特征进行拼接,获取第二特征;
利用所述目标信息处理模型中线性混合层,基于所述第一特征和所述第二特征获取混合特征;
将所述混合特征输入到所述目标信息处理模型中输出层,获取所述训练样本的预测情感属性;
基于所述预测情感属性和所述训练样本的情感属性,训练所述目标信息处理模型。


4.根据权利要求1所述方法,其特征在于,在所述训练目标信息处理模型之后,所述方法还包括:
在所述训练样本中选择至少两个第一训练样本;
基于所述至少两个第一训练样本,训练至少两个候选信息处理模型;
利用所述至少两个候选信息处理模型,预测新的样本的预测情感属性。


5.根据权利要求4所述的方法,其特征在于,在所述利...

【专利技术属性】
技术研发人员:杨希胡小克
申请(专利权)人:中移苏州软件技术有限公司中国移动通信集团有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1