语音情绪分类模型训练方法、装置、计算机设备及介质制造方法及图纸

技术编号:30544634 阅读:18 留言:0更新日期:2021-10-30 13:22
本发明专利技术公开了一种语音情绪分类模型训练方法、装置、计算机设备及存储介质,该方法通过确定每一个待识别语音数据的包括目标对象以及目标情绪标签的目标情绪识别结果;将待识别语音数据输入至包含初始参数的预设分类模型中,通过预设分类模型对待识别语音数据进行情绪跟踪识别,得到与待识别语音数据对应的包括预测对象以及预测情绪标签的预测情绪识别结果;根据目标对象、目标情绪标签、预测对象以及预测情绪标签确定预设分类模型的预测损失值;在预测损失值未达到预设的收敛条件时,迭代更新预设分类模型中的初始参数,直至预测损失值达到收敛条件时,将收敛之后的预设分类模型记录为语音情感分类模型。本发明专利技术提高了语音情绪识别的准确率。识别的准确率。识别的准确率。

【技术实现步骤摘要】
语音情绪分类模型训练方法、装置、计算机设备及介质


[0001]本专利技术涉及分类模型
,尤其涉及一种语音情绪分类模型训练方法、装置、计算机设备及介质。

技术介绍

[0002]情绪识别在智能人机交互系统,特别是自动客户服务系统中起到非常重要的作用。比如,在自动客户服务系统中,系统需要即时识别用户对话中表露出来的情绪,以便针对情绪采取相应的措施。
[0003]现有技术中,主要是通过机器识别将语音数据先转换为文本,再对文本进行文本情绪识别。然而上述方法仅利用了语音数据中文本信息所反映的情绪信息,丢失了语音数据中的情绪信息,进而导致情绪识别准确率较低;并且在将语音数据转换为文本时,若发生了文本转换错误,则更容易导致情绪识别准确率较低。

技术实现思路

[0004]本专利技术实施例提供一种语音情绪分类模型训练方法、装置、计算机设备及介质,以解决情绪识别准确率较低的问题。
[0005]一种语音情绪分类模型训练方法,包括:
[0006]获取预设语音训练集;所述预设语音训练集中包含至少一个待识别语音数据;
[0007]确定每一个所述待识别语音数据的目标情绪识别结果;每一个所述目标情绪识别结果中包括至少一个目标对象以及与所述目标对象对应的目标情绪标签;一个目标对象对应至少一个目标情绪标签;
[0008]将所述待识别语音数据输入至包含初始参数的预设分类模型中,通过所述预设分类模型对所述待识别语音数据进行情绪跟踪识别,得到与所述待识别语音数据对应的预测情绪识别结果;所述情绪识别结果中包括预测对象以及与所述预测对象对应的预测情绪标签;
[0009]根据所述目标对象、目标情绪标签、预测对象以及预测情绪标签,确定所述预设分类模型的预测损失值;
[0010]在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设分类模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设分类模型记录为语音情感分类模型。
[0011]一种语音情绪分类模型训练装置,包括:
[0012]语音训练集获取模块,用于获取预设语音训练集;所述预设语音训练集中包含至少一个待识别语音数据;
[0013]目标情绪识别结果确定模块,用于确定每一个所述待识别语音数据的目标情绪识别结果;每一个所述目标情绪识别结果中包括至少一个目标对象以及与所述目标对象对应的目标情绪标签;一个目标对象对应至少一个目标情绪标签;
[0014]预测情绪识别结果确定模块,用于将所述待识别语音数据输入至包含初始参数的预设分类模型中,通过所述预设分类模型对所述待识别语音数据进行情绪跟踪识别,得到与所述待识别语音数据对应的预测情绪识别结果;所述情绪识别结果中包括预测对象以及与所述预测对象对应的预测情绪标签;
[0015]预测损失值确定模块,用于根据所述目标对象、目标情绪标签、预测对象以及预测情绪标签,确定所述预设分类模型的预测损失值;
[0016]模型更新训练模块,用于在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设分类模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设分类模型记录为语音情感分类模型。
[0017]一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述语音情绪分类模型训练方法。
[0018]一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述语音情绪分类模型训练方法。
[0019]上述语音情绪分类模型训练方法、装置、计算机设备及存储介质,该方法通过获取预设语音训练集;所述预设语音训练集中包含至少一个待识别语音数据;确定每一个所述待识别语音数据的目标情绪识别结果;每一个所述目标情绪识别结果中包括至少一个目标对象以及与所述目标对象对应的目标情绪标签;一个目标对象对应至少一个目标情绪标签;将所述待识别语音数据输入至包含初始参数的预设分类模型中,通过所述预设分类模型对所述待识别语音数据进行情绪跟踪识别,得到与所述待识别语音数据对应的预测情绪识别结果;所述情绪识别结果中包括预测对象以及与所述预测对象对应的预测情绪标签;根据所述目标对象、目标情绪标签、预测对象以及预测情绪标签,确定所述预设分类模型的预测损失值;在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设分类模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设分类模型记录为语音情感分类模型。
[0020]本专利技术通过预设分类模型对待识别语音数据进行情绪识别时,采用情绪跟踪识别的方法跟踪待识别语音数据中相同的情绪,使得相同情绪间的语音片段进行融合判断,生成准确率更高的预测情绪标签,进而提高情绪识别的准确率。
附图说明
[0021]为了更清楚地说明本专利技术实施例的技术方案,下面将对本专利技术实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0022]图1是本专利技术一实施例中语音情绪分类模型训练方法的一应用环境示意图;
[0023]图2是本专利技术一实施例中语音情绪分类模型训练方法的一流程图;
[0024]图3是本专利技术一实施例中语音情绪分类模型训练方法中步骤S30的一流程图;
[0025]图4是本专利技术一实施例中语音情绪分类模型训练装置的一原理框图;
[0026]图5是本专利技术一实施例中语音情绪分类模型训练装置中预测情绪识别结果确定模
块的一原理框图;
[0027]图6是本专利技术一实施例中计算机设备的一示意图。
具体实施方式
[0028]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0029]本专利技术实施例提供的语音情绪分类模型训练方法,该语音情绪分类模型训练方法可应用如图1所示的应用环境中。具体地,该语音情绪分类模型训练方法应用在语音情绪分类模型训练系统中,该语音情绪分类模型训练系统包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于解决情绪识别准确率较低的问题。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
[0030]在一实施例中,如图2所示,提供一种语音情绪分类模型训练方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
[0031]S10:获取预设语音训练集;所述预设语音训练集中包含至少一个待识本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种语音情绪分类模型训练方法,其特征在于,包括:获取预设语音训练集;所述预设语音训练集中包含至少一个待识别语音数据;确定每一个所述待识别语音数据的目标情绪识别结果;每一个所述目标情绪识别结果中包括至少一个目标对象以及与所述目标对象对应的目标情绪标签;一个目标对象对应至少一个目标情绪标签;将所述待识别语音数据输入至包含初始参数的预设分类模型中,通过所述预设分类模型对所述待识别语音数据进行情绪跟踪识别,得到与所述待识别语音数据对应的预测情绪识别结果;所述情绪识别结果中包括预测对象以及与所述预测对象对应的预测情绪标签;根据所述目标对象、目标情绪标签、预测对象以及预测情绪标签,确定所述预设分类模型的预测损失值;在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设分类模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设分类模型记录为语音情感分类模型。2.如权利要求1所述的语音情绪分类模型训练方法,其特征在于,所述确定每一个所述待识别语音数据的目标情绪识别结果,包括:对所述待识别语音数据进行角色识别,确定所述待识别语音数据中的所有目标对象;将所述待识别语音数据划分为与各所述目标对象对应的语音数据片段;一个所述目标对象对应至少一个语音数据片段;对各所述语音数据片段进行语音情绪识别,得到与各所述语音数据片段对应的目标情绪标签;根据各所述语音数据片段对应的目标对象以及所述目标情绪标签,生成所述目标情绪识别结果。3.如权利要求1所述的语音情绪分类模型训练方法,其特征在于,所述对所述待识别语音数据进行情绪跟踪识别,得到与所述待识别语音数据对应的预测情绪识别结果,包括:对所述待识别语音数据进行角色识别,确定所述待识别语音数据中的预测对象;根据各所述预测对象对所述待识别语音数据进行划分,得到包含与各预测对象对应的待识别语音片段的语音序列,所述语音序列中的各所述待识别语音片段按照其在所述待识别语音数据中的时间顺序排列;一个所述预测对象对应至少一个待识别语音片段;对各所述待识别语音片段进行初始情绪识别,得到与各所述待识别语音片段对应的初始语音情绪;获取在所述语音序列中相邻且与同一预测对象对应的两个待识别语音片段各自对应的初始语音情绪,并根据获取的两个所述初始语音情绪确定情绪变化特征;根据所述待识别语音片段、所述初始语音情绪以及所述情绪变化特征,确定与各所述待识别语音片段对应的预测情绪标签;根据各所述待识别语音片段对应的所述预测对象以及所述预测情绪标签,生成所述预测情绪识别结果。4.如权利要求3所述的语音情绪分类模型训练方法,其特征在于,所述根据获取的两个所述初始语音情绪确定情绪变化特征,包括:对获取的两个所述初始语音情绪进行情绪比较,确定情绪比较结果;
在所述情绪比较结果为相同情绪结果时,确定所述情绪变化特征为跟踪情绪特征;所述相同情绪结果表征获取的两个所述初始语音情绪相同;在所述情绪比较结果为不同情绪结果时,确定所述情绪变化特征为单体情绪特征;所述不同情绪结果表征获取的两个所述初始语音情绪不同。5.如权利要求4所述的语音情绪分类模型训练方法,其特征在于,所述根据所述待识别语音片段、所述初始语音情绪以及所述情绪变化特征,确定与各所...

【专利技术属性】
技术研发人员:张超魏韬马骏王少军
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1