System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及语音识别,尤其涉及一种基于大模型和情绪轮盘的情绪识别交互方法以及一种基于大模型和情绪轮盘的情绪识别交互系统。
技术介绍
1、现有情绪识别技术,主要基于自然语言处理(nlp)和机器学习,使计算机能够理解和解释人类语言中的情感。这些技术通过特定算法,如支持向量机(svm)和神经网络,分析文本和语音数据,以识别用户情绪的正面或负面倾向。然而,这些系统通常依赖于预定义的关键词或短语,限制了它们在理解复杂或隐含情感表达方面的能力。此外,它们在不同的语境、文化背景或个体差异下的识别准确性有限。随着深度学习技术的发展,卷积神经网络(cnn)和循环神经网络(rnn)等技术被引入情感分析领域,提高了对复杂语言结构的理解能力,使情感识别变得更加准确和灵活。尽管如此,现有技术在处理不同语言、方言或口语化表达时仍面临挑战,情感识别的主观性和复杂性使得提高准确性和适应性。
2、现有技术的缺点主要体现在以下几个方面:
3、(1)有限的情绪细分能力:目前的情绪识别技术主要识别基本的情绪类型,如快乐、悲伤等,但在识别更细致和复杂的情绪表达方面能力有限。
4、(2)识别准确性和适应性不足:现有技术在不同语境、文化背景或个体情绪表达方式的适应性和准确性方面存在局限。
5、(3)对复杂情绪表达的理解不足:在处理隐含或非直观的情绪表达时,如微妙的情感变化或文化特定的情绪表达,现有技术常常无法提供准确的识别。
技术实现思路
1、针对上述问题,本专利技术提供了一种
2、为实现上述目的,本专利技术提供了一种基于大模型和情绪轮盘的情绪识别交互方法,包括:
3、根据接收到的用户语音,通过语音识别得到对应的文本数据;
4、基于情绪轮盘的情绪分类,利用预训练的bert模型或prompt微调大模型,对所述文本数据进行文本情绪识别;
5、利用预训练的语音情绪识别模型,对所述用户语音进行语音情绪识别;
6、综合文本情绪识别结果和语音情绪识别结果,确定当前用户的情绪类别;
7、利用预训练的大语言模型,针对当前用户的所述情绪类别,根据情绪映射关系,生成交互会话并输出。
8、在上述技术方案中,优选地,基于大模型和情绪轮盘的情绪识别交互方法还包括:
9、针对当前用户的所述情绪类别,利用动画生成系统,生成数字人交互动画并输出显示。
10、在上述技术方案中,优选地,基于所述情绪轮盘形式的情绪分类,所述bert模型对编码后的所述文本数据进行分析,或者,所述prompt微调大模型对所述文本数据进行分析,识别得到所述文本数据对应所述情绪轮盘的情绪类别。
11、在上述技术方案中,优选地,所述语音情绪识别模型利用不同情绪类别的语音数据进行预训练,使得所述语音情绪识别模型能够针对输入的所述用户语音,识别得到对应的情绪类别。
12、在上述技术方案中,优选地,所述大语言模型采用预训练的通用语言模型进行初始化,并通过特定用户的对话样本数据或语料库进行微调;
13、微调训练完成的所述大语言模型,根据当前用户的情绪类别,生成针对对应情绪类别的个性化交互会话。
14、本专利技术还提出一种基于大模型和情绪轮盘的情绪识别交互系统,应用如上述技术方案中任一项公开的基于大模型和情绪轮盘的情绪识别交互方法,包括:
15、语音文本转换模块,用于根据接收到的用户语音,通过语音识别得到对应的文本数据;
16、文本情绪识别模块,用于基于情绪轮盘的情绪分类,利用预训练的bert模型或prompt微调大模型,对所述文本数据进行文本情绪识别;
17、语音情绪识别模块,用于利用预训练的语音情绪识别模型,对所述用户语音进行语音情绪识别;
18、用户情绪分类模块,用于综合文本情绪识别结果和语音情绪识别结果,确定当前用户的情绪类别;
19、映射交互会话模块,用于利用预训练的大语言模型,针对当前用户的所述情绪类别,根据情绪映射关系,生成交互会话并输出。
20、在上述技术方案中,优选地,基于大模型和情绪轮盘的情绪识别交互系统还包括:
21、数字动画交互模块,用于针对当前用户的所述情绪类别,利用动画生成系统,生成数字人交互动画并输出显示。
22、在上述技术方案中,优选地,所述文本情绪识别模块中,基于所述情绪轮盘形式的情绪分类,所述bert模型对编码后的所述文本数据进行分析,或者,所述prompt微调大模型对所述文本数据进行分析,识别得到所述文本数据对应所述情绪轮盘的情绪类别。
23、在上述技术方案中,优选地,所述语音情绪识别模块中,所述语音情绪识别模型利用不同情绪类别的语音数据进行预训练,使得所述语音情绪识别模型能够针对输入的所述用户语音,识别得到对应的情绪类别。
24、在上述技术方案中,优选地,所述映射交互会话模块中,所述大语言模型采用预训练的通用语言模型进行初始化,并通过特定用户的对话样本数据或语料库进行微调;
25、微调训练完成的所述大语言模型,根据当前用户的情绪类别,生成针对对应情绪类别的个性化交互会话。
26、与现有技术相比,本专利技术的有益效果为:
27、(1)精细和准确的情绪分类:
28、利用大模型的强大语言理解能力,结合情绪罗盘的细化分类,本专利技术能够识别和理解从基本到复杂的各种情绪类型。大模型的优势在于其对语境的深度理解和对细微差异的敏感性,使得情绪识别更加精确。
29、(2)适应性和灵活性的提升:
30、通过prompt微调大模型,本专利技术能够根据不同语境和文化背景调整识别策略,增强情绪识别的适应性和灵活性。大模型的这种适应性使得本专利技术能够有效地应对多样化的用户情绪表达。
31、(3)对复杂情绪表达的强化理解:
32、结合bert模型的双向验证,本专利技术能够更深入地理解复杂和隐含的情绪表达。这一点得益于大模型的高级语境分析能力,提升了对细微情感差异的识别准确性。
33、(4)整体效能的显著提升:
34、结合大模型的语言处理优势和情绪罗盘的细分分类,本专利技术在各种应用场景中提供了更有效和实用的情绪识别方案。
本文档来自技高网...【技术保护点】
1.一种基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,包括:
2.根据权利要求1所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,还包括:
3.根据权利要求1或2所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,基于所述情绪轮盘形式的情绪分类,所述BERT模型对编码后的所述文本数据进行分析,或者,所述prompt微调大模型对所述文本数据进行分析,识别得到所述文本数据对应所述情绪轮盘的情绪类别。
4.根据权利要求3所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,所述语音情绪识别模型利用不同情绪类别的语音数据进行预训练,使得所述语音情绪识别模型能够针对输入的所述用户语音,识别得到对应的情绪类别。
5.根据权利要求4所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,所述大语言模型采用预训练的通用语言模型进行初始化,并通过特定用户的对话样本数据或语料库进行微调;
6.一种基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,应用如权利要求1至5中任一项所述的基于大模型和情绪轮盘的情绪识别交互
7.根据权利要求6所述的基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,还包括:
8.根据权利要求6或7所述的基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,所述文本情绪识别模块中,基于所述情绪轮盘形式的情绪分类,所述BERT模型对编码后的所述文本数据进行分析,或者,所述prompt微调大模型对所述文本数据进行分析,识别得到所述文本数据对应所述情绪轮盘的情绪类别。
9.根据权利要求8所述的基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,所述语音情绪识别模块中,所述语音情绪识别模型利用不同情绪类别的语音数据进行预训练,使得所述语音情绪识别模型能够针对输入的所述用户语音,识别得到对应的情绪类别。
10.根据权利要求9所述的基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,所述映射交互会话模块中,所述大语言模型采用预训练的通用语言模型进行初始化,并通过特定用户的对话样本数据或语料库进行微调;
...【技术特征摘要】
1.一种基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,包括:
2.根据权利要求1所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,还包括:
3.根据权利要求1或2所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,基于所述情绪轮盘形式的情绪分类,所述bert模型对编码后的所述文本数据进行分析,或者,所述prompt微调大模型对所述文本数据进行分析,识别得到所述文本数据对应所述情绪轮盘的情绪类别。
4.根据权利要求3所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,所述语音情绪识别模型利用不同情绪类别的语音数据进行预训练,使得所述语音情绪识别模型能够针对输入的所述用户语音,识别得到对应的情绪类别。
5.根据权利要求4所述的基于大模型和情绪轮盘的情绪识别交互方法,其特征在于,所述大语言模型采用预训练的通用语言模型进行初始化,并通过特定用户的对话样本数据或语料库进行微调;
6.一种基于大模型和情绪轮盘的情绪识别交互系统,其特征在于,应用如权...
【专利技术属性】
技术研发人员:林昱洲,贾信明,宋胜洪,孟桂伏,
申请(专利权)人:华院分析技术上海有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。