System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术公开一种基于因果关系感知的大语言模型微调方法及装置,涉及自然语言处理。
技术介绍
1、大型语言模型llms在问答、文本摘要等多种任务中展现出卓越能力,并已广泛应用于客户服务和代码辅助等实际场景。然而,当这些模型被部署到特定领域时,比如古文理解领域中,通常需要进行调整以满足特定需求。目前,在特定数据集上微调大型语言模型是提高目标任务性能的常见做法。然而,对llms进行微调通常会导致模型对微调任务过度专业化,并通过上下文学习损害模型在未见过的任务上的泛化能力。目前还没有较完善的方法能够防止微调模型在少数任务上的过度专业化,同时确保模型在广泛的任务范围内依然具备强大的通用能力。
技术实现思路
1、本专利技术针对现有技术的问题,提供一种基于因果关系感知的大语言模型微调方法及装置,针对古文理解的应用场景,通过对训练数据进行因果分析,识别出数据中的因果关系,并根据这些因果关系来指导模型参数的更新,以实现更加高效的微调,并能够防止微调模型在少数任务上的过度专业化,同时确保模型在广泛的任务范围内依然具备强大的通用能力。
2、本专利技术提出的具体方案是:
3、本专利技术提供一种基于因果关系感知的大语言模型微调方法,针对古文理解的应用场景,对大语言模型进行微调,包括:
4、步骤1:准备数据:构建繁体古文数据集,
5、步骤2:准备预训练基础模型:使用中文llama模型作为预训练基础模型,根据繁体古文的特点调整中文llama模型的分词策略,增量训练
6、步骤3:根据繁体古文数据集,形成微调数据集,并对微调数据集的数据进行扩展与处理,
7、步骤4:加载预训练模型,根据微调数据集对预训练后的中文llama模型基于因果关系进行微调:
8、步骤41:建立因果关系模型,通过因果关系模型进行繁体古文句子因果分析和前后句子时间序列分析,
9、步骤42:构建结构方程模型sem,利用结构方程模型sem确定多个特征之间的因果关系,
10、步骤43:构建因果关系网络,通过因果关系网络实现繁体古文成分的输入变量和现代中文译文的输出变量之间的因果路径,
11、步骤44:利用因果关系模型、结构方程模型sem识别微调数据集中数据间因果关系,提取微调数据集的因果特征,根据因果关系的强度调节因果特征权重,进而调节中文llama模型中涉及因果特征的参数的权重,
12、步骤45:选择中文llama模型中的层进行微调:优先更新因果特征强化层的参数,并设置参数更新策略,
13、不调节中文llama模型中因果性弱或无关的层,
14、步骤46:建立自适应微调策略:动态调整参数更新策略,进行多轮迭代优化微调,
15、步骤5:对迭代微调后中文llama模型进行评估优化,获得模型的性能指标,
16、步骤6:根据模型的性能指标选择最佳模型。
17、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤1中构建繁体古文数据集,包括:
18、s11:整合开源数据集:搜集现有的开源繁体古文数据集,并进行数据清洗和格式化处理,
19、s12:筛选通用数据集:从现有的通用中文数据集中筛选出繁体古文部分,
20、s13:进行简繁转换:将部分通用中文数据转换为繁体古文。
21、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤2中增量训练中文llama模型,包括:
22、通用语料预训练:使用包含简体和繁体古文的通用语料进行预训练,
23、繁体古文领域细化训练:使用繁体古文数据集进行领域内训练,得到预训练的中文llama模型。
24、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤3中根据繁体古文数据集,形成微调数据集,包括:
25、根据繁体古文数据集,构建问答数据:
26、设计问题:设计不同层次的问题,问题类型包括:字词释义类问题、句意理解类问题、因果关系解析类问题和时间顺序推断类问题,
27、构建问答对:基于繁体古文对应的现代中文译文,构建问答对。
28、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤3中对微调数据集的数据进行扩展与处理,包括:
29、筛选及审核:对微调数据集中没有现代中文译文的繁体古文进行初步筛选,对筛选出的繁体古文进行初步翻译,选出高置信度的译文,对选出的高置信度译文进行审核;
30、数据增强:对微调数据集中数据进行同义词替换、句式变换、上下文重构的操作,以便实现数据增强。
31、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤41中建立因果关系模型,包括:
32、步骤411:通过因果关系模型进行繁体古文句子因果分析,捕捉句子中的因果性或文本生成中的依赖关系,
33、步骤412:通过因果关系模型进行时间序列分析,通过分析前后句子的逻辑关系,推断出事件发生的顺序,进而推测出因果关系。
34、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤45中优先更新因果特征强化层的参数,包括:根据因果特征强化层的因果特征重要性动态调整参数更新速率;
35、设置参数更新策略时,基于因果关系的强度设置学习率,因果关系的强度较高则设置较高学习率,因果关系的强度较低则设置较低学习率。
36、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤46中动态调整参数更新策略,包括:利用验证集验证微调后中文llama模型,获得反馈,根据反馈调整学习率。
37、进一步,所述的一种基于因果关系感知的大语言模型微调方法的步骤5中对微调后中文llama模型进行评估优化,包括:
38、步骤51:任务评估:
39、对微调后中文llama模型进行标准化测试:使用标准化测试集对微调后中文llama模型进行全面测试,
40、对微调后中文llama模型进行跨任务测试:除了进行古文理解任务测试,还将微调后中文llama模型进行现代中文翻译任务测试、文本摘要任务测试和情感分析任务测试,
41、步骤52:进行结果对比分析:
42、进行微调前后对比:将微调前后的中文llama模型进行对比分析,
43、进行自动化工具比较:使用自动化工具比较中文llama模型生成的答案与标准答案之间的差异。
44、本专利技术还提供一种基于因果关系感知的大语言模型微调装置,所述装置针对古文理解的应用场景,对大语言模型进行微调,包括数据准备模块、模型管理模块、模型微调模块和评估优化模块,
45、数据准备模块准备数据:构建繁体古文数据集,
46、模型管理模块准备预训练基础模型:使用中文llama模型作为预训练基础模型,根据繁体古文的特点调整中文lla本文档来自技高网...
【技术保护点】
1.一种基于因果关系感知的大语言模型微调方法,其特征是针对古文理解的应用场景,对大语言模型进行微调,包括:
2.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤1中构建繁体古文数据集,包括:
3.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤2中增量训练中文LLama模型,包括:
4.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤3中根据繁体古文数据集,形成微调数据集,包括:
5.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤3中对微调数据集的数据进行扩展与处理,包括:
6.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤4中,具体包括:
7.根据权利要求6所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤41中建立因果关系模型,包括:
8.根据权利要求6所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤45中优先更新因果特征强化层的参数,包括
9.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤5中对微调后中文LLama模型进行评估优化,包括:
10.一种基于因果关系感知的大语言模型微调装置,其特征是所述装置针对古文理解的应用场景,对大语言模型进行微调,包括数据准备模块、模型管理模块、模型微调模块和评估优化模块,
...【技术特征摘要】
1.一种基于因果关系感知的大语言模型微调方法,其特征是针对古文理解的应用场景,对大语言模型进行微调,包括:
2.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤1中构建繁体古文数据集,包括:
3.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤2中增量训练中文llama模型,包括:
4.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤3中根据繁体古文数据集,形成微调数据集,包括:
5.根据权利要求1所述的一种基于因果关系感知的大语言模型微调方法,其特征是步骤3中对微调数据集的数据进行扩展与处理,包括:
6.根据权利要求1所述的一种基于因果关系感知...
【专利技术属性】
技术研发人员:杨彤,李雪,姜凯,李锐,
申请(专利权)人:山东浪潮科学研究院有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。