System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 面向法律领域多任务学习的大语言模型微调训练方法及系统技术方案_技高网

面向法律领域多任务学习的大语言模型微调训练方法及系统技术方案

技术编号:44386263 阅读:0 留言:0更新日期:2025-02-25 10:02
本发明专利技术提供面向法律领域多任务学习的大语言模型微调训练方法及系统,涉及自然语言处理领域,解决了现有大语言模型在具体法律相关应用场景中面临的待处理任务多样和训练调试成本过高的问题;方法包括:获取基础架构并配置多个LoRA模块,用于适配一个或多个不同的下游法律任务;集成任务相关的学习模块,使每个LoRA模块依据下游法律任务的需求进行调整;采用神经网络门控机制,输入与下游法律任务对应的任务嵌入矩阵,动态确定对应下游法律任务的贡献权重,自适应地生成匹配的更新参数,依据不同的下游法律任务场景的具体需求进行微调;本发明专利技术可实现多任务法律业务场景中的高效参数微调,有效降低了场景适配成本与二次开发工作量。

【技术实现步骤摘要】

本专利技术涉及自然语言处理领域,应用于大语言模型的微调训练过程中,具体涉及面向法律领域多任务学习的大语言模型微调训练方法及系统


技术介绍

1、近年来,大语言模型(llms)在自然语言理解和生成方面展现了显著的能力,引起了众多行业的广泛关注。这些模型基于深度学习架构,通过处理海量文本数据来获取语言知识,并能执行各种复杂的自然语言任务。随着基础大模型(foundation llms)的成熟,研究者们开始探索如何通过二次训练或微调,使这些模型适应特定垂直领域的应用需求,以实现更精准、更具针对性的服务。法律领域正是其中一个重要且充满潜力的应用场景之一。

2、法律行业具有其独特的复杂性和专业性,这使得开发能够理解并有效处理法律信息的人工智能系统变得尤为重要。目前,大语言模型已经被应用于在线法律助手,为用户提供即时法律咨询服务;同时,在律所内部,它们也被用来辅助律师进行案件研究、合同审查等工作,极大地提高了工作效率和服务质量。然而,尽管取得了初步的成功,但在实际部署过程中仍然面临着一系列挑战。

3、首先,由于法律相关的下游任务种类繁多,从简单的问答到复杂的案例分析等,不同任务间所需输入输出形式差异巨大,这给采用单一通用模型进行统一微调的方式带来了极大难度。为了满足多样化的需求,往往需要针对每个具体应用场景单独设计微调策略,这不仅消耗了大量专业知识资源,也增加了人力和计算成本。此外,考虑到法律文件通常包含敏感信息,确保数据隐私安全的同时完成高质量的数据标注工作同样是一大难题。

4、其次,现有的一些多任务学习框架虽然能够在一定程度上解决跨任务泛化问题,但对于参数量庞大的大语言模型而言,进行全面参数微调仍然是一个非常耗时且昂贵的过程。传统方法要求对整个网络结构进行调整,即使是在拥有强大算力支持的情况下,这样的操作也可能超出合理的时间范围。因此,迫切需要开发出更加高效灵活的参数优化技术,以便于在保持模型性能的前提下减少训练时间和资源占用。

5、由此可见,虽然基于大语言模型的解决方案为法律领域带来了前所未有的机遇,但要充分发挥其潜力仍需克服诸多障碍;对此,本领域技术人员已将大语言模型在特定领域下的多任务学习部分作为新的研究要点。


技术实现思路

1、基于
技术介绍
中的现状,本专利技术的目的在于解决现有大语言模型在具体法律相关应用场景中面临的待处理任务多样和训练调试成本过高的问题,因此提出了面向法律领域多任务学习的大语言模型微调训练方法及系统。本专利技术通过在大语言模型高效微调方法lora的基础上设计了可学习、多模块集成的多任务高效参数微调框架,实现了多任务法律业务场景中的高效参数微调,并有效降低了模型的场景适配成本以及二次开发工作量。

2、本专利技术采用了以下技术方案来实现目的:

3、一种面向法律领域多任务学习的大语言模型微调训练方法,包括:获取基于大语言模型的基础架构,对所述基础架构配置多个lora模块,其中每个lora模块均用于适配一个或多个不同的下游法律任务;在每个lora模块中集成任务相关的学习模块,通过所述学习模块,使每个lora模块依据对应的下游法律任务的需求进行调整;采用神经网络门控机制,输入与待执行的下游法律任务相对应的任务嵌入矩阵,动态确定每个lora模块对应于下游法律任务的贡献权重;依据所述贡献权重,自适应地为每个下游法律任务生成匹配的更新参数,使大语言模型依据不同的下游法律任务场景的具体需求进行微调;通过所述更新参数对大语言模型进行迭代优化,直至达到预设的模型性能指标。

4、进一步的,所述方法具体包括如下流程步骤:

5、s1、获取基座模型并进行预训练后,得到预训练法律大模型;

6、s2、获取多类法律业务数据并进行数据处理后,生成多任务微调数据;

7、s3、为预训练法律大模型配置多个lora模块,在多任务微调数据的基础上对预训练法律大模型进行多任务微调训练,训练完成后得到多任务法律大模型;

8、s4、将多任务法律大模型进行应用部署,多任务法律大模型即支持多类法律业务数据对应的多个下游法律任务。

9、进一步的,步骤s3中,在配置多个lora模块的同时,采用任务驱动的神经网络门控机制,针对多任务微调数据中不同的具体训练数据,令预训练法律大模型自适应地适配不同的下游法律任务。

10、本专利技术同时提供一种面向法律领域多任务学习的大语言模型微调训练系统,所述系统包括:

11、基于大语言模型的基础架构获取模块,用于提供所述基础架构;

12、多个lora模块配置单元,每个lora模块均适配于一个或多个不同的下游法律任务,并集成有任务相关的学习模块,使得每个lora模块能够依据对应的下游法律任务需求进行调整;

13、神经网络门控机制单元,用于接收与待执行的下游法律任务相对应的任务嵌入矩阵,并动态确定每个lora模块对于下游法律任务的贡献权重;

14、参数更新生成器,用于依据所述神经网络门控机制单元确定的贡献权重,自适应地为每个下游法律任务生成匹配的更新参数,以使大语言模型依据不同下游法律任务场景的具体需求进行微调;

15、模型优化迭代控制器,用于依据所述参数更新生成器产生的更新参数对大语言模型进行迭代优化,直至满足预设的模型性能指标。

16、综上所述,由于采用了本技术方案,本专利技术的有益效果如下:

17、本专利技术通过采用多任务高效参数微调框架,在保持训练推理效率与lora相当的情况下,仅需调整大语言模型总参数量不到1%的部分,即可实现对下游法律业务场景的有效适配。这一方式有效降低了针对具体应用场景进行模型定制化的成本和时间投入。

18、相较于传统的lora高效微调方式,本专利技术提出的方法支持集中式的多任务学习机制,使得单一模型能够同时适应多个不同的下游任务需求,无需为每一个特定任务单独执行lora微调过程。这种设计有效增强了模型对于多样化法律服务场景的支持能力,减少了重复开发的工作量。

19、通过引入任务驱动的门控神经网络学习机制,本专利技术不仅避免了传统微调过程中可能出现的学习效率下降问题,而且确保了在完成训练后进行实际应用时不需要额外增加前向计算负担。这意味着在保证性能的同时进一步提升了计算资源的有效利用率。

本文档来自技高网...

【技术保护点】

1.一种面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:获取基于大语言模型的基础架构,对所述基础架构配置多个LoRA模块,其中每个LoRA模块均用于适配一个或多个不同的下游法律任务;在每个LoRA模块中集成任务相关的学习模块,通过所述学习模块,使每个LoRA模块依据对应的下游法律任务的需求进行调整;采用神经网络门控机制,输入与待执行的下游法律任务相对应的任务嵌入矩阵,动态确定每个LoRA模块对应于下游法律任务的贡献权重;依据所述贡献权重,自适应地为每个下游法律任务生成匹配的更新参数,使大语言模型依据不同的下游法律任务场景的具体需求进行微调;通过所述更新参数对大语言模型进行迭代优化,直至达到预设的模型性能指标。

2.根据权利要求1所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于,所述方法具体包括如下流程步骤:

3.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤S1中,预先使用通用法律语料对基座模型进行训练,从而得到预训练法律大模型。

4.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤S2中,数据处理包括质量过滤、数据去重、数据清洗、分词和标注校对;经过数据处理的多类法律业务数据对应于多个下游法律任务,包括命名实体识别、属性提取、法律实体发现、法律文本分类、意图查询、法律报告生成和法律问答对话。

5.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤S3中,在配置多个LoRA模块的同时,采用任务驱动的神经网络门控机制,针对多任务微调数据中不同的具体训练数据,令预训练法律大模型自适应地适配不同的下游法律任务。

6.根据权利要求5所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:配置的多个LoRA模块之间通过反向传播方式进行协同参数学习与交互,从而保持各个LoRA模块内部的参数学习与更新过程。

7.根据权利要求5所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:进行多任务微调训练时,采用标准梯度下降算法,其中前向计算过程的计算式如下:

8.根据权利要求7所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:多任务微调训练过程中,不同的具体训练数据基于预设配比进行交替训练,所对应的不同下游法律任务使用不同损失函数;训练过程直至损失函数收敛或达到最大迭代轮次后停止,将此时的预训练法律大模型保存后,即作为多任务法律大模型并进行后续应用部署。

9.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤S4中,依据实际业务应用的需求,为多任务法律大模型增加对应的组件支持;增加的组件类型包括数据库与RAG。

10.一种面向法律领域多任务学习的大语言模型微调训练系统,其特征在于,所述系统包括:

...

【技术特征摘要】

1.一种面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:获取基于大语言模型的基础架构,对所述基础架构配置多个lora模块,其中每个lora模块均用于适配一个或多个不同的下游法律任务;在每个lora模块中集成任务相关的学习模块,通过所述学习模块,使每个lora模块依据对应的下游法律任务的需求进行调整;采用神经网络门控机制,输入与待执行的下游法律任务相对应的任务嵌入矩阵,动态确定每个lora模块对应于下游法律任务的贡献权重;依据所述贡献权重,自适应地为每个下游法律任务生成匹配的更新参数,使大语言模型依据不同的下游法律任务场景的具体需求进行微调;通过所述更新参数对大语言模型进行迭代优化,直至达到预设的模型性能指标。

2.根据权利要求1所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于,所述方法具体包括如下流程步骤:

3.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤s1中,预先使用通用法律语料对基座模型进行训练,从而得到预训练法律大模型。

4.根据权利要求2所述的面向法律领域多任务学习的大语言模型微调训练方法,其特征在于:步骤s2中,数据处理包括质量过滤、数据去重、数据清洗、分词和标注校对;经过数据处理的多类法律业务数据对应于多个下游法律任务,包括命名实体识别、属性提取、法律实体发现、法律文本分类、意图查询、法律报告生成和法律问答对话。

5....

【专利技术属性】
技术研发人员:汪洋旭吴怀谷张楠欣温恒一王学凯刘镔莹甘彤
申请(专利权)人:天府绛溪实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1