System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于自然语言处理,尤其涉及一种bert模型的训练方法、系统、计算机设备、存储介质及程序产品。
技术介绍
1、随着大语言模型的发展,如llama、gemini、gpt-4等,人文社科等领域均发展迅速。bert模型在语言理解任务中的卓越表现早已为人所知,但近年来这些模型的发展相对缓慢,这可能是由于它们原始模型缺乏生成能力。生成任务需要模型能够在序列生成过程中进行高质量的推断,而bert模型在这方面的性能受到限制,主要原因在于其训练和推理过程之间的解码路径不匹配问题。
2、现有bert模型在生成任务中表现不佳的主要原因可以归结为模型在训练和推理过程中,序列分解格式的显著差异性。具体来说,自回归模型在语言建模时能够自然地分解为从左到右依次预测下一个标记的任务,并在推理过程中按照相同顺序依次生成序列。相比之下,bert模型在训练期间采用随机分解方法,即随机选择一部分标记并将其替换为掩码标记(例如[mask]标记),来训练模型预测这些掩盖后的标记内容。然而,在推理过程中,这些模型往往遵循某些给定的标准来确定解码路径,从完全掩盖的序列中逐步生成目标序列。这种训练-推理过程中的不一致导致了显著的性能差距。
技术实现思路
1、本专利技术针对现有技术中的不足,提供一种bert模型的训练方法、系统、计算机设备、存储介质及程序产品。
2、第一方面,本专利技术提供一种bert模型的训练方法,包括:
3、利用预先构建的bert模型以多个解码路径分别生成多个序列;<
...【技术保护点】
1.一种BERT模型的训练方法,其特征在于,包括:
2.根据权利要求1所述的BERT模型的训练方法,其特征在于,所述将多个序列划分为正样本和负样本,包括:
3.根据权利要求1所述的BERT模型的训练方法,其特征在于,所述利用参考模型对正样本和负样本进行采样,以构建偏好学习损失函数,包括:
4.根据权利要求1所述的BERT模型的训练方法,其特征在于,所述构建正则惩罚项损失函数,包括:
5.根据权利要求1所述的BERT模型的训练方法,其特征在于,所述构建掩码预测损失函数,包括:
6.根据权利要求1所述的BERT模型的训练方法,其特征在于,所述根据偏好学习损失函数、正则惩罚项损失函数和掩码预测损失函数确定BERT模型的总损失,得到训练好的BERT模型,包括:
7.一种BERT模型的训练系统,其特征在于,包括:
8.一种计算机设备,其特征在于,包括处理器和存储器;其中,处理器执行存储器中保存的计算机程序时实现权利要求1-6任一项所述的BERT模型的训练方法的步骤。
9.一种计算机可读存储介质,
10.一种计算机程序产品,其特征在于,包括计算机可执行指令或计算机程序,计算机可执行指令或计算机程序被处理器执行时,实现权利要求1-6所述的BERT模型的训练方法的步骤。
...【技术特征摘要】
1.一种bert模型的训练方法,其特征在于,包括:
2.根据权利要求1所述的bert模型的训练方法,其特征在于,所述将多个序列划分为正样本和负样本,包括:
3.根据权利要求1所述的bert模型的训练方法,其特征在于,所述利用参考模型对正样本和负样本进行采样,以构建偏好学习损失函数,包括:
4.根据权利要求1所述的bert模型的训练方法,其特征在于,所述构建正则惩罚项损失函数,包括:
5.根据权利要求1所述的bert模型的训练方法,其特征在于,所述构建掩码预测损失函数,包括:
6.根据权利要求1所述的bert模型的训练方法,其特征在于,所述根据偏好学习损失函数、正则惩罚项损失函数和掩...
【专利技术属性】
技术研发人员:肖义胜,梁小波,贾科航,李俊涛,张民,
申请(专利权)人:苏州大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。