【技术实现步骤摘要】
语言模型预训练方法和装置
本申请涉及计算机
,具体涉及自然语言处理
,尤其涉及一种语言模型预训练方法和装置。
技术介绍
现有技术中,NLP(NaturalLanguageProcessing,自然语言处理)领域中目前最先进的语言表征模型是BERT(BidirectionalEncoderRepresentationsfromTransformers,源于Transformers的双向编码器),其是一个多层TransformerEncoder模型,该模型通过在大量自然文本上优化两个自监督任务:1)字符级去噪自编码任务(将输入端随机掩码的字符,还原为原始输入字符),2)句子连贯性预测任务(预测两句是否是连贯)学习自然文本的语言表征。
技术实现思路
本申请实施例提出了语言模型预训练方法和装置。第一方面,本申请提供了一种语言模型预训练方法,该方法包括:获取初始语言模型,初始语言模型用于确定输入到初始语言模型的文本数据中包含的字之间的关联关系;获取训练初始语言模型的训练样本集,训练样本集中的训练样本包括样本数据、第一标注信息和第二标注信息;将样本数据作为输入,将第一标注信息作为与初始语言模型的第一输出端连接的初始去噪自编码模型的期望输出,并将第二标注信息作为与初始语言模型的第二输出端连接的初始序列到序列模型的期望输出,对初始语言模型、初始去噪自编码模型和初始序列到序列模型进行预训练,得到训练后的语言模型;其中,训练样本的样本数据包括遮蔽后的原始文本和原始文本音韵信息,训练样本的第 ...
【技术保护点】
1.一种语言模型预训练方法,所述方法包括:/n获取初始语言模型,所述初始语言模型用于确定输入到所述初始语言模型的文本数据中包含的字之间的关联关系;/n获取训练初始语言模型的训练样本集,所述训练样本集中的训练样本包括样本数据、第一标注信息和第二标注信息;/n将所述样本数据作为输入,将第一标注信息作为与所述初始语言模型的第一输出端连接的初始去噪自编码模型的期望输出,并将第二标注信息作为与所述初始语言模型的第二输出端连接的初始序列到序列模型的期望输出,对所述初始语言模型、所述初始去噪自编码模型和所述初始序列到序列模型进行预训练,得到训练后的语言模型;/n其中,所述训练样本的样本数据包括遮蔽后的原始文本和所述原始文本音韵信息,所述训练样本的第一标注信息为所述原始文本中的遮蔽字或词,所述训练样本的第二标注信息为所述原始文本音韵信息。/n
【技术特征摘要】
1.一种语言模型预训练方法,所述方法包括:
获取初始语言模型,所述初始语言模型用于确定输入到所述初始语言模型的文本数据中包含的字之间的关联关系;
获取训练初始语言模型的训练样本集,所述训练样本集中的训练样本包括样本数据、第一标注信息和第二标注信息;
将所述样本数据作为输入,将第一标注信息作为与所述初始语言模型的第一输出端连接的初始去噪自编码模型的期望输出,并将第二标注信息作为与所述初始语言模型的第二输出端连接的初始序列到序列模型的期望输出,对所述初始语言模型、所述初始去噪自编码模型和所述初始序列到序列模型进行预训练,得到训练后的语言模型;
其中,所述训练样本的样本数据包括遮蔽后的原始文本和所述原始文本音韵信息,所述训练样本的第一标注信息为所述原始文本中的遮蔽字或词,所述训练样本的第二标注信息为所述原始文本音韵信息。
2.根据权利要求1所述的方法,所述样本数据通过以下方式得到:
获取原始文本和原始文本音韵信息;
随机遮蔽原始文本中的字或词,得到遮蔽后的原始文本;
连接所述遮蔽后的原始文本和原始文本音韵信息,得到样本数据。
3.根据权利要求1或2任一所述的方法,所述初始语言模型包括:字符编码器和基于BERT机制构建的语言模型,其中,所述字符编码器用于将输入数据中的每个字转换成对应的字向量,并将所述字向量、每个字所在的句子向量以及每个字的位置向量进行相加,得到所述基于BERT机制构建的语言模型的输入向量。
4.根据权利要求1-3任一所述的方法,所述音韵信息包括音韵停顿信息、音子信息和音调信息。
5.根据权利要求1-4任一所述的方法,所述对所述初始语言模型、所述初始去噪自编码模型和所述初始序列到序列模型进行预训练,得到训练后的语言模型,包括如下的交替训练步骤:
将样本数据作为输入,将该样本数据的第一标注信息作为当前去噪自编码模型的期望输出,对当前去噪自编码模型和当前语言模型进行训练;
响应于当前去噪自编码模型和当前语言模型满足预先设置的第一收敛条件,将样本数据作为输入,将该样本数据的第二标注信息作为当前序列到序列模型的期望输出,对当前序列到序列模型和当前语言模型进行训练;
响应于当前序列到序列模型和当前语言模型满足预先设置的第二收敛条件,判断当前去噪自编码模型和当前语言模型是否满足预先设置的第一收敛条件,若不满足,则重新执行所述交替训练步骤。
6.一种语言模型预训练装置,所述装置包括:
确定模块,配置用于获取初始语言模型,所述初始语言模型用于确定输入到所述初始语言模型的文本数据中包含的字之间...
【专利技术属性】
技术研发人员:王毅,白洁,陈昌滨,潘政林,聂志朋,高占杰,
申请(专利权)人:百度在线网络技术北京有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。