System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 模型训练方法、装置、设备和存储介质制造方法及图纸_技高网

模型训练方法、装置、设备和存储介质制造方法及图纸

技术编号:40870417 阅读:6 留言:0更新日期:2024-04-08 16:37
本发明专利技术公开了一种模型训练方法、装置、设备和存储介质,所述方法包括:在已标注有标签数据的原始样本集中确定训练样本集,并根据所述训练样本集对神经网络模型进行预训练;将未标注有标签数据的候选样本集输入预训练后的神经网络模型,预测得到所述候选样本集的标签数据,将已预测得到标签数据的候选样本集添加至所述原始样本集中;根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型。本发明专利技术提高了训练数据集的样本数量和样本质量,通过添加后的原始样本集对神经网络模型的训练,提高了识别模型的识别准确度。

【技术实现步骤摘要】

本专利技术涉及计算机,尤其涉及一种模型训练方法、装置、设备和存储介质


技术介绍

1、近年来,随着互联网时代的来临,电信网络案件受理总案件中占比较大,面对海量的电信网络案件文档,如何从非结构化的案件文档中提取结构化的信息作为研判数据,是一大挑战。在通过构建模型对文档中结构化数据进行识别时,前期的模型训练需要大量的标注有标签数据的文档的样本集,由于各种案件的文档数量庞大、内容复杂,页面结构往往存在差异,且语义领域专业相关性强、表述具有多样性,导致人工标注的效率低下,无法满足模型训练的需求,导致训练得到的模型的识别准确度低下,难以提取文档的结构化数据。


技术实现思路

1、本专利技术的主要目的在于提供一种模型训练方法、装置、设备和存储介质,旨在解决如何解决模型的识别准确度低下的问题。

2、为实现上述目的,本专利技术提供的一种模型训练方法,所述模型训练方法包括以下步骤:

3、在已标注有标签数据的原始样本集中确定训练样本集,并根据所述训练样本集对神经网络模型进行预训练;

4、将未标注有标签数据的候选样本集输入预训练后的神经网络模型,预测得到所述候选样本集的标签数据,将已预测得到标签数据的候选样本集添加至所述原始样本集中;

5、根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型。

6、可选地,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤包括:

7、在添加后的所述原始样本集中,确定新的训练样本集;

8、根据新的所述训练样本集对神经网络模型进行预训练;

9、若所述神经网络模型的预测精度小于预设阈值,则执行所述将未标注有标签数据的候选样本集输入预训练后的神经网络模型,预测得到所述候选样本集的标签数据的步骤;

10、若所述神经网络模型的预测精度大于或等于预设阈值,则将所述神经网络模型作为所述识别模型。

11、可选地,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤包括:

12、根据预设的实体知识库和预设的文本规则库,对所述原始样本集的标签数据进行校正,得到校正后的待确定样本集;

13、确定置信度小于预设阈值的待确定样本集,更新所述待确定样本集的标签数据;

14、根据置信度大于或等于预设阈值的待确定样本集和更新后的待确定样本集,确定所述训练样本集。

15、可选地,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤还包括:

16、根据预设的实体知识库和预设的文本规则库,在原始样本集中确定置信度大于预设阈值的目标标签数据;

17、将所述目标标签数据对应的原始样本集添加至训练样本集。

18、可选地,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤之前,还包括:

19、获取已人工标注有标签数据的文本集,作为所述原始样本集;和/或,

20、根据简单数据增广算法对所述原始样本集进行数据增广,根据数据增广后的所述原始样本集,更新所述原始样本集。

21、可选地,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤之后,还包括:

22、将待识别文档输入所述识别模型进行识别,以供所述识别模型提取待识别文档的文本特征和布局特征,根据所述文本特征和所述布局特征,确定所述待识别文档的关键信息;

23、获取所述识别模型输出的所述待识别文档对应的关键信息。

24、可选地,所述识别模型包括编码器,所述编码器用于根据分词之间的最短距离关系、分词与标签数据的候选实体关系以及标签数据之间的规则库关系确定注意力得分;根据所述注意力得分、所述文本特征和所述布局特征,确定所述待识别文档对应的关键信息。

25、为实现上述目的,本专利技术还提供一种模型训练设备,所述模型训练设备包括存储器、处理器以及存储在所述存储器并可在所述处理器上执行的模型训练程序,所述模型训练程序被所述处理器执行时实现如上所述的模型训练方法的各个步骤。

26、为实现上述目的,本专利技术还提供一种计算机可读存储介质,所述计算机可读存储介质存储有模型训练程序,所述模型训练程序被处理器执行时实现如上所述的模型训练方法的各个步骤。

27、本专利技术提供的一种模型训练方法、装置、设备和存储介质,在已标注有标签数据的原始样本集中确定训练样本集,并根据训练样本集对神经网络模型进行预训练;将未标注有标签数据的候选样本集输入预训练后的神经网络模型,预测得到候选样本集的标签数据,将已预测得到标签数据的候选样本集添加至原始样本集中;根据添加后的原始样本集训练预训练后的神经网络模型,得到识别模型。通过预测候选样本集的标签数据,并将已预测得到标签数据添加至原始样本集中,提高了训练数据集的样本数量和样本质量,通过添加后的原始样本集对神经网络模型的训练,提高了识别模型的识别准确度。

本文档来自技高网...

【技术保护点】

1.一种模型训练方法,其特征在于,所述模型训练方法包括:

2.如权利要求1所述的模型训练方法,其特征在于,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤包括:

3.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤包括:

4.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤还包括:

5.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤之前,还包括:

6.如权利要求1所述的模型训练方法,其特征在于,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤之后,还包括:

7.如权利要求6所述的模型训练方法,其特征在于,所述识别模型包括编码器,所述编码器用于根据分词之间的最短距离关系、分词与标签数据的候选实体关系以及标签数据之间的规则库关系确定注意力得分;根据所述注意力得分、所述文本特征和所述布局特征,确定所述待识别文档对应的关键信息。

8.一种模型训练装置,其特征在于,所述模型训练装置包括:

9.一种模型训练设备,其特征在于,所述模型训练设备包括存储器、处理器以及存储在所述存储器并可在所述处理器上执行的模型训练程序,所述模型训练程序被所述处理器执行时实现如权利要求1-7任一项所述的模型训练方法的各个步骤。

10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有模型训练程序,所述模型训练程序被处理器执行时实现如权利要求1-7任一项所述的模型训练方法的各个步骤。

...

【技术特征摘要】

1.一种模型训练方法,其特征在于,所述模型训练方法包括:

2.如权利要求1所述的模型训练方法,其特征在于,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤包括:

3.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤包括:

4.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤还包括:

5.如权利要求1所述的模型训练方法,其特征在于,所述在已标注有标签数据的原始样本集中确定训练样本集的步骤之前,还包括:

6.如权利要求1所述的模型训练方法,其特征在于,所述根据添加后的所述原始样本集训练预训练后的神经网络模型,得到识别模型的步骤之后,还包括:

7...

【专利技术属性】
技术研发人员:胡泽远蒋健李海传罗琼
申请(专利权)人:中国移动通信集团浙江有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1