一种图像处理模型训练方法及装置制造方法及图纸

技术编号:29405881 阅读:14 留言:0更新日期:2021-07-23 22:44
本申请实施例涉及一种图像处理模型训练方法及装置,该方法包括:将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,所述图像处理模型中n1个神经元的参数进行了放大且n2个神经元的参数进行了缩小;计算所述训练数据集中所述图像数据的标注结果与所述处理结果的误差;根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整;其中,n1、n2为正整数。通过对神经元的参数进行放大和缩小,提高图像处理模型的抗干扰能力,从而实现抑制过拟合的效果,并且能够保证图像处理模型的训练效率。

【技术实现步骤摘要】
一种图像处理模型训练方法及装置
本专利技术涉及神经网络
,尤其涉及一种图像处理模型训练方法及装置。
技术介绍
图像处理模型用于对图像进行检测、分割、分类等处理,图像处理模型通常为基于神经网络架构的模型。图像处理模型由多个神经网络层组成,每个神经网络层包括多个神经元。通过训练数据集中的训练数据可以对神经元的参数进行训练,从而实现对图像处理模型的训练。在图像处理模型的训练过程中,将训练数据集中的训练数据输入图像处理模型,图像处理模型计算训练数据的输出结果。将训练数据的标注结果和图像处理模型的输出结果进行比较,并基于比较的结果,调整图像处理模型的参数,直至图像处理模型的输出结果趋近于标注结果,或图像处理模型的输出结果与标准结果一致。在图像处理模型训练完成后,一般还通过测试数据来验证图像处理模型的准确性。在对图像处理模型验证时可能出现过拟合的问题,过拟合指图像处理模型可以很好地拟合训练数据的标注结果,但不能很好地拟合测试数据的标注结果,并且随着图像处理模型训练次数的增加,对训练数据的标注结果的拟合越好,对测试数据的标注结果的拟合越不好。因此过拟合问题会影响图像处理模型的准确性,而如何抑制过拟合成为了图像处理过程中需要解决的重要问题。
技术实现思路
本申请实施例提供一种图像处理模型训练方法及装置,用以达到抑制过拟合的效果,提高图像处理模型的准确性。第一方面,本申请实施例提供一种图像处理模型训练方法,该方法包括:将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,所述图像处理模型中n1个神经元的参数进行了放大且n2个神经元的参数进行了缩小;计算所述训练数据集中所述图像数据的标注结果与所述处理结果的误差;根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整;其中,n1、n2为正整数。本申请实施例中,图像处理模型训练装置通过对图像处理模型中神经元的参数进行缩放,对图像处理模型的训练过程进行加扰,提高图像处理模型的抗干扰能力,从而起到抑制过拟合的效果,提高图像处理模型的准确性,并且还保证了图像处理模型的训练效率。在一种可能的设计中,所述图像处理模型为基于神经网络架构的模型,所述神经网络架构包括M个神经网络层,所述M个神经网络层包括输入层、隐含层和输出层;所述图像处理模型中m个神经网络层中的n1个神经元的参数进行了放大,且所述m个神经网络层中的n2个神经元的参数进行缩小;其中,M、m为正整数,m小于或等于M。在每次训练过程中选取m个神经网络层中神经元的参数进行缩放,通过每次训练过程中选取的m个神经网络层的不同,能够进一步地提高图像处理模型的抗干扰能力,从而进一步达到更好的抑制过拟合的效果。在一种可能的设计中,所述将训练数据集中的图像数据输入到图像处理模型进行处理之前,所述方法还包括:确定所述m个神经网络层中每个神经网络层的缩放比率和缩放倍数,其中缩放倍数包括缩小倍数和放大倍数;根据所述m个神经网络层中每个神经网络层的缩放比率,确定所述每个神经网络层中待放大参数的神经元和待缩小参数的神经元,n1为所述每个神经网络层中待放大参数的神经元的数量之和,n2为所述每个神经网络层中待缩小参数的神经元的数量之和;根据所述m个神经网络层中每个神经网络层的放大倍数,对所述每个神经网络层中待放大参数的神经元的参数进行放大;根据所述每个神经网络层的缩小倍数,对所述每个神经网络层中待缩小参数的神经元的参数进行缩小。在每次训练之前,选取待放大参数的神经元和待缩小参数的神经元,然后采用对应的放大倍数对待放大参数的神经元的参数放大,采用对应的放大倍数对待缩小参数的神经元的参数缩小,以在每次训练之前对图像处理模型增加干扰,能够进一步地提高图像处理模型的抗干扰能力,从而进一步达到更好的抑制过拟合的效果。在一种可能的设计中,所述m个神经网络层中的每个神经网络层中包括至少一组待放大参数的神经元和至少一组待缩小参数的神经元,所述至少一组待放大参数的神经元和所述至少一组待缩小参数的神经元组成N组神经元;所述根据所述m个神经网络层中每个神经网络层的放大倍数,对所述每个神经网络层中待放大参数的神经元的参数进行放大,包括:根据所述每个神经网络层中每组待放大参数的神经元对应的放大倍数,对所述每组待放大参数的神经元中神经元的参数进行放大;所述根据所述每个神经网络层的缩小倍数,对所述每个神经网络层中待缩小参数的神经元的参数进行缩小,包括:根据所述每个神经网络层中每组待缩小参数的神经元对应的缩小倍数,对所述每组待缩小参数的神经元中神经元的参数进行缩小。通过选取不同组的神经元,可以提供更多种放大和缩小的组合,从而在每次训练之前对图像处理模型增加干扰,能够进一步地提高图像处理模型的抗干扰能力,从而进一步达到更好的抑制过拟合的效果。N组神经元中每组神经元内的神经元的数量可以相同或不同。在一种可能的设计中,所述N组神经元中每组神经元内的神经元的数量相同,满足以下条件:N为每组待放大参数的神经元对应的放大倍数与每组待缩小参数的神经元对应的缩小倍数之和。在一种可能的设计中,所述N组神经元中每组神经元内的神经元的数量不同,满足以下条件:N为每组待放大参数的神经元内所有神经元的放大倍数与每组待缩小参数的神经元内所有神经元的缩小倍数之和,其中所述每组待放大参数的神经元内所有神经元的放大倍数为所述每组待放大参数的神经元的数量与对应的放大倍数的乘积,所述每组待缩小参数的神经元内所有神经元的缩小倍数为所述每组待缩小参数的神经元的数量与对应的缩小倍数的乘积。在一种可能的设计中,所述图像数据为所述训练数据集中的全部图像数据或部分图像数据。在一种可能的设计中,所述根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整之后,所述方法还包括:对所述n1个神经元的参数进行缩小;和/或对所述n2个神经元的参数进行放大。第二方面,本申请实施例提供一种图像处理模型训练装置,该装置可具有实现上述第一方面或第一方面的任一种可能的设计中的功能。上述图像处理模型训练装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现,所述硬件或软件包括一个或多个与上述功能相对应的模块。该装置可以包括:处理单元,计算单元和调整单元。其中,处理单元,用于将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,所述图像处理模型中n1个神经元的参数进行了放大且n2个神经元的参数进行了缩小,其中,n1、n2为正整数;计算单元,用于计算所述训练数据集中所述图像数据的标注结果与所述处理结果的误差;调整单元,用于根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整。在一种可能的设计中,所述图像处理模型为基于神经网络架构的模型,所述神经网络架构包括M个神经网络层,所述M个神经网络层包括输入层、隐含层和输出层;所述图像处理模型中m个神经网络层中的n1个神经元的参数进行了放大,且所述m个神经网络层中的n2个神经元的参数进行缩小;本文档来自技高网...

【技术保护点】
1.一种图像处理模型训练方法,其特征在于,包括:/n将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,所述图像处理模型中n1个神经元的参数进行了放大且n2个神经元的参数进行了缩小;/n计算所述训练数据集中所述图像数据的标注结果与所述处理结果的误差;/n根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整;/n其中,n1、n2为正整数。/n

【技术特征摘要】
1.一种图像处理模型训练方法,其特征在于,包括:
将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,所述图像处理模型中n1个神经元的参数进行了放大且n2个神经元的参数进行了缩小;
计算所述训练数据集中所述图像数据的标注结果与所述处理结果的误差;
根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整;
其中,n1、n2为正整数。


2.如权利要求1所述的方法,其特征在于,所述图像处理模型为基于神经网络架构的模型,所述神经网络架构包括M个神经网络层,所述M个神经网络层包括输入层、隐含层和输出层;
所述图像处理模型中m个神经网络层中的n1个神经元的参数进行了放大,且所述m个神经网络层中的n2个神经元的参数进行缩小;
其中,M、m为正整数,m小于或等于M。


3.如权利要求2所述的方法,其特征在于,所述将训练数据集中的图像数据输入到图像处理模型进行处理之前,所述方法还包括:
确定所述m个神经网络层中每个神经网络层的缩放比率和缩放倍数,其中缩放倍数包括缩小倍数和放大倍数;
根据所述m个神经网络层中每个神经网络层的缩放比率,确定所述每个神经网络层中待放大参数的神经元和待缩小参数的神经元,n1为所述每个神经网络层中待放大参数的神经元的数量之和,n2为所述每个神经网络层中待缩小参数的神经元的数量之和;
根据所述m个神经网络层中每个神经网络层的放大倍数,对所述每个神经网络层中待放大参数的神经元的参数进行放大;根据所述每个神经网络层的缩小倍数,对所述每个神经网络层中待缩小参数的神经元的参数进行缩小。


4.如权利要求3所述的方法,其特征在于,所述m个神经网络层中的每个神经网络层中包括至少一组待放大参数的神经元和至少一组待缩小参数的神经元,所述至少一组待放大参数的神经元和所述至少一组待缩小参数的神经元组成N组神经元;
所述根据所述m个神经网络层中每个神经网络层的放大倍数,对所述每个神经网络层中待放大参数的神经元的参数进行放大,包括:
根据所述每个神经网络层中每组待放大参数的神经元对应的放大倍数,对所述每组待放大参数的神经元中神经元的参数进行放大;
所述根据所述每个神经网络层的缩小倍数,对所述每个神经网络层中待缩小参数的神经元的参数进行缩小,包括:
根据所述每个神经网络层中每组待缩小参数的神经元对应的缩小倍数,对所述每组待缩小参数的神经元中神经元的参数进行缩小。


5.如权利要求4所述的方法,其特征在于,所述N组神经元中每组神经元内的神经元的数量相同,满足以下条件:N为每组待放大参数的神经元对应的放大倍数与每组待缩小参数的神经元对应的缩小倍数之和。


6.如权利要求4所述的方法,其特征在于,所述N组神经元中每组神经元内的神经元的数量不同,满足以下条件:N为每组待放大参数的神经元内所有神经元的放大倍数与每组待缩小参数的神经元内所有神经元的缩小倍数之和,其中所述每组待放大参数的神经元内所有神经元的放大倍数为所述每组待放大参数的神经元的数量与对应的放大倍数的乘积,所述每组待缩小参数的神经元内所有神经元的缩小倍数为所述每组待缩小参数的神经元的数量与对应的缩小倍数的乘积。


7.如权利要求1-6任一项所述的方法,其特征在于,所述图像数据为所述训练数据集中的全部图像数据或部分图像数据。


8.如权利要求1-7任一项所述的方法,其特征在于,所述根据所述标注结果与所述处理结果的误差,对所述图像处理模型的参数进行调整之后,所述方法还包括:
对所述n1个神经元的参数进行缩小;和/或
对所述n2个神经元的参数进行放大。


9.一种图像处理模型训练装置,其特征在于,所述装置包括:
处理单元,用于将训练数据集中的图像数据输入到图像处理模型进行处理,得到所述图像数据对应的处理结果,...

【专利技术属性】
技术研发人员:邹声元常亚
申请(专利权)人:华为技术有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1