当前位置: 首页 > 专利查询>江南大学专利>正文

一种面向小数据集样本的GAN判别器能力抑制算法制造技术

技术编号:38328640 阅读:22 留言:0更新日期:2023-07-29 09:11
本发明专利技术属于数据增强应用领域,具体涉及一种面向小数据集样本的GAN判别器能力抑制算法。本发明专利技术采用一种新型的判别器抑制模块,在判别器将判断结果进行损失计算之前,对其进行缩放处理。当判别器对真实数据进行判断时,会随机选取判别值与平均值进行判断,若该判别值大于同一批次中的平均值,则将其减去λ倍的平均值,从而达到缩小判别值的目的。而当判别器对生成器生成的虚假数据进行判断时,仍会随机选取判别值进行判断,若该判别值小于同一批次中的平均值,则为其加上λ倍的平均值。这样可以保持生成器和判别器之间的平衡,从而避免判别器达到最优状态,解决JS散度为0导致的训练终止问题。终止问题。终止问题。

【技术实现步骤摘要】
一种面向小数据集样本的GAN判别器能力抑制算法


[0001]本专利技术属于数据增强应用领域,具体涉及一种面向小数据集样本的GAN判别器能力抑制算法。
技术背景
[0002]GAN的优异表现往往依赖于充足的数据集,然而在小数据集的情境下,GAN或其他深度学习模型的表现或多或少都会遭受质量下降的困扰,特别是在GAN中,由于判别器的存在,该问题在GAN中显得尤为严重。数据增强操作可以有效缓解数据量不足的带来的困难。然而数据增强极有可能引出另一个问题,也就是样本渗透问题。因此,如何在不过度依赖数据增强操作的情况下缓解判别器过拟合问题仍然需要解决。
[0003]判别器出现过拟合的原因是当真实数据集规模较小时,判别器极易记住所有真实数据的分布情况,从而快速提升自身的判别能力,进而拉大判别器与生成器之间的能力差距,也就是常说的判别器过拟合,生成器欠拟合。然而,GAN的训练是一种对抗性博弈,理想的训练结果应是双方达到纳什均衡,当其中一方的能力过强时,另一方则会处于极度劣势,导致模型训练失败。当判别器出现过拟合时,生成器无法从判别器获取具有对抗意义的损失值,这将导致梯度消失现象的发生,从而阻碍生成器的收敛。如果判别器的网络过于复杂的话,会加剧过拟合问题的发生。
[0004]在防止生成器过拟合,稳定GAN训练并防止模型崩塌的问题上,科研工作者做出了大量的努力并提出了众多有效的方法,例如梯度惩罚、噪声注入、单边标签平滑等。这些方法均可以从不同角度稳定GAN的训练或者防止模型崩塌。例如,梯度惩罚可以通过惩罚过大的梯度值来防止判别器过拟合,从而提高GAN的鲁棒性。而噪声注入可以增加数据的多样性,防止判别器过早地记忆所有的真实数据分布,从而降低判别器过拟合的风险。此外,单边标签平滑也可以在降低模型过拟合的同时提高模型的鲁棒性。当模型崩塌时,所生成的图像风格相似度高,这种情况下无法进行实际的应用,这也说明了减少判别器过拟合对于GAN发展的重要性。尽管现在已经有了许多解决方法,如何有效地减少判别器过拟合仍然是GAN发展路上需要解决的一个重要问题,值得研究学者们持续投入努力。

技术实现思路

[0005]为了解决
技术介绍
中的问题,本专利技术提供了一种面向小数据集样本下的判别器能力抑制算法。
[0006]本专利技术的技术方案如下:
[0007]一种面向小数据集样本的GAN判别器能力抑制算法,步骤如下:
[0008]第一步:将符合高斯分布的随机向量z输入至生成器G中,生成器G根据所输入的随机向量生成虚假图像G(z)。
[0009]第二步:将生成器G所生成的虚假图像G(z)输入至判别器D中,同时真实的图像数据Xreal也被输入至判别器D中。
[0010]所述的判别器D结构如下:
[0011]首先经过一个卷积核大小为3
×
3的卷积层进行特征的提取,然后输出至网络第1层的第1个resnet块再输出至第1层的第2个resnet块,接下来将结果输出至dropout层进行参数的随即丢弃。然后经过第二层中池化窗口为3
×
3的平均池化层进行降维处理。然后输出至网络第2层的第1个resnet块再输出至第2层的第2个resnet块,接下来继续将结果输出至dropout层进行参数的随即丢弃。此过程重复四次,但是最后两次不需要加入dropout层。最后经过view层负责将多维向量平铺为一维向量。然后使用Leaky ReLU激活函数引入非线性变换。最后使用Full connect全连接层将特征整合为一个值并进行输出。
[0012]第三步:判别器D对输入进来的虚假图像G(z)和真实图像Xreal进行鉴别,判别器D会鉴别某个图像是真实或者虚假的概率。
[0013]第四步:判别器D对于真实图像的鉴别结果标记为d_real,对于虚假图像的鉴别结果标记为d_fake,并将d_real与d_fake输入至判别器抑制模块中。
[0014]所述的判别器抑制模块结构如下:
[0015]GAN过拟合的原因在于训练数据集过少,使得判别器很快就能够掌握真实数据集的所有特征。这就使得判别器总是能够准确地区分生成器生成的图像和真实图像。当出现这种情况时,判别器返回给生成器的损失值几乎无法引起数值的扰动,进而引起梯度消失的问题,从而使得GAN无法正常生成逼真的虚假图像。
[0016]为了解决上述问题所提出的判别器能力抑制模块,该模块提出了一个抑制算法来保证生成器G与判别器D之间的能力平衡。其推演过程如下:
[0017]由GAN的目标函数可知,当生成器固定时,训练判别器的目标函数如下所示:
[0018]maxV(D,G)=∫
x
p
data
(x)logD(x)+p
g
log(1

D(x))dx
[0019]该公式通过调整D(x)来获取最大值,所以对D(x)求偏导并使偏导函数为0可得D(x)的值如下式所示,该值也就是判别器D(x)的最优解。
[0020][0021]由上述公式可以看出,若判别器D训练为最佳时,则可以得到:
[0022][0023]移项可得判别器的目标函数为:
[0024]V(D,G)=2JS(p
data
||p
g
)

log4
[0025]在GAN训练中,当判别器达到最优时,导致JS(p
data
||p
g
)=0,判别器的目标函数中的V(D,G)等于常数log4,此时网络无法进行有效的反向传播,导致训练中止。由于只有当判别器接近最优状态时,判别器的目标函数才能简化为求解JS散度的问题。因此本专利技术旨在对判别器的判别能力进行约束,从而避免判别器达到最优状态。具体实现方法是在判别器将判断结果进行损失计算之前,对其进行缩放处理。如下所示:
[0026]Df=S(D
ini
)
±
λD
avg
(λ>0)
[0027]其中D
ini
表示一个batch中判别器的初始判别结果,而D
avg
为该批次中判别结果的平均值,S(D
ini
)表示对该批次判别值进行随机采样,Df表示判别器最终输出的判别结果。当判别器对真实数据进行判断时,会随机选取判别值与平均值进行判断,若该判别值大于同
一批次中的平均值,则将其减去λ倍的平均值,从而达到缩小判别值的目的。而当判别器对生成器生成的虚假数据进行判断时,仍会随机选取判别值进行判断,若该判别值小于同一批次中的平均值,则为其加上λ倍的平均值。
[0028]第五步:判别器抑制模块根据输入进来的d_real与d_fake进行约束处理,具体是对输入数据进行随机采样并以输入数据的平均值为基准进行值的扩大或缩小处理。
[0029]第六步:判别器抑制模块对数据处理完毕之后将约束后的值进行交叉熵损失函数的计算,分别本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种面向小数据集样本的GAN判别器能力抑制算法,其特征在于,步骤如下:第一步:将符合高斯分布的随机向量z输入至生成器G中,生成器G根据所输入的随机向量生成虚假图像G(z);第二步:将生成器G所生成的虚假图像G(z)输入至判别器D中,同时真实的图像数据Xreal也被输入至判别器D中;第三步:判别器D对输入进来的虚假图像G(z)和真实图像Xreal进行鉴别,判别器D会鉴别某个图像是真实或者虚假的概率;第四步:判别器D对于真实图像的鉴别结果标记为d_real,对于虚假图像的鉴别结果标记为d_fake,并将d_real与d_fake输入至判别器抑制模块中;所述的判别器抑制模块结构如下:由GAN的目标函数可知,当生成器固定时,训练判别器的目标函数如下所示:maxV(D,G)=∫
x
p
data
(x)logD(x)+p
g
log(1

D(x))dx该公式通过调整D(x)来获取最大值,所以对D(x)求偏导并使偏导函数为0可得D(x)的值如下式所示,该值也就是判别器D(x)的最优解;由上述公式可以看出,若判别器D训练为最佳时,得到:移项可得判别器的目标函数为:V(D,G)=2JS(p
data
||p
g
)

log4在GAN训练中,当判别器达到最优时,导致JS(p
data
||p
g
)=0,判别器的目标函数中的V(D,G)等于常数log4,此时网络无法进行有效的反向传播,导致训练中止;由于只有当判别器接近最优状态时,判别器的目标函数才能简化为求解JS散度的问题;因此本发明旨在对判别器的判别能力进行约束,从而避免判别器达到最优状态;具体实现方法是在判别器将判断结果进行损失计算之前,对其进行缩放处理,如下所示:Df=S(D
ini
)
±
λD
avg
(λ>0)其中D

【专利技术属性】
技术研发人员:邓赵红徐傲然王士同
申请(专利权)人:江南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1