Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon 您能提供gan中使用的其他损失功能的示例吗


您能提供gan中使用的其他损失功能的示例吗


生成的对抗网络(GAN)采用了超出原始标准gan损失的许多损失功能,每个功能旨在应对训练不稳定性,模式崩溃,消失梯度和收敛问题等挑战。以下是各种各样,经过广泛研究和实际使用的GAN损失功能的关键例子:

标准GAN损失(最小最大损失)
Goodfellow等人的《 2014年开创性报纸》中的原始GAN损失。在发电机和歧视器之间制定了两个玩家的最小游戏。歧视者试图通过最大程度地分配正确的标签的可能性来正确地对真实数据和虚假数据进行分类,而发电机则试图通过最大程度地减少正确识别假数据的可能性来欺骗歧视者。这可以写为:

- 区分损失:最大化$$ \ log d(x) + \ log(1 -d(g(z)))$$
- 发电机损失:最小化$$ \ log(1 -d(g(z)))$$

但是,这种损失通常遭受发电机饱和度的困扰,在这种情况下,发电机会收到消失的梯度并在训练过程中停止改善。

不饱和的gan损失
提高训练稳定性的一种常见变体可以调整发电机的目标,以最大化$$ \ log d(g(z))$$,而不是最小化$$ \ log \ log(1 -d(g(z)))$$。这种替代方案通过在训练的早期提供更强的梯度来避免发电机饱和。它将生成器重新构建为最大化歧视器将生成样品标记为真实的可能性。

Wasserstein Gan损失
Wasserstein损失于2017年推出,用“评论家”取代了标准的二进制分类歧视者,该批评者在连续规模上得分,而不是将它们归类为真实或假货。损失基于真实分布和生成的分布之间的地球移动(Wasserstein-1)距离,该分布提供了平滑的梯度并减轻模式崩溃和消失的梯度。判别器输出层从Sigmoid激活更改为线性,并引入了重量减少或梯度惩罚以实施Lipschitz的连续性:

- 批评损失:最大化$ \ Mathbb {
- 发电机损耗:最小化$$ \ mathbb {e} _ {z \ sim p_z} [d(g(z))] $$

这种损耗功能已成为更稳定的gan训练的标准。

最小二乘gan损失
这一损失在2016年提议,取代了二进制跨排列损失,最小二乘损失,以更严重的是远离决策界限的样本。鉴别器试图使用均方误差将真实样本回归为1,并假冒样品为0,而发电机则尝试生成预测接近1的样品。这降低了消失的梯度并提高梯度质量并帮助生成器学习得更好:

- 判别损失:最小化$$(d(x)-1)^2 +(d(g(z)))^2 $$
- 发电机损失:最小化$$(d(g(z))-1)^2 $$

这种方法通常会产生更高质量的图像和更稳定的培训。

铰链损失
铰链损失是另一种对抗性损失变体,它将歧视训练视为基于边缘的分类问题,而不是概率的分类问题。对鉴别器进行了训练,以最大程度地提高铰链损失,将真实样品推到其下方的空间和假样品之上,而发电机则试图最大程度地提高生成样品的歧视器分数。正式:

- 鉴别损失:$$ \ max(0,1 -d(x)) + \ max(0,1 + d(g(z)))$$
- 发电机损失:$$ -D(g(z))$$

铰链损失已用于流行的高质量GAN体系结构,例如Biggan,以促进更好的梯度流和稳定性。

Wasserstein梯度罚款(WGAN-GP)
Wasserstein Gan的改进,将重量减少替代梯度惩罚,以更有效地执行Lipschitz的约束。梯度罚款增加了一个正规化术语,该术语惩罚了歧视梯度的规范,这些梯度与真实和伪造之间的插值样本的偏差为1。这增强了稳定性和训练的收敛性。

- 损失与Wgan Plus $ \ Lambda \ Mathbb {
这里$$ \ hat {x} $$是在真实数据和生成数据之间插值的样本。

相对论的gan损失
这种损失以相对论的方式而不是绝对概率比较了真实和假样本上的歧视器输出。鉴别器预测真实数据是否比虚假数据更现实,并且发电机相应地训练,这可以导致更好的梯度和更少的模式崩溃。

- 鉴别器尝试最大化$$ \ log \ sigma(d(x)-d(g(z)))$$ $$ \ sigma $$是sigmoid
- 发电机试图最大化$$ \ log \ sigma(d(g(z)) - d(x))$$

这种相对的观点推动了发电机和歧视器,以更直接地评估样本。

态损失
最近通过一种遗传编程方法开发了最佳损失设计,疫苗损失显示了包括医疗图像在内的各种数据集的卓越性能和稳定性。机遗传损失将二进制跨凝性的元素与自我调节相结合,改善训练可重复性和减少模式崩溃。它已有效地用于医学成像中的图像产生和异常检测,超过了稳定性和质量的传统损失功能。可以为发电机和歧视训练制度调整损失,以改善结果。

边界平衡gan(开始)损失
通过平衡项,这种损失可以平衡发生器和鉴别器,该术语衡量了自动编码器歧视器中重建损失比率的比率。开始使用基于鉴别器的重建误差的损失函数,通过发电机和鉴别器功率之间的平衡寻求过程来促进质量图像的产生。

- 基于自动编码器重建错误的判别损失,用于真实和假样品
- 发电机试图最大程度地减少歧视者的重建错误

开始使用受控的权衡参数提高训练稳定性。

Dragan损失
一种旨在通过仅在数据歧管(称为dragan(歧视器正规化)和梯度惩罚的数据歧管上应用的梯度惩罚,旨在改善原始gan的变化。它围绕着噪声扰动的真实数据惩罚歧视梯度,以鼓励更平滑的决策边界并减少模式崩溃。

- 损失类似于WGAN-GP,但局部梯度惩罚周围的真实数据点。

功能匹配损失
与其直接使用鉴别器输出进行损失,而是对生成器进行了训练,以匹配鉴别器从真实和生成的样品中提取的中间特征。这会导致更稳定的训练,并通过鼓励发电机捕获高阶统计数据来减少模式崩溃。

- 发电机损失:最小化$$ \ | \ text {features}(x) - \ text {功能}(g(z))\ | $$,在鉴别器的某些层中提取功能。

寻求损失的模式
这种损失通过明确惩罚模式崩溃来鼓励生成的产出中的多样性。它比较了生成的样品对之间的潜在空间和图像空间的距离,从而促进了发电机以产生更多的样品。

- 发电机损失包括相对于样本对中潜在空间的距离的最大距离。

功能匹配和感知损失
这些损失结合了对抗性损失以及使用预验证的网络(例如VGG网络)计算的其他基于感知或特征的损失。这样的损失强迫产生的图像不仅欺骗了歧视器,还匹配真实图像的感知特征,从而导致更清晰和更现实的输出。

- 发电机可以最大程度地减少对抗性损失和感知/特征匹配损失项的加权总和。

有条件gan的绝对偏差(L1)和最小二乘(L2)损失
在用于图像翻译任务的条件gan中,生成的和地面真相图像之间的其他L1或L2损失与对抗性损失一起纳入。这些损失鼓励像素级的准确性并降低产出中的工件。

- 发电机损失=对抗损失 + $$ \ lambda \ | g(z)-x \ | _1 $$或$$ \ lambda \ | g(z)-x \ | _2^2 $$其中$$ x $$是目标图像。

相对论平均甘恩(Ragan)损失
Ragan是相对论GAN的扩展,使用真实图像和假图像的平均歧视器输出来稳定训练,通过提供更全球的比较而不是样本。这种方法有助于减少歧视预测的过度自信并改善梯度流。

- 损失涉及相反类别的样本和平均产出之间的歧视器输出差异。

总变异损失
通常与对抗性损失相结合,以鼓励空间平稳性并降低噪声,总变化损失会损失生成的图像的快速强度变化,从而提高了视觉质量。

- 发电机可以最大程度地减少生成图像的总变化规范以及对抗性损失。

自我注意力损失
将自我注意的机制纳入歧视器和发电机体系结构中,修改损失功能以反映注意力加权的特征以捕获长期依赖性,这有助于生成详细和相干图像。

- 损失仍然像标准gan中一样,但随着自我发项的增强网络。

分割剂的边界损失
在分割gan中,损失功能可能包括边界感知的惩罚,以提高对象边缘附近的准确性,将对抗损失与边界/边缘感知项相结合。

- 发电机损失包括边界匹配的目标以及传统的对抗组件。

甘斯的对比损失
一些GAN变体结合了旨在通过使类似样品更接近并将不同样本推开的对比损失组件,旨在学习更好的功能嵌入,从而增强了GAN框架内的表示形式学习。

- 对比损失添加到发电机或歧视器目标中以提高功能质量。

基于能量的gan损失
基于能量的gan将歧视器制定为能量功能,将低能量分配给真实数据和高能量为假数据。培训损失优化了能源格局,而不是明确的分类概率,这可能会导致更稳定的培训。

- 鉴别能量最小化的真实样品,最大化假样品;发电机优化以减少生成样品的能量。

这些示例说明了为了改善甘斯的训练稳定性,性能和特定于应用的结果而开发的损失功能的丰富多样性。每个损失功能都针对数据分布的特定挑战或特征,许多现代gan体系结构通常将多个损失术语结合在一起,以获得最佳结果。这些损失功能的持续发展反映了对抗性学习研究的持续进步。