其他分享
首页 > 其他分享> > ProGAN论文的翻译+学习体会

ProGAN论文的翻译+学习体会

作者:互联网

用于提升质量、稳定性和变化性的稳定成长的生成对抗网络

      

摘要:

       在这篇论文中,我们描述了一种训练生成对抗网络的新方法。它的主要思想是使生成器和判别器同时稳定的成长:从低清晰度开始,我们通过向模型中加层以随着训练逐渐完善细节。这同时加快了训练速度和稳定性,而使我们得以生成前所未有的质量的图像。我们也提出了一种简单的方法来提升生成图像的多样性,并在无人监管的CIFAR 10中达到破纪录的8.80分。另外,我们描述了许多执行细节以阻止生成器与判别器之间不健康的竞争。最终,我们提供了一种新的用于评估GAN的生成图像质量和多样性的标准。而作为额外的贡献,我们创建了更高质量版的CELEBA数据集。

 

  1. 1.     介绍

从高维数据分布(例如图像)中产生新样本的生成方法正在得到广泛使用。(此处省略举例)。目前,它们都有着明显的优点和缺点。自回归模型(例如PixelCNN)可生成清晰的图像,但评估速度较慢,并且没有潜在的表现形式,因为它们直接对像素上的条件分布进行建模,从而可能限制了其适用性。VAE很容易训练,但由于模型中的限制,往往会产生模糊的结果,尽管最近的工作正在改善这一点。GAN可以产生清晰的图像,不过分辨率很小,变化也有限,尽管最近取得了一些进展,但训练仍然不稳定。混合方法结合了这三种方法的各种优点,不过目前在图像质量方面仍落后于GANs。

 

通常GAN由两个网络组成:生成器和判别器。生成器从一个一段黑箱般的代码中产生一个样本,例如一个图像,并使生成的图像难以与训练集区分。因为难以设计一个简单的函数来判断,所以我们需要训练一个判别器网络来进行评估,并得到了一个梯度,用来引导两个网络朝着正确的方向发展。一般来说,生成器是最重要的——因为判别器只是一个自适应的损失函数。在生成器训练完后,通常会被抛弃。

 

这个损失函数有着很多潜在的问题。当我们估量训练集和生成图像的差距时,如果没有一定的相似性,则会太容易区分,以至于梯度会或多或少的指向随机方向。通常JS散度被用作估量的标准,而最近这种方法被提升了并且有许多稳定的解决方案被提出,包括Wasserstein distance。我们的贡献很大程度上是与正在进行的方向是相关的,然后主要采用Wasserstein loss,也尝试了least-squares loss。

 

高分辨率图像的生成很困难,因为更高的分辨率让判别器更容易将生成的图像与训练图像区分开来,从而极大地放大了梯度问题。而且由于存在内存限制,因此高分辨率也需要使用较小的小批量处理,从而进一步损害了训练的稳定性。我们的主要见解是,可以从更简单的低分辨率图像开始,并随着训练的进行添加新的层以引入更高分辨率的细节。这大大加快了训练速度,提高了高分辨率下的稳定性,我们将在第2节中讨论。

 

GAN并不明确要求由生成的生成模型表示整个训练数据分布。传统观点认为图像质量和变化之间存在权衡,但这种观点最近受到挑战。我们将在第3节中描述我们鼓励变化的方法,并在第5节中提出一个新的评估质量与变化的指标。

 

 施工中,踏实的学习ing

标签:翻译,判别,训练,GAN,ProGAN,生成器,生成,学习体会,图像
来源: https://www.cnblogs.com/Railgunforever/p/13909040.html