其他分享
首页 > 其他分享> > Pix2Pix GAN(CVPR. 2017)

Pix2Pix GAN(CVPR. 2017)

作者:互联网

image-20210627163327806

1. Motivation

Image-to-Image translation的定义

需要认真设计loss函数,因为如果只用欧氏距离的方法,容易造成生成的图片blurry results.

2. Contribution

与之前的工作不同的是,Pix2Pix GAN在G中使用U-Net,并且在D中使用PatchGAN Classifier。

3. Method

image-20210628193929793

3.1 Objective

CGAN可以表示为公式1,其中x为condition:

image-20210628194244007

最后的目标函数表示为:

image-20210628194949001

对于noise z的设定,作者采取了dropout的方式:

image-20210628194928724

3.2 Network architecture

对于输入和输出图片来说,可以额理解为在surface appearance不同,但是具有相同的underlying structure渲染。

对于generation的制作来说,作者参考U-Net 使用了skip connection结构:

3.3 Markovian discriminator (PatchGAN)

作者指出虽然L1 L2loss会使得生产的图片具有blurry模糊性质,无法捕获高频特征,但是可以精确的捕获低频的特征。这样就只需要GAN Discriminator建模高频的结构,使用L1 来建模低频。

那么对于制定一个建模高频的结构,在局部image patch中限制attention是有效的。因此作者制定了一个PatcchGAN,将图片分为NxN个patch,对于patches进行penalize,判断每一个patch是real还是fake。

4. Experiment

4.1 Dataset

image-20210628212414111

4.2 Evaluation metrics

4.3. Analysis of the generator architecture A

image-20210628213539180 image-20210628213533548

4.4 Analysis of the objective function

image-20210628212654986

4.5 FromPixelGANs to PatchGANs to ImageGANs

image-20210628214924897 image-20210628223522272

4.6. Semantic segmentation

image-20210628220151258 image-20210628223803959

标签:generator,CVPR,image,results,Pix2Pix,our,2017,Net,structure
来源: https://blog.csdn.net/weixin_43823854/article/details/118314024