其他分享
首页 > 其他分享> > 生成模型学习笔记(1):Generative Adversarial Nets(生成对抗网络)

生成模型学习笔记(1):Generative Adversarial Nets(生成对抗网络)

作者:互联网

学习笔记

本部分来源于论文《Generative Adversarial Nets》(arXiv:1406.2661)。

介绍

到目前为止,深度学习中那些最显著的成功所涉及到的判别模型(discriminative model),通常是将那些高维的、丰富感知(rich sensory)输入映射到分类标签中。这些成功通常是基于反向传播和dropout算法,采用那些具有良好梯度的分段线性单元。但是由于在最大似然估计和相关策略中有很多难以近似的困难概率计算问题,同时分段线性单元的优点很难在生成上下文中应用,因此深度生成模型在这方面受益较小。

GAN模型包含:

在本文中,作者探讨了一种特殊的情况:

模型构建

  1. 为了学习生成器在数据 xxx 上的分布 pgp_{g}pg​ ,作者定义了在输入噪音变量 pz(z)p_{z}\left ( z \right )pz​(z) 上的先验分布,然后利用 G(z;θg)G\left ( z;\theta _{g} \right )G(z;θg​) 表示到数据空间的映射,其中 GGG 是一个由带有变量 θg\theta_{g}θg​ 的多层感知机表示的可微函数。
  2. 作者同时定义了第二个输出一个标量的多层感知机 D(x;θg)D\left ( x;\theta_{g} \right )D(x;θg​) 。D(x)D\left ( x \right )D(x) 表示 xxx 来自于数据而不是 pgp_{g}pg​ 的概率。通过训练 DDD 来最大化正确区分来自于训练样本和 GGG 生成的样本的概率。
  3. 同时训练 GGG 来最小化 log(1D(G(Z)))\log\left ( 1 - D\left ( G\left ( Z \right ) \right ) \right )log(1−D(G(Z))) 。

换句话说,DDD 和GGG 通过使用价值函数 V(G,D)V\left( G,D \right)V(G,D) 来参与二人最大最小博弈(two-player minimax game)。V(G,D)V\left( G,D \right)V(G,D) 如下:

(1)minGmaxDV(D,G)=Expdata(x)[logD(x)]+Ezpz(z)[log(1D(G(z)))] \min_{G}\max_{D}V\left ( D,G \right ) = \mathbb{E} _{x \sim p_{data}\left ( x \right )}\left [ \log D\left ( x \right ) \right ] + \mathbb{E} _{z \sim p_{z}\left ( z \right )}\left [ \log \left ( 1 - D\left ( G\left ( z \right ) \right ) \right ) \right ] \tag{1} Gmin​Dmax​V(D,G)=Ex∼pdata​(x)​[logD(x)]+Ez∼pz​(z)​[log(1−D(G(z)))](1)

对对抗网络的理论分析可以表明,在 GGG 和 DDD 具有足够的能力的前提下,训练规则允许其修复(recover)无参数限制(in the non-parametric limit)数据生成分布。在实际操作中,我们必须采用迭代的数值近似方法来进行操作。在训练内循环内优化 DDD 到完成在计算上禁止,同时在有限的数据集上会产生过拟合。因此,作者选择在优化 kkk 步 DDD 和一步 GGG 之间交替执行。只要 GGG 改变的足够慢,DDD 的结果就会保持在最优解附近。

分析公式一可以发现,在训练开始时由于 GGG 是随机初始化的,导致 log(1D(G(z)))\log \left ( 1 - D \left ( G \left ( z \right ) \right ) \right )log(1−D(G(z))) 的梯度变化很慢,因此与其最小化 log(1D(G(z)))\log \left ( 1 - D \left ( G \left ( z \right ) \right ) \right )log(1−D(G(z))) ,不如最大化 log(G(z))\log \left ( G \left(z \right ) \right )log(G(z))。这个目标函数使得在训练早期就有很强的梯度。

理论结果

算法 1

介绍:通过小批次随机梯度下降来训练生成对抗网络。对于鉴别器的步骤数 kkk 是一个超参数。在实验里,作者选择了 k=1k = 1k=1这个选项。

for 训练迭代次数 do

for kkk 步 do

  • 从先验噪音 pg(z)p_{g}\left ( z \right )pg​(z)中采集小批次的 mmm 个噪音样本 {z(1), ,z(m)}\left \{ z^{\left( 1 \right )}, \cdots ,z^{\left( m \right )} \right \}{z(1),⋯,z(m)}
  • 从数据生成分布 pdata(x)p_{data}\left ( x \right )pdata​(x) 中采集小批次的 mmm 个样本 {x(1), ,x(m)}\left \{ x^{\left( 1 \right )}, \cdots ,x^{\left( m \right )} \right \}{x(1),⋯,x(m)}
  • 通过随机梯度提升来更新辨别器:
    d1mi=1m[logD(x(i))+log(1D(G(z(i))))]. \bigtriangledown _{d}\frac{1}{m}\sum_{i = 1}^{m}\left [ \log D \left ( x^{\left ( i \right )} \right ) + \log \left ( 1 - D \left ( G\left ( z^{\left ( i \right )} \right ) \right ) \right ) \right ]. ▽d​m1​i=1∑m​[logD(x(i))+log(1−D(G(z(i))))].

end for

  • 从先验噪音 pg(z)p_{g}\left ( z \right )pg​(z)中采集小批次的 mmm 个噪音样本 {z(1), ,z(m)}\left \{ z^{\left( 1 \right )}, \cdots ,z^{\left( m \right )} \right \}{z(1),⋯,z(m)}
  • 通过随机梯度下降来更新生成器
    θg1mi=1mlog(1D(G(z(i)))). \bigtriangledown _{\theta _{g}}\frac{1}{m}\sum_{i = 1}^{m} \log \left ( 1- D \left ( G \left ( z^{\left ( i \right )} \right ) \right ) \right ). ▽θg​​m1​i=1∑m​log(1−D(G(z(i)))).

end for

基于梯度的更新可以使用任何标准的基于梯度的学习规则。

关于 pg=pdatap_{g} = p_{data}pg​=pdata​ 的全局最优性

首先考虑对于任意给定的生成器 GGG 来优化鉴别器 DDD 。

命题 1. 对于确定的 GGG ,最优的鉴别器 DDD 是

(2)DG(x)=pdata(x)pdata(x)+pg(x) D_{G}^{*}\left ( x \right ) = \frac{p_{data}\left ( x \right )}{p_{data}\left ( x \right ) + p_{g}\left ( x \right )} \tag{2}DG∗​(x)=pdata​(x)+pg​(x)pdata​(x)​(2)

证明: 对于任意给定的生成器 GGG ,鉴别器 DDD 的训练标准是最大化 V(G,D)V \left ( G,D \right )V(G,D)

V(G,D)=xpdata(x)log(D(x))dx+zpz(z)log(1D(g(z)))dzV \left ( G,D \right ) = \int_{x}^{ }p_{data}\left ( x \right ) \log \left ( D\left ( x \right ) \right )dx + \int_{z}^{ } p _{z} \left ( z \right ) \log \left ( 1 - D\left ( g\left ( z \right ) \right ) \right )dzV(G,D)=∫x​pdata​(x)log(D(x))dx+∫z​pz​(z)log(1−D(g(z)))dz
(3)=xpdata(x)log(D(x))+pg(x)log(1D(x))dx = \int_{x}^{ }p_{data}\left ( x \right ) \log \left ( D\left ( x \right ) \right ) + p_{g}\left ( x \right ) \log \left ( 1 - D\left ( x \right ) \right )dx \tag{3}=∫x​pdata​(x)log(D(x))+pg​(x)log(1−D(x))dx(3)

对于任意的 (a,b)R{0,0}\left ( a,b \right ) \in \mathbb{R} \setminus \left \{ 0,0 \right \}(a,b)∈R∖{0,0} ,函数 yalog(y)+blog(1y)y \rightarrow a \log \left ( y \right ) + b \log \left ( 1 - y \right )y→alog(y)+blog(1−y) 在位于 [0,1]\left [ 0,1 \right ][0,1] 之间的 aa+b\frac{a}{a+b}a+ba​ 上达到最大值。鉴别器不需要在 Supp(pdata)Supp(pg)Supp\left ( p_{data} \right ) \cup Supp \left ( p_{g} \right )Supp(pdata​)∪Supp(pg​) 之外定义。

证明结束。

注意,对于 DDD 的训练目标可以被理解为最大化估计条件概率 P(Y=yx)P\left ( Y =y\mid x \right )P(Y=y∣x) 的对数估计函数(log-likelihood),其中 YYY 表明 xxx 来自于 pdatap_{data}pdata​ (当 y=1y = 1y=1 )还是来自于 pgp_{g}pg​ (当 y=0y = 0y=0)。方程式1中的最大最小化博弈现在可以被阐释为:

C(G)=maxDV(G,D)C\left ( G \right ) = \max _{D} V\left ( G,D \right )C(G)=Dmax​V(G,D)

(4)=Expdata[logDG(x)]+Ezpz[log(1DG(G(z)))]= \mathbb{E} _{x \sim p _{data}} \left [ \log D_{G}^{*} \left ( x \right ) \right ] + \mathbb{E} _{z \sim p_{z}}\left [ \log \left ( 1 - D _{G}^{*} \left ( G\left ( z \right ) \right ) \right ) \right ] \tag{4}=Ex∼pdata​​[logDG∗​(x)]+Ez∼pz​​[log(1−DG∗​(G(z)))](4)

=Expdata[logDG(x)]+Expg[log(1DG(x))]= \mathbb{E} _{x \sim p _{data}} \left [ \log D_{G}^{*} \left ( x \right ) \right ] + \mathbb{E} _{x \sim p_{g}}\left [ \log \left ( 1 - D _{G}^{*} \left ( x \right ) \right ) \right ]=Ex∼pdata​​[logDG∗​(x)]+Ex∼pg​​[log(1−DG∗​(x))]

=Expdata[logpdata(x)pdata(x)+pg(x)]+Expg[logpg(x)pdata(x)+pg(x)]= \mathbb{E} _{x \sim p_{data}}\left [ \log \frac{p_{data}\left ( x \right )}{p _{data}\left ( x \right ) + p _{g}\left ( x \right )} \right ] + \mathbb{E} _{x \sim p_{g}}\left [ \log \frac{p_{g}\left ( x \right )}{p _{data}\left ( x \right ) + p _{g}\left ( x \right )} \right ]=Ex∼pdata​​[logpdata​(x)+pg​(x)pdata​(x)​]+Ex∼pg​​[logpdata​(x)+pg​(x)pg​(x)​]

定理 1. 虚拟训练标准 C(G)C \left ( G \right )C(G) 的全局最小值当且仅当 pg=pdatap_{g} = p_{data}pg​=pdata​ 时取到,在这一点上, C(G)C \left ( G \right )C(G) 到达值 log4- \log 4−log4 。

证明.pg=pdatap_{g} = p_{data}pg​=pdata​ 时 DG(x)=12D_{G}^{*}\left ( x \right ) = \frac{1}{2}DG∗​(x)=21​ (考虑公式2)。因此,把 DG(x)=12D_{G}^{*}\left ( x \right ) = \frac{1}{2}DG∗​(x)=21​ 带入公式4,我们可以发现C(G)=log12+log12=log4C \left ( G \right ) = \log\frac{1}{2} + \log\frac{1}{2} = - \log 4C(G)=log21​+log21​=−log4 。要知道这是 C(G)C\left(G\right)C(G) 的可能的值,只在 pg=pdatap_{g} = p_{data}pg​=pdata​ 时取到,我们注意到:

Expdata[log2]+Expg[log2]=log4 \mathbb{E} _{x \sim p_{data}}\left [ -\log 2 \right ] + \mathbb{E} _{x \sim p_{g}}\left [ -\log 2 \right ] = - \log 4Ex∼pdata​​[−log2]+Ex∼pg​​[−log2]=−log4

然后从 C(G)=V(DG,G)C\left(G\right) = V\left(D_{G}^{*},G\right)C(G)=V(DG∗​,G) 中减去这个表达式,我们得到了

C(G)=log4+KL(pdatapdata+pg2)+KL(pgpdata+pg2) C\left(G\right) = -\log4 + KL \left ( p_{data} \parallel \frac{p_{data}+p_{g}}{2} \right ) + KL \left ( p_{g} \parallel \frac{p_{data}+p_{g}}{2} \right ) C(G)=−log4+KL(pdata​∥2pdata​+pg​​)+KL(pg​∥2pdata​+pg​​)

其中 KLKLKL 是KL散度。我们在之前的表达式中认出了在模型的分布和数据生成过程之间的 JS散度(Jensen-Shannon divergence):

C(G)=log4+2JSD(pdatapg)C\left(G\right) = -\log4 + 2 \cdot JSD\left ( p_{data} \parallel p_{g} \right )C(G)=−log4+2⋅JSD(pdata​∥pg​)

由于两个分布间的JS散度总是非负的并且仅在他们相等时等于0,我们以及证明了 C=log(4)C^{*} = - \log \left(4\right)C∗=−log(4) 是 C(G)C\left(G\right)C(G) 的全局最小值同时唯一解是 pg=pdatap_{g} = p_{data}pg​=pdata​ ,即生成模型完美的复制了数据的生成过程。

算法一的收敛测试

命题 2. 如果 GGG 和 DDD 具有足够的能力,同时在算法一的每一次迭代里,对于给定的 GGG 鉴别器总能达到最优,同时更新 pgp_{g}pg​ 以改进标准:

Expdata[logDG(x)]+Expg[log(1DG(x))]\mathbb{E}_{x \sim p_{data}}\left [ \log D_{G}^{*}\left ( x \right ) \right ] + \mathbb{E}_{x \sim p_{g}}\left [ \log \left (1 - D_{G}^{*} \left ( x \right ) \right ) \right ]Ex∼pdata​​[logDG∗​(x)]+Ex∼pg​​[log(1−DG∗​(x))]

那么 pgp_{g}pg​ 就会收敛于 pdatap_{data}pdata​ 。

证明. 考虑当 pgp_{g}pg​ 在上面的标准中被更新完成的情况下的方程 V(G,D)=U(pg,D)V\left(G,D\right) = U\left(p_{g},D\right)V(G,D)=U(pg​,D) ,凸函数上界的二阶导数包括了函数在取得最大值的那一点的导数,换句话说,如果 f(x)=supαAfα(x)f \left( x \right) = \sup _{\alpha \in \mathcal{A}} f_{\alpha}\left(x \right )f(x)=supα∈A​fα​(x) 并且 fα(x)f_{\alpha}\left(x \right )fα​(x) 对于任意的 α\alphaα 在 xxx 上都是凸的,那么当 β=argsupαAfα(x)\beta = \arg \sup _{\alpha \in \mathcal{A}}f_{\alpha }\left ( x \right )β=argsupα∈A​fα​(x) 时 fβ(x)f\partial f _{\beta } \left(x \right ) \in \partial f∂fβ​(x)∈∂f 。这等价于在给定的 GGG 的最优 DDD 下通过计算梯度下降来更新 pgp_{g}pg​ 。 supDU(pg,D)\sup _{D}U\left( p_{g},D \right)supD​U(pg​,D) 在定理1中已经证明过的具有全局最优解的 pgp_{g}pg​ 上是凸的,因此当 $p_{g} 的更新量足够小的时候, pgp_{g}pg​ 收敛于 pxp_{x}px​ 。

证明结束。

优缺点

缺点

没有一个显示表示的 pg(x)p_{g}\left( x \right)pg​(x) 。 DDD 和 GGG 必须在训练过程中保持同步 (尤其是 GGG 不能在没有更新 DDD 的前提下训练太多次,为了防止所谓的“Helvetica场景(the Helvetica scenario)” 即 GGG 将太多的 zzz 的值分解到相同的 xxx 的值以至于没有足够的多样性来对 pdatap_{data}pdata​ 进行建模。)。这就像一个波尔茨曼机的负链必须在学习步之间保持最新一样。

优点

永远不需要马尔科夫链,只利用反向传播算法来更新梯度,在学习过程中不需要推理,并且可以把不同的函数集成到模型当中。

对抗模型也可以从生成器中获得一些统计上的优势,而不是直接采用流经鉴别器的梯度和样例来直接更新。这意味着输入的部分不会直接复制到生成器中。

对抗网络模型可以表示非常急剧的甚至退化的分布,当方法基于为了使链能够在模型之间混合而分布比较模糊的马尔可夫链上。

标签:right,log,pdata,Adversarial,生成,pg,Generative,data,left
来源: https://blog.csdn.net/Dptimus/article/details/88776028