其他分享
首页 > 其他分享> > 李宏毅机器学习笔记11(Unsurpervised Learning 03——Deep Generative model)

李宏毅机器学习笔记11(Unsurpervised Learning 03——Deep Generative model)

作者:互联网

 

李宏毅机器学习笔记11(Unsurpervised Learning 03——Deep Generative model)

 

Unsurpervised Learning

1、深度生成模型“无中生有”

2、VAE(Variational auto-encoder)

  一、什么是VAE、为什么用VAE

  二、如何实现VAE

  三、关于VAE思考

3、GAN(Generative  Adversarial Network)

 

Deep Generative model “无中生有”

1、深度生成模型“无中生有”

  比如machine在影像处理上可以做到分类,可以辨识猫和狗的不同。但它并不真的了解猫什么,狗是什么。也许在未来有一天,machine它可以画出一只猫,它会猫这个概念或许就不一样了。

  

2、VAE(Variational auto-encoder)

  一、什么是VAE、为什么用VAE(VAE是解决什么问题)

  变分自编码器 是一类重要的生成模型(generative model),它于2013年由Diederik P.Kingma和Max Welling提出1。2016年Carl Doersch写了一篇VAEs的tutorial2,对VAEs做了更详细的介绍,比文献1更易懂(墙裂推荐)。
  VAE是什么:VAE也是一种前面所说的标准的自编码器,就是通过Encoder对输入(我们这里以图片为输入)进行高效编码,然后由Decoder使用编码还原出图片,在理想情况下,还原输出的图片应该与原图片极相近。

 

          

 

 

  如果你的目标仅仅是重建你的输入,那么标准的自动编码器可以工作得很好,但是它不能作为一个生成模型工作,因为选择一个随机的输入。对于解码器来说,并不一定会导致解码器产生合理的图像。可能随机的输入离解码器以前看到的任何输入都很远,所以当给定输入时,解码器可能从未接受过产生合理数字图像的训练。

                                                                

 

  为什么需要VAE:也就是说VAE为什么能确保解码器准备解码任何输入,我们给它一个合理的数字图像。

  角度一:本质上(直观)是在标准自编码基础上加噪声

    

   角度二:原理上是在潜在空间(Code)中产生概率分布

  假设解码器已经知道其输入的概率分布,那么就能确保对于任何输入,解码器都能给它一个合理的数字图像

 

  VAE网络结构组成:可以大致分成Encoder和Decoder两部分(如下图)。对于输入图片,Encoder将提取得到编码:一个mean vector和一个deviation vector,然后将这个编码(两个vector)作为Decoder的输入,最终输出一张和原图相近的图片。

 

  

 

  二、如何实现VAE

  我们刚才说实现VAE需要知道解码器输入的概率分布,为此,我们需要:

  一、预先定义解码器应该看到的输入的分布,我们将使用标准正态分布来定义解码器将接收到的输入的分布。

  二、用一个编码器,在潜在空间中产生概率分布(训练参数)。

  三、在潜在空间中随机抽样z,用作生成模型

  四、还原输出的图片集中出现训练集中的原图的概率 P(x)越大,那么我们也可以认为输出与原图片越相似了

  五、训练

 

 

 

                     

 

 

  一、定义分布:结合上图,定义z是一个标准正态分布,x|z和z|x是一个特定均值方差的正态分布,那么输出x是一个高斯混合模型

 

  

  

  二三、搭建神经网络模型,先忽略

  四、求P(x)的最大似然估计,也就是定义模型的损失函数。

   

 

                 

 

                 

                 

    结论1:只控制Lb就好了,上面的KL1是一个中间值,因为Lb越大,最大似然(最终目标)不一定越大(因为KL1会对其有影响),所以要先控制KL1这个中间值接近0

 

    

    

    只调整q,不调p,是为了保持logP(x)不变。把上面的KL1逼近0以后,下面只需要考虑Lb就好了

 

    

 

    结论2:最终我们是想通过调大Lb,来使最大似然概率最大,那么Lb有两项组成,我们希望最小化与z分布的KL值,同时最大化后面与P(x|z)有关的项

 

                          

 

 

 

   五、训练

 

   训练过程:先调q(z|x)--encoder,后调p(x|z)--decoder

   

  

   https://blog.csdn.net/cjh_jinduoxia/article/details/84995156

    

   三、关于VAE的思考

    1、关于VAE的本质

 

    

    2、CVAE(Conditional VAE)

    

    

    https://www.sohu.com/a/226209674_500659

 

  3、GAN(Generative  Adversarial Network)

    一、什么是GAN   


  

 

  二、GAN是如何实现的

  单独交替迭代训练

  1.首先,我们有一个简单的生成网络模型(当然未训练时效果很差),那么我们给这个模型一个随机的输入,便会输出得到一个假的样本集,而真的样本集我们本身就有,所以我们得到了真假数据集。

  2.在得到真假数据集之后,我们开始对判别模型进行训练,训练过程就是一个有监督的二分类问题,即给定一个样本,能判断出其是真实存在的(真样本),还是利用生成网络生成的(假样本)。

  

 

  3.在完成判定模型的训练之后,我们要提升生成模型的造假能力,我们将生成网络与训练好的判定网络串接,我们的目标是生成可以迷惑判定模型的图像,所以我们给生成网络一个随机输入,损失函数是判定网络的输出是否为真(是否达到迷惑的效果),根据损失函数,对生成网络的参数进行更新,(注意:这里判定网络的参数是不改变的,因为判定网络是用来评价生成网络的造假能力,计算损失的)

  

 

  4.完成生成网络的训练之后,再次给定随机输入,得到新的假的数据集,将最新得到真假样本输入给判定网络进行训练,从而完成对判定网络的再一次训练。

  5.不断重复上述过程,直到满足设计者设定的训练次数。

 

  分类: 小张机器学习基础 好文要顶 关注我 收藏该文   Listener_02
关注 - 0
粉丝 - 3     +加关注 0 0       « 上一篇: 李宏毅机器学习笔记09(Unsupervised Learning 01——Clustering and PCA)
» 下一篇: 李宏毅机器学习笔记10(Unsurpervised Learning02——Neighbor Embedding)

标签:11,03,训练,李宏毅,模型,VAE,解码器,生成,输入
来源: https://www.cnblogs.com/cx2016/p/13863767.html