论文札记之 - Generative Adversarial Nets

简介: 值此岁末之际,又逢DL浪潮之巅,深觉应该整理下看过的一些 papers,写写自己粗鄙的见解,第一篇就从目前热门的 GAN 开始吧摘要    GAN 是一个框架 ,有两个 model,一个是用于刻画数据分布的生成式模型 G ; 另一个是判别模型 D ,用于判断数据是从 G 生成的还是从训练样本中采样的。理所应当的, G 模型要让 D 模型相信数据是从自身产生的,因此目标
值此岁末之际,又逢DL浪潮之巅,深觉应该整理下看过的一些 papers,写写自己粗鄙的见解,第一篇就从目前热门的 GAN 开始吧

摘要
    GAN 是一个框架 ,有两个 model,一个是用于刻画数据分布的生成式模型 G ; 另一个是判别模型 D ,用于判断数据是从 G 生成的还是从训练样本中采样的。理所应当的, G 模型要让 D 模型相信数据是从自身产生的,因此目标就是 "maximize the probability of D making a mistake" 。作为一个判别模型,D 的目标更明确,就是让模型的判别误差最小。所以,GAN 框架就是一个 minmax two-player game。模型就是函数,对于任意函数 G 、 D , 在 G 覆盖所有的训练数据的情况下,并且 D = 1/2 的时候,minmax 目标函数存在唯一解。也就是说 GAN 的最优化的目标是让判别模型 D 失去了分类能力,证明过程不复杂,稍后分解。Goodfellow 称,我的框架很给力,不需要马尔科夫链、近似推断等方法,只需要两个 MLP 加上 bp , Mission Success !

框架

   为了能够直观的看出 GAN 的框架,抠一张图来说明下。

      框架

    左边就是没有加入对抗的训练过程,判别模型 D 希望能干尽量拟合训练数据的分布。右边就是加入了对抗 G 的训练过程,G 学习 加入 noise z 后的数据分布,x = G( z; theta(G) ) 让 D 判别 x 的来源,有了一个框架图,是不是 so easy 呢。

优化目标
再来看看 GAN 的目标函数是啥,继续截图。。。
优化目标
训练方式,其实训练 D 就类似于最大似然的过程,用于估计 P ( Y = y | x ) , Y 表示 x 的来源,由于单独训练 D 会导致过拟合,因此采取 k 个 batch 训练 D, 一个 batch 训练 G,具体过程如下:
  1. 分 k 个 batch, 每个 batch 从 pg 分布中采样 { z1, z2, z3, ... , zm } , 从 pdata 分布中采样 { x1, x2, x3, .., xm }, pdata 反应训练数据的分布,pg 是训练数据加入噪音后的分布固定 G, 对 目标函数进行梯度下降,更新 D 的参数
  2. k 个 batch 训练完成后,再从 pg 中取一个 batch , { z1, z2, z3, ... , zm },更新 G 的参数,G 目标是最小化 log(1-D(G(z))) , 也可以看成最大化 log(D(G(z)))
                
收敛证明
刚才说到 min max 目标函数的收敛问题,也就是证明这个公式的收敛下界,首先,固定 G, 先找到 Dmax 为 D’ , 利用 D' , 求 G 。那 Dmax 是啥呢?
先抛出结论
              D的max
证明,先把
优化目标
展开,得到
              展开
由于,y -> alog( y) + blog(1 - y ) 在 [0,1] 取得最大值为 a/a+b .
所以,将 pdata 视为a,pg 视为 b , D(x) 的最大值为 pdata / pdata + pg ; 因此 V(G, D) 变成了 C(G),下一步是求 min C(G)
    minG
再次抛出结论,C(G) 当且仅当 pg = pdata 的时候取得唯一解 -log4 。怎么证明 ?
将 C(G) 结合 KL 离散度进行变换,得到
            add KL
再由 KL 离散度变为 Jensen–Shannon 离散度
          jensen-shannon
由于 两个概率分布的 Jensen–Shannon 离散度总是非负的,当两个分布相同的时候为0,所以呢 ,当 pg = pdata 的时候 C(G) 取得最小值,为 -log4,也就是文章开始说的 minmax 的唯一解。
到此,证明过程就结束了。

总结
    推导完之后,也大概能够发现,在 GAN 框架的训练过程中 D model 是变得越来约弱的,从最后的收敛条件也能够看出来,D = 1/2 , 也就是说 D 彻底失去的分类能力。G model 才是最终需要的。
那么,在一番训练之后,我们到底从 G 模型中得到了什么呢? 我理解是现实世界中的真实数据是远多于训练数据的,通过训练数据直接学习出来的生成模型在真实数据中的拟合结果存在gap,通过对抗学习的框架,
在训练过程中不断加入干扰,用于模拟真实数据,同时用一个判别模型进行判断真伪,从而使得生成模型泛化能力更强。当然还是有很多限制条件的,比如 G 必须是可导的,z 的维度一般要高于 x ; etc .
    最后,本文到此结束,果然不出所料的水,能有兴趣看到这里的也不多了。。。

References

[Goodfellow and others 2014] Goodfellow, I., et al. Generative adversarial nets. In NIPS, 2672–2680

[Goodfellow, Bengio, and Courville 2016] Goodfellow, I.;Bengio, Y.; and Courville, A. 2016. Deep learning. 2015.







相关文章
|
机器学习/深度学习 搜索推荐 算法
Learning Disentangled Representations for Recommendation | NIPS 2019 论文解读
近年来随着深度学习的发展,推荐系统大量使用用户行为数据来构建用户/商品表征,并以此来构建召回、排序、重排等推荐系统中的标准模块。普通算法得到的用户商品表征本身,并不具备可解释性,而往往只能提供用户-商品之间的attention分作为商品粒度的用户兴趣。我们在这篇文章中,想仅通过用户行为,学习到本身就具备一定可解释性的解离化的用户商品表征,并试图利用这样的商品表征完成单语义可控的推荐任务。
23823 0
Learning Disentangled Representations for Recommendation | NIPS 2019 论文解读
|
3月前
|
机器学习/深度学习 算法
【博士每天一篇文献-综述】A wholistic view of continual learning with deep neural networks Forgotten
本文提出了一个整合持续学习、主动学习(active learning)和开放集识别(open set recognition)的统一框架,基于极端值理论(Extreme Value Theory, EVT)的元识别方法,强调了在深度学习时代经常被忽视的从开放集识别中学习识别未知样本的教训和主动学习中的数据查询策略,通过实证研究展示了这种整合方法在减轻灾难性遗忘、数据查询、任务顺序选择以及开放世界应用中的鲁棒性方面的联合改进。
30 6
|
3月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-综述】Brain-inspired learning in artificial neural networks a review
这篇综述论文探讨了如何将生物学机制整合到人工神经网络中,以提升网络性能,并讨论了这些整合带来的潜在优势和挑战。
40 5
|
3月前
|
机器学习/深度学习 存储 算法
【博士每天一篇文献-综述】Continual lifelong learning with neural networks_ A review
这篇综述论文深入探讨了神经网络在终身学习领域的研究进展,包括生物学启发的概念、终身学习方法的分类与评估,以及未来研究方向,旨在解决神经网络在学习新任务时如何避免灾难性遗忘的问题。
33 2
|
机器学习/深度学习 存储 缓存
万物皆Contrastive Learning,从ICLR和NIPS上解读对比学习最新研究进展(二)
万物皆Contrastive Learning,从ICLR和NIPS上解读对比学习最新研究进展(二)
622 0
万物皆Contrastive Learning,从ICLR和NIPS上解读对比学习最新研究进展(二)
|
机器学习/深度学习 自然语言处理 算法
【论文泛读】 知识蒸馏:Distilling the knowledge in a neural network
【论文泛读】 知识蒸馏:Distilling the knowledge in a neural network
【论文泛读】 知识蒸馏:Distilling the knowledge in a neural network
|
机器学习/深度学习 存储 自然语言处理
论文推荐:Rethinking Attention with Performers
重新思考的注意力机制,Performers是由谷歌,剑桥大学,DeepMind,和艾伦图灵研究所发布在2021 ICLR的论文已经超过500次引用
132 0
|
机器学习/深度学习 存储 传感器
Unsupervised Learning | 对比学习——13篇论文综述
Unsupervised Learning | 对比学习——13篇论文综述
1912 0
Unsupervised Learning | 对比学习——13篇论文综述
|
机器学习/深度学习 自然语言处理 前端开发
《Reasoning about Entailment with Neural Attention》阅读笔记
《Reasoning about Entailment with Neural Attention》阅读笔记
160 0
《Reasoning about Entailment with Neural Attention》阅读笔记
|
机器学习/深度学习 算法 数据可视化
再介绍一篇最新的Contrastive Self-supervised Learning综述论文(三)
再介绍一篇最新的Contrastive Self-supervised Learning综述论文(三)
268 0
再介绍一篇最新的Contrastive Self-supervised Learning综述论文(三)