《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(一)

简介: 《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(一)

《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记


论文结构

1.Introduction

2.Progressive growing of GANs

3.Increasing variation using

minibatch standard deviation

4.Normalization in generator and

discriminator

4.1 Equalized learning rate

4.2 Pixelwise feature vector

normalization in generator

5.Multi-scale statistical similarity

for assessing GAN results

6.Experiments

6.1 Importance of individual contributions in

terms of statistical similarity

6.2 Convergence and training speed

6.3 High-resolution image generation using

CelebA-HQ dataset

6.4 LSUN results

6.5 CIFAR10 inception scores

7.Discussion


摘要

原文

We describe a new training methodology for generative adversarial networks. The key idea is to grow both the generator and discriminator progressively: starting from a low resolution, we add new layers that model increasingly fine details as training progresses. This both speeds the training up and greatly stabilizes it, allowing us to produce images of unprecedented quality, e.g., CelebA images at 1024^2. We also propose a simple way to increase the variation in generated images, and achieve a record inception score of 8.80 in unsupervised CIFAR10. Additionally, we describe several implementation details that are important for discouraging unhealthy competition between the generator and discriminator. Finally, we suggest a new metric for evaluating GAN results, both in terms of image quality and variation. As an additional contribution, we construct a higher-quality version of the CelebA dataset.


总结

1.使用渐进的方式来训练生成器和判别器:先从生成低分辨率图像开始,然后不断增加模型层数来提升生成图像的细节

2.这个方法能加速模型训练并大幅提升训练稳定性,生成前所未有的的高质量图像(1024*1024)

3.提出了一种简单的方法来增加生成图像的多样性

4.介绍了几种限制生成器和判别器之间不健康竞争的技巧

5.提出了一种评价GAN生成效果的新方法,包括对生成质量和多样性的衡量

6.构建了一个CELEBA数据集的高清版本


研究背景

Research background


生成式模型的类别


•显性密度模型


易解显性模型:定义一个方便计算的密度分布,主要的模型是Fully visible belief nets,简称FVBN,也被称作Auto-Regressive Network

近似显性模型:可以定义任意的密度分布,使用近似方法来求解

隐性密度模型


GAN

• 神经自回归网络(PixelRNN/CNN)

通过链式法则把联合概率分布分解为条件概率分布的乘积使用神经网络来参数化每个P

PixelRNN逐像素生成,效率很低,PixelCNN效果不如PixelRNN


• VAE-GAN

编码器:使P(z|x)逼近分布P(z),比如标准正态分布,同时最小化生成器(解码器)和输入x的差距

解码器:最小化输出和输入x的差距,同时要骗过判别器

判别器:给真实样本高分,给重建样本和生成样本低分


图像生成的评价指标

• 可以评价生成样本的质量

• 可以评价生成样本的多样性,能发现过拟合、模式缺失、模式崩溃、直接记忆样本的问题

• 有界性,即输出的数值具有明确的上下界

• 给出的结果应当与人类感知一致

• 计算评价指标不应需要过多的样本

• 计算复杂度尽量低


推荐阅读:GAN评价指标最全汇总 - 知乎 (zhihu.com)

目录
相关文章
|
机器学习/深度学习 编解码 数据可视化
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(三)
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(三)
61 0
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(三)
|
机器学习/深度学习 编解码
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
92 0
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
|
机器学习/深度学习 算法 流计算
【读书笔记】Algorithms for Decision Making(6)
对于较大状态空间的问题,计算精确解需要极大的内存量,因而考虑近似解的方法。常使用approximate dynamic programming的方法去寻求近似解,进而使用在线方法实现实时计算。
119 0
【读书笔记】Algorithms for Decision Making(6)
|
算法
【读书笔记】Algorithms for Decision Making(3)
上一部分给出了概率分布的表示论。本部分将展示如何使用概率表示进行推理,即确定一组给定观察变量相关值的一个或多个未观察变量的分布。在该部分中首先介绍直接推断的办法,然后给出几种有效的近似方法。
119 0
|
决策智能
【读书笔记】Algorithms for Decision Making(13)
本部分将简单游戏扩展到具有多个状态的连续上下文。马尔可夫博弈可以看作是多个具有自己奖励函数的智能体的马尔可夫决策过程。
116 0
|
算法 决策智能
【读书笔记】Algorithms for Decision Making(14)
本部分将简单游戏扩展到具有多个状态的连续上下文。马尔可夫博弈可以看作是多个具有自己奖励函数的智能体的马尔可夫决策过程。
302 0
【读书笔记】Algorithms for Decision Making(14)
|
算法 机器人
【读书笔记】Algorithms for Decision Making(10)
在这一部分将不确定性扩展到状态。具体讲,接收到的观测值与状态只有概率关系,而不是精确地观察状态。此类问题可以建模为部分可观察的马尔可夫决策过程(POMDP),但POMDP很难以最佳方式解决所有问题,因而需要引入更多的近似策略。
136 0
|
vr&ar
【读书笔记】Algorithms for Decision Making(5)
此前讲述了在某个时间点做一个单一的决定的问题,但许多重要的问题需要做出一系列的决定。序列环境中的最佳决策需要对未来行动和观察序列进行推理。
|
算法 关系型数据库 数据建模
【读书笔记】Algorithms for Decision Making(4)
本部分讨论从数据学习或拟合模型参数的问题,进一步讨论了从数据中学习模型结构的方法,最后对决策理论进行了简单的概述。
【读书笔记】Algorithms for Decision Making(4)
|
机器学习/深度学习
【读书笔记】Algorithms for Decision Making(7)
策略搜索即搜索策略空间,而无需直接计算值函数。策略空间的维数通常低于状态空间,并且通常可以更有效地搜索。本部分首先讨论在初始状态分布下估计策略价值的方法。然后讨论不使用策略梯度估计的搜索方法和策略梯度方法。接着介绍Actor-Critic方法用值函数的估计来指导优化。