《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(三)

简介: 《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(三)

实验结果


CELEBA-HQ

CELEBA数据集有202599张图像,分辨率从 43x55 到 6732x8984,不同图像质量差别很大

使用一个预训练的卷积自编码器来进行去除JPEG噪声

使用一个预训练的4倍超分辨率GAN来提升图像分辨率

基于CelebA中已有的脸部关键点标注,来进行人脸的截取和旋转矫正

处理了所有的CelebA图像,然后使用基于频谱的质量评价方式,选出最好的30000张生成图像



• 使用8个Tesla V100 GPU 并行训练了4天,此时SWD结果不再变化

• 根据当前的训练分辨率,使用自适应的batch size,来最大效率的使用显存

• 为了证明作者的改进与loss很大程度上是相互独立的,分别尝试了LSGAN和WGAN-GP两种 loss,LSGAN更不稳定但也能得到高清的生成图像

• 除了展示生成结果外,作者还进行了latent space的插值,和渐进式训练的可视化

• 插值方式是:随机生成一系列latent code,然后对他们使用时域的高斯模糊,最后把各latent code归一化到一个超球面上



论文总结


优点

ProGAN相比于更早的GAN网络,生成的质量普遍都很高

ProGAN在生成高分辨率的图像时也能够进行稳定的训练

目前的生成效果已经快令人信服了,特别是在CELEBA-HQ

数据集上

不足

离真正照片级的生成仍有很长一段距离

目前的生成还做不到对图像语义和约束的理解

他们使用时域的高斯模糊,最后把各latent code归一化到一个超球面上


[外链图片转存中…(img-87HHjwYf-1664845828841)]


论文总结


优点

ProGAN相比于更早的GAN网络,生成的质量普遍都很高

ProGAN在生成高分辨率的图像时也能够进行稳定的训练

目前的生成效果已经快令人信服了,特别是在CELEBA-HQ

数据集上

不足

离真正照片级的生成仍有很长一段距离

目前的生成还做不到对图像语义和约束的理解

生成图片的细微结构也还有改进的空间

目录
相关文章
|
机器学习/深度学习 编解码
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
92 0
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(二)
|
机器学习/深度学习
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(一)
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(一)
67 0
《Progressive Growing of GANs for Improved Quality, Stability, and Variation》-论文阅读笔记(一)
|
算法
【读书笔记】Algorithms for Decision Making(3)
上一部分给出了概率分布的表示论。本部分将展示如何使用概率表示进行推理,即确定一组给定观察变量相关值的一个或多个未观察变量的分布。在该部分中首先介绍直接推断的办法,然后给出几种有效的近似方法。
119 0
|
算法
【读书笔记】Algorithms for Decision Making(11)
在有限维场景中,POMDP问题的精确解也经常很难计算。因而,考虑求得近似解的方法是合理的。本部分从离线近似解讨论到在线近似解,是近似方法的常规逻辑思路。
106 0
|
算法 机器人
【读书笔记】Algorithms for Decision Making(10)
在这一部分将不确定性扩展到状态。具体讲,接收到的观测值与状态只有概率关系,而不是精确地观察状态。此类问题可以建模为部分可观察的马尔可夫决策过程(POMDP),但POMDP很难以最佳方式解决所有问题,因而需要引入更多的近似策略。
136 0
|
机器学习/深度学习 算法 流计算
【读书笔记】Algorithms for Decision Making(6)
对于较大状态空间的问题,计算精确解需要极大的内存量,因而考虑近似解的方法。常使用approximate dynamic programming的方法去寻求近似解,进而使用在线方法实现实时计算。
119 0
【读书笔记】Algorithms for Decision Making(6)
|
人工智能 vr&ar 决策智能
【读书笔记】Algorithms for Decision Making(12)
现将单智能体的核心概念扩展到多智能体系统的问题。在该系统中,可将其他智能体建模为潜在的盟友或对手,并随着时间的推移进行相应的调整。
|
vr&ar
【读书笔记】Algorithms for Decision Making(5)
此前讲述了在某个时间点做一个单一的决定的问题,但许多重要的问题需要做出一系列的决定。序列环境中的最佳决策需要对未来行动和观察序列进行推理。
|
机器学习/深度学习 人工智能 算法
【读书笔记】Algorithms for Decision Making(1)
我自己的粗浅看法:机器学习要不是拟合逼近(经常提及的machine learning),要不就是决策过程(reinforcement learning),这本书主要讲述后者的前世今生。
269 0
【读书笔记】Algorithms for Decision Making(1)
|
机器学习/深度学习 算法 vr&ar
【读书笔记】Algorithms for Decision Making(9)
与基于模型的方法相比,无模型方法不需要构建转移函数和奖励函数的显性表示,而是直接作用于值函数建模。进一步地,考虑模拟学习来重建奖励函数。
【读书笔记】Algorithms for Decision Making(9)