程序员的魔法——用Masking GAN让100,000人都露出灿烂笑容

简介:

首发地址:https://yq.aliyun.com/articles/324353

64e1583235d1cc54121d5212b58b0e7203fed78a

继卷积神经网络(CNN)掀起深度学习的浪潮后,生成对抗网络(GAN)逐渐成为了计算机视觉领域的另一重点关注的神经网络。本文作者于一年前开始第一次尝试使用GAN来完成一些实验,但都会存在一个问题,那就是模型很难训练以及模型的结果不好评估。尽管存在上述的这些问题,GAN仍然在深度学习领域中占据一席之地,这是因为GAN不同于经典的机器学习任务,它能够给许多问题提供新的解决思路。

操作人脸属性(年龄、性别、表情)是一个最著名的语义处理问题。目前市面上有许多这样应用客户端,大都能够在拍照后更改面部表情。实现这一操作的方法多种多样,但在我看来,GAN是表现最优的方法。

81efd219c499e843eb5c545ac971b19a8e110da9

上图选择的这些例子强调了一个问题——GAN也会改变无关的对象。如果你想裁剪一个图像部分,然后对部分图像进行修改后再粘贴回来,那样可能会与周围的背景无法很好地融合,此外这样操作起来也很困难。本文将针对这个问题,探讨解决方法和相关细节。

如何操作?

一种方法是训练另外一个分割模型,可以使用这个模型来生成一个分割掩码,并与生成图像块匹配(比如这篇文献)。当然,收集这样的标签是困难的,此外还必须假设应用语义变化后对象的形状不会发生改变。

另外的一种潜在方法是使用恒等损失函数约束生成器,迫使生成器减少变化。

本文尝试结合上述两种思想来设计一个实验模型,该模型具有以下特点:

  • 使用内置分段的生成器结构
  • 通过分割掩码将原始图像与新的图像块混合
  • 整个网络的训练过程是个端到端的过程
  • 使用L1恒等损失约束生成器并减少改变

aae4af211ef6ccab71a6b6001afe2306e89fb729

上图是方案框图,期待看到该模型制作出完美的掩膜。

工作情况如何?

97db4ee2dcb96c785b9f33ce3cb50c624f90628f

上图是挑选出来的一些结果样本,可以看到表现都还不错。在总的数据集中,超过80%及以上的图像表现足够好。

此外,实验过程中还注意到了一些问题:

  • 如果图像中一个人已经是微笑,那么它就不需要做任何改变
  • 模型在处理一些极端的头角度时候表现
  • 模型有时候对一些不相关部分仍进行了操作

2a3c4ef8984ebf95ce0e1993ba0efd222ed6047e

从上图可以看到,随着训练的进行,生成器能产生更多的变化。

在最初的迭代周期里,生成器会绘制出越来越逼真的图像。起初,脸部分割掩码近乎完美,但经过一段时间后,模型的结果开始产生显著变化,比如上图中,模型改变了头发。

一些想法

上述这种行为的直接感受是一旦生成器开始生成真实的面孔,它就迫使判别器忽略表情并集中于其他区域(微笑停止是主要特征)。

另外一种解释可能是判别器过拟合了(尽管训练集含有十万左右的图像),使用更强的正则化实验可能有助于更好地理解它。

在其它数据集(如马对斑马)上的实验表明了同样的注意力转移现象,生成器最终改变了整幅图像。

实现注意事项

本文实验中应该注意以下几点:

  • 使CycleGAN方式训练模型;
  • 使用校准后的CelebA数据集
  • 使用PyTorch框架

使用3GB内存的GPU训练4到5天就可以重现本文实验结果(时间评估是基于GPU为GTX1080),本文项目地址:https://github.com/tgeorgy/mgan

作者信息

Georgiy Trofimov,机器学习工程师

Linkedin: https://www.linkedin.com/in/georgtrof/

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《How to make 100,000 people smile?》,作者:Georgiy Trofimov,译者:海棠,审阅:。

文章为简译,更为详细的内容,请查看原文

翻译者: 海棠 

Wechat:269970760 

Email:duanzhch@tju.edu.cn

微信公众号:AI科技时讯

157f33dddfc596ede3681e0a2a0e7068dc288cc1

目录
相关文章
|
9月前
|
机器学习/深度学习 自然语言处理 PyTorch
【传知代码】transformer-论文复现
Transformer模型,革新NLP的里程碑,摒弃CNN/RNN,采用自注意力机制解决长距离依赖问题,加速训练。模型包含编码器和解码器,用位置编码补充序列信息。关键组件包括:嵌入层(位置编码增强词向量)、多头注意力层(捕获不同侧面的上下文)、前馈层(非线性变换)及残差连接和层归一化(提升训练稳定性)。Transformer的创新应用,推动了现代大语言模型的发展。
210 1
【传知代码】transformer-论文复现
|
9月前
|
机器学习/深度学习 编解码 自然语言处理
【VIT】小白入门篇:从各个角度认识Vision Transformer
【VIT】小白入门篇:从各个角度认识Vision Transformer
531 0
【VIT】小白入门篇:从各个角度认识Vision Transformer
|
机器学习/深度学习 编解码 算法
一文读懂卷积神经网络
一文读懂卷积神经网络
262 0
|
数据采集 机器学习/深度学习 自然语言处理
【论文笔记】当Bert炼丹不是玄学而是哲学:Mengzi模型
【论文笔记】当Bert炼丹不是玄学而是哲学:Mengzi模型
361 0
【论文笔记】当Bert炼丹不是玄学而是哲学:Mengzi模型
|
机器学习/深度学习 计算机视觉 网络架构
【动手学计算机视觉】第十八讲:卷积神经网络之GoogLeNet
本文的主角GoogLeNet和上篇文章讲到的VGG出现在同一年ILSVRC比赛的舞台上,它在效果方面超过了VGG并取得了当年的冠军。虽然二者出自同一年,但是在模型方面却有着天壤之别,无论是在克服网络深度方面还是在输出层处理方面均提出了非常新颖的思路,本文就来详细介绍一下这个名噪一时的卷积神经网络模型。
【动手学计算机视觉】第十八讲:卷积神经网络之GoogLeNet
|
机器学习/深度学习 算法 PyTorch
白话生成对抗网络 GAN,50 行代码玩转 GAN 模型!【附源码】
白话生成对抗网络 GAN,50 行代码玩转 GAN 模型!【附源码】
359 0
白话生成对抗网络 GAN,50 行代码玩转 GAN 模型!【附源码】
|
机器学习/深度学习 编解码 计算机视觉
GAN的一些很酷的应用
本文主要讲述了生成对抗网络GANs的发展和主要应用。
3170 0
|
机器学习/深度学习 TensorFlow 算法框架/工具
|
机器学习/深度学习 JavaScript 算法
手把手教你生成对抗网络 GAN,50 行代码玩转 GAN 模型!
本文为大家介绍了生成对抗网络(Generate Adversarial Network,GAN),以最直白的语言来讲解它,最后实现一个简单的 GAN 程序来帮助大家加深理解。
2337 0