自编码器模型详解与实现(采用TensorFlow2实现)

简介: 自编码器的基本构建块是编码器和解码器。编码器负责将高维输入减少为一些低维潜(隐)变量。解码器是将隐变量转换回高维空间的模块。本文对自编码器的原理进行详解,同时使用tensorflow2实现自编码器。

使用自编码器学习潜变量

由于高维输入空间中有很多冗余,可以压缩成一些低维变量,自编码器于 1980 年代 Geoffrey Hinton 等人首次推出。在传统的机器学习技术中用于减少输入维度的技术,包括主成分分析 (Principal Component Analysis, PCA)。

但是,在图像生成中,我们还将希望将低维空间还原为高维空间。可以将其视为图像压缩,其中将原始图像压缩为 JPEG 之类的文件格式,该文件格式较小且易于存储和传输。然后,计算机可以将 JPEG 恢复为原始像素。换句话说,原始像素被压缩为低维 JPEG 格式,并恢复为高维原始像素以进行显示。

自编码器是一种无监督的机器学习技术,不需要训练标签就可以对模型进行训练。但是,由于我们确实需要使用图像本身作为标签,因此有人将其称为自监督机器学习( auto 在拉丁语中表示 self)。

自编码器的基本构建块是编码器和解码器。编码器负责将高维输入减少为一些低维潜(隐)变量。解码器是将隐变量转换回高维空间的模块。编码器-解码器 体系结构还用于其他机器学习任务中,例如语义分割,其中神经网络首先了解图像表示,然后生成像素级标签。下图显示了自编码器的一般体系结构:

自编码器.png

输入和输出是相同维度的图像,z 是低维度的潜矢量。编码器将输入压缩为 z,解码器将处理反向以生成输出图像。

编码器

编码器由多个神经网络层组成,我们将使用 MNIST 数据集构建编码器,该编码器接受的输入尺寸为 28x28x1。我们需要设置潜变量的维数,这里使用一维向量。潜变量的大小应小于输入尺寸。它是一个超参数,首先尝试使用 10,它具有 28 * 28 / 10 = 78.4 的压缩率。

这种网络拓使模型学习重要的知识,并逐层丢弃次要的特征,最终得到 10 个最重要的特征。它看起来与 CNN 分类非常相似,在 CNN 分类中,特征图的大小自上到下逐渐减小。

使用卷积层构建编码器,前期的 CNN (例如 VGG )使用最大池化进行特征图下采样,但是较新的网络倾向于通过在卷积层中使用步幅为 2 的卷积来实现此目的。

我们将遵循约定并将潜在变量命名为 z:

defEncoder(z_dim):
inputs=layers.Input(shape=[28,28,1])
x=inputsx=Conv2D(filters=8, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=Flatten()(x)
out=Dense(z_dim, activation='relu')(x)
returnModel(inputs=inputs, outputs=out, name='encoder')

在典型的 CNN 架构中,滤波器的数量增加,而特征图的大小减小。但是,我们的目标是减小特征尺寸,因此滤波器的数量保持不变,这对于诸如 MNIST 之类的简单数据就足够了。最后,我们将最后一个卷积层的输出展平,并将其馈送到密集层以输出潜变量。

解码器

解码器的工作本质上与编码器相反,其将低维潜变量转换为高维输出以近似输入图像。此处,在解码器中使用卷积层将特征图从 7x7 上采样到 28x28:

defDecoder(z_dim):
inputs=layers.Input(shape=[z_dim])
x=inputsx=Dense(7*7*64, activation='relu')(x)
x=Reshape((7,7,64))(x)
x=Conv2D(filters=64, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=UpSampling2D((2,2))(x)
x=Conv2D(filters=32, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=UpSampling2D((2,2))(x)    
x=Conv2D(filters=32, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
out=Conv2(filters=1, kernel_size=(3,3), strides=1, padding='same', activation='sigmoid')(x)
returnModel(inputs=inputs, outputs=out, name='decoder')

与编码器不同,解码器的目的不是降低尺寸,因此我们应该使用更多的滤波器来赋予其更强大的生成能力。

UpSampling2D 对像素进行插值以提高分辨率。这是一个仿射变换(线性乘法和加法),因此可以反向传播,但是它使用固定权重,因此是不可训练的。另一种流行的上采样方法是使用转置卷积层 (transpose convolutional layer),该层是可训练的,但是它可能在生成的图像中创建类似于棋盘方格的伪像

因此,最近的图像生成模型通常不使用转置卷积:绘图130.png


构建自编码器

将编码器和解码器放在一起以创建自编码器。首先,我们分别实例化编码器和解码器。然后,我们将编码器的输出馈送到解码器的输入中,并使用编码器的输入和解码器的输出实例化一个Model:  

z_dim=10encoder=Encoder(z_dim)
decoder=Decoder(z_dim)
model_input=encoder.inputmodel_output=decoder(encoder.output)
autoencoder=Model(model_input, model_output)

为了进行训练,使用 L2 损失,这是通过均方误差(MSE)来比较输出和预期结果之间的每个像素而实现的。在此示例中,添加了一些回调函数,它们将在训练每个 epoch 之后进行调用:

1. ModelCheckpoint(monitor='val_loss') 用于在当前验证损失低于先前 epoch 情况下保存模型。

2. 如果验证损失在 10 个 epoch 内没有得到改善,则 EarlyStopping(monitor='val_loss', patience = 10) 可以更早地停止训练。

生成的图像如下:

20210522141118340.png

从潜变量生成图像

那么,自动编码器有什么用途呢?自编码器的应用之一是图像去噪,即在输入图像中添加一些噪声并训练模型以生成清晰图像。

如果对使用自编码器生成图像感兴趣,则可以忽略编码器,而仅使用解码器从潜变量中采样以生成图像。我们面临的第一个挑战是确定如何从潜在变量中采样。

为了进行说明,使用z_dim = 2训练另一个自动编码器,以便我们可以在两个维度上探索潜在空间:

绘图131.png

通过将 1,000 个样本传递到经过训练的编码器中并在散点图上绘制两个潜在变量来生成该图。右侧的颜色栏指示数字标签的强度。我们可以从图中观察到:

潜在变量的类别不是均匀分布的。可以在左上方和右上方看到与其他类别完全分开的群集。但是,位于图中心的类别趋于更密集地排列,并且彼此重叠。

下图中,这些图像是通过以 1.0 为间隔在潜变量 [-5, +5] 范围中生成的:

绘图132.png

我们可以看到数字 0 和 1 在样本分布中得到了很好的表示,被很好地绘制。但中间的数字是模糊的,甚至样本中也缺少一些数字。

我们也可以在 .ipynb 代码中添加控件,允许滑动改变潜变量以交互方式生成图像。

绘图133.png

相关文章
|
10月前
|
机器学习/深度学习 算法 PyTorch
pytorch模型转ONNX、并进行比较推理
pytorch模型转ONNX、并进行比较推理
498 0
|
11月前
|
TensorFlow 算法框架/工具
基于Tensorflow实现Transformer模型
基于Tensorflow实现Transformer模型
187 0
|
存储 缓存 自然语言处理
几个常见的小技巧加快Pytorch训练速度
几个常见的小技巧加快Pytorch训练速度
511 0
几个常见的小技巧加快Pytorch训练速度
|
Ubuntu TensorFlow 算法框架/工具
ResNet实战:tensorflow2.X版本,ResNet50图像分类任务(小数据集)
本例提取了植物幼苗数据集中的部分数据做数据集,数据集共有12种类别,今天我和大家一起实现tensorflow2.X版本图像分类任务,分类的模型使用ResNet50。 通过这篇文章你可以学到: 1、如何加载图片数据,并处理数据。 2、如果将标签转为onehot编码 3、如何使用数据增强。 4、如何使用mixup。 5、如何切分数据集。 6、如何加载预训练模型。
1330 0
ResNet实战:tensorflow2.X版本,ResNet50图像分类任务(小数据集)
|
机器学习/深度学习 编解码 算法
使用PolyGen和PyTorch生成3D模型
使用PolyGen和PyTorch生成3D模型
93 0
使用PolyGen和PyTorch生成3D模型
|
数据挖掘 TensorFlow 算法框架/工具
使用TensorFlow创建能够图像重建的自编码器模型
使用TensorFlow创建能够图像重建的自编码器模型
103 0
使用TensorFlow创建能够图像重建的自编码器模型
|
TensorFlow 算法框架/工具 计算机视觉
TensorFlow 实现VGG16图像分类
TensorFlow 实现VGG16图像分类
TensorFlow 实现VGG16图像分类
|
人工智能 算法 Ubuntu
MobileNet实战:tensorflow2.X版本,MobileNetV2图像分类任务(大数据集)
本例提取了植物幼苗数据集中的部分数据做数据集,数据集共有12种类别,今天我和大家一起实现tensorflow2.X版本图像分类任务,分类的模型使用MobileNetV2。本文实现的算法有一下几个特点: 1、自定义了图片加载方式,更加灵活高效,不用将图片一次性加载到内存中,节省内存,适合大规模数据集。 2、加载模型的预训练权重,训练时间更短。 3、数据增强选用albumentations。
161 0
MobileNet实战:tensorflow2.X版本,MobileNetV2图像分类任务(大数据集)
|
Ubuntu TensorFlow 算法框架/工具
MobileNet实战:tensorflow2.X版本,MobileNetV1图像分类任务(小数据集)
本例提取了植物幼苗数据集中的部分数据做数据集,数据集共有12种类别,今天我和大家一起实现tensorflow2.X版本图像分类任务,分类的模型使用MobileNet,其核心是采用了深度可分离卷积,其不仅可以降低模型计算复杂度,而且可以大大降低模型大小,本文使用的案例训练出来的模型只有38M,适合应用在真实的移动端应用场景。
209 0
|
机器学习/深度学习 PyTorch API