自编码器模型详解与实现(采用TensorFlow2实现)

简介: 自编码器的基本构建块是编码器和解码器。编码器负责将高维输入减少为一些低维潜(隐)变量。解码器是将隐变量转换回高维空间的模块。本文对自编码器的原理进行详解,同时使用tensorflow2实现自编码器。

使用自编码器学习潜变量

由于高维输入空间中有很多冗余,可以压缩成一些低维变量,自编码器于 1980 年代 Geoffrey Hinton 等人首次推出。在传统的机器学习技术中用于减少输入维度的技术,包括主成分分析 (Principal Component Analysis, PCA)。

但是,在图像生成中,我们还将希望将低维空间还原为高维空间。可以将其视为图像压缩,其中将原始图像压缩为 JPEG 之类的文件格式,该文件格式较小且易于存储和传输。然后,计算机可以将 JPEG 恢复为原始像素。换句话说,原始像素被压缩为低维 JPEG 格式,并恢复为高维原始像素以进行显示。

自编码器是一种无监督的机器学习技术,不需要训练标签就可以对模型进行训练。但是,由于我们确实需要使用图像本身作为标签,因此有人将其称为自监督机器学习( auto 在拉丁语中表示 self)。

自编码器的基本构建块是编码器和解码器。编码器负责将高维输入减少为一些低维潜(隐)变量。解码器是将隐变量转换回高维空间的模块。编码器-解码器 体系结构还用于其他机器学习任务中,例如语义分割,其中神经网络首先了解图像表示,然后生成像素级标签。下图显示了自编码器的一般体系结构:

自编码器.png

输入和输出是相同维度的图像,z 是低维度的潜矢量。编码器将输入压缩为 z,解码器将处理反向以生成输出图像。

编码器

编码器由多个神经网络层组成,我们将使用 MNIST 数据集构建编码器,该编码器接受的输入尺寸为 28x28x1。我们需要设置潜变量的维数,这里使用一维向量。潜变量的大小应小于输入尺寸。它是一个超参数,首先尝试使用 10,它具有 28 * 28 / 10 = 78.4 的压缩率。

这种网络拓使模型学习重要的知识,并逐层丢弃次要的特征,最终得到 10 个最重要的特征。它看起来与 CNN 分类非常相似,在 CNN 分类中,特征图的大小自上到下逐渐减小。

使用卷积层构建编码器,前期的 CNN (例如 VGG )使用最大池化进行特征图下采样,但是较新的网络倾向于通过在卷积层中使用步幅为 2 的卷积来实现此目的。

我们将遵循约定并将潜在变量命名为 z:

defEncoder(z_dim):
inputs=layers.Input(shape=[28,28,1])
x=inputsx=Conv2D(filters=8, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
x=Conv2D(filters=8, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=Flatten()(x)
out=Dense(z_dim, activation='relu')(x)
returnModel(inputs=inputs, outputs=out, name='encoder')

在典型的 CNN 架构中,滤波器的数量增加,而特征图的大小减小。但是,我们的目标是减小特征尺寸,因此滤波器的数量保持不变,这对于诸如 MNIST 之类的简单数据就足够了。最后,我们将最后一个卷积层的输出展平,并将其馈送到密集层以输出潜变量。

解码器

解码器的工作本质上与编码器相反,其将低维潜变量转换为高维输出以近似输入图像。此处,在解码器中使用卷积层将特征图从 7x7 上采样到 28x28:

defDecoder(z_dim):
inputs=layers.Input(shape=[z_dim])
x=inputsx=Dense(7*7*64, activation='relu')(x)
x=Reshape((7,7,64))(x)
x=Conv2D(filters=64, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=UpSampling2D((2,2))(x)
x=Conv2D(filters=32, kernel_size=(3,3), strides=1, padding='same', activation='relu')(x)
x=UpSampling2D((2,2))(x)    
x=Conv2D(filters=32, kernel_size=(3,3), strides=2, padding='same', activation='relu')(x)
out=Conv2(filters=1, kernel_size=(3,3), strides=1, padding='same', activation='sigmoid')(x)
returnModel(inputs=inputs, outputs=out, name='decoder')

与编码器不同,解码器的目的不是降低尺寸,因此我们应该使用更多的滤波器来赋予其更强大的生成能力。

UpSampling2D 对像素进行插值以提高分辨率。这是一个仿射变换(线性乘法和加法),因此可以反向传播,但是它使用固定权重,因此是不可训练的。另一种流行的上采样方法是使用转置卷积层 (transpose convolutional layer),该层是可训练的,但是它可能在生成的图像中创建类似于棋盘方格的伪像

因此,最近的图像生成模型通常不使用转置卷积:绘图130.png


构建自编码器

将编码器和解码器放在一起以创建自编码器。首先,我们分别实例化编码器和解码器。然后,我们将编码器的输出馈送到解码器的输入中,并使用编码器的输入和解码器的输出实例化一个Model:  

z_dim=10encoder=Encoder(z_dim)
decoder=Decoder(z_dim)
model_input=encoder.inputmodel_output=decoder(encoder.output)
autoencoder=Model(model_input, model_output)

为了进行训练,使用 L2 损失,这是通过均方误差(MSE)来比较输出和预期结果之间的每个像素而实现的。在此示例中,添加了一些回调函数,它们将在训练每个 epoch 之后进行调用:

1. ModelCheckpoint(monitor='val_loss') 用于在当前验证损失低于先前 epoch 情况下保存模型。

2. 如果验证损失在 10 个 epoch 内没有得到改善,则 EarlyStopping(monitor='val_loss', patience = 10) 可以更早地停止训练。

生成的图像如下:

20210522141118340.png

从潜变量生成图像

那么,自动编码器有什么用途呢?自编码器的应用之一是图像去噪,即在输入图像中添加一些噪声并训练模型以生成清晰图像。

如果对使用自编码器生成图像感兴趣,则可以忽略编码器,而仅使用解码器从潜变量中采样以生成图像。我们面临的第一个挑战是确定如何从潜在变量中采样。

为了进行说明,使用z_dim = 2训练另一个自动编码器,以便我们可以在两个维度上探索潜在空间:

绘图131.png

通过将 1,000 个样本传递到经过训练的编码器中并在散点图上绘制两个潜在变量来生成该图。右侧的颜色栏指示数字标签的强度。我们可以从图中观察到:

潜在变量的类别不是均匀分布的。可以在左上方和右上方看到与其他类别完全分开的群集。但是,位于图中心的类别趋于更密集地排列,并且彼此重叠。

下图中,这些图像是通过以 1.0 为间隔在潜变量 [-5, +5] 范围中生成的:

绘图132.png

我们可以看到数字 0 和 1 在样本分布中得到了很好的表示,被很好地绘制。但中间的数字是模糊的,甚至样本中也缺少一些数字。

我们也可以在 .ipynb 代码中添加控件,允许滑动改变潜变量以交互方式生成图像。

绘图133.png

相关文章
|
1月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
深度学习之格式转换笔记(三):keras(.hdf5)模型转TensorFlow(.pb) 转TensorRT(.uff)格式
将Keras训练好的.hdf5模型转换为TensorFlow的.pb模型,然后再转换为TensorRT支持的.uff格式,并提供了转换代码和测试步骤。
91 3
深度学习之格式转换笔记(三):keras(.hdf5)模型转TensorFlow(.pb) 转TensorRT(.uff)格式
|
12天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
44 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
12天前
|
机器学习/深度学习 人工智能 算法
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型
蔬菜识别系统,本系统使用Python作为主要编程语言,通过收集了8种常见的蔬菜图像数据集('土豆', '大白菜', '大葱', '莲藕', '菠菜', '西红柿', '韭菜', '黄瓜'),然后基于TensorFlow搭建卷积神经网络算法模型,通过多轮迭代训练最后得到一个识别精度较高的模型文件。在使用Django开发web网页端操作界面,实现用户上传一张蔬菜图片识别其名称。
53 0
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型
|
28天前
|
机器学习/深度学习 人工智能 算法
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型
车辆车型识别,使用Python作为主要编程语言,通过收集多种车辆车型图像数据集,然后基于TensorFlow搭建卷积网络算法模型,并对数据集进行训练,最后得到一个识别精度较高的模型文件。再基于Django搭建web网页端操作界面,实现用户上传一张车辆图片识别其类型。
72 0
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型
|
2月前
|
机器学习/深度学习 人工智能 算法
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
鸟类识别系统。本系统采用Python作为主要开发语言,通过使用加利福利亚大学开源的200种鸟类图像作为数据集。使用TensorFlow搭建ResNet50卷积神经网络算法模型,然后进行模型的迭代训练,得到一个识别精度较高的模型,然后在保存为本地的H5格式文件。在使用Django开发Web网页端操作界面,实现用户上传一张鸟类图像,识别其名称。
110 12
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
|
1月前
|
机器学习/深度学习 移动开发 TensorFlow
深度学习之格式转换笔记(四):Keras(.h5)模型转化为TensorFlow(.pb)模型
本文介绍了如何使用Python脚本将Keras模型转换为TensorFlow的.pb格式模型,包括加载模型、重命名输出节点和量化等步骤,以便在TensorFlow中进行部署和推理。
83 0
|
3月前
|
机器学习/深度学习 存储 前端开发
实战揭秘:如何借助TensorFlow.js的强大力量,轻松将高效能的机器学习模型无缝集成到Web浏览器中,从而打造智能化的前端应用并优化用户体验
【8月更文挑战第31天】将机器学习模型集成到Web应用中,可让用户在浏览器内体验智能化功能。TensorFlow.js作为在客户端浏览器中运行的库,提供了强大支持。本文通过问答形式详细介绍如何使用TensorFlow.js将机器学习模型带入Web浏览器,并通过具体示例代码展示最佳实践。首先,需在HTML文件中引入TensorFlow.js库;接着,可通过加载预训练模型如MobileNet实现图像分类;然后,编写代码处理图像识别并显示结果;此外,还介绍了如何训练自定义模型及优化模型性能的方法,包括模型量化、剪枝和压缩等。
53 1
|
3月前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
79 1
|
3月前
|
机器学习/深度学习 IDE API
【Tensorflow+keras】Keras 用Class类封装的模型如何调试call子函数的模型内部变量
该文章介绍了一种调试Keras中自定义Layer类的call方法的方法,通过直接调用call方法并传递输入参数来进行调试。
35 4
|
3月前
|
API UED 开发者
如何在Uno Platform中轻松实现流畅动画效果——从基础到优化,全方位打造用户友好的动态交互体验!
【8月更文挑战第31天】在开发跨平台应用时,确保用户界面流畅且具吸引力至关重要。Uno Platform 作为多端统一的开发框架,不仅支持跨系统应用开发,还能通过优化实现流畅动画,增强用户体验。本文探讨了Uno Platform中实现流畅动画的多个方面,包括动画基础、性能优化、实践技巧及问题排查,帮助开发者掌握具体优化策略,提升应用质量与用户满意度。通过合理利用故事板、减少布局复杂性、使用硬件加速等技术,结合异步方法与预设缓存技巧,开发者能够创建美观且流畅的动画效果。
83 0
下一篇
无影云桌面