TensorFlow2实现去噪自编码器(Denoising Autoencoder)

简介: 去噪自编码器 (Denoising Autoencoder, DAE) 的目的就是用来去除图像中的噪声。本文将利用Tensorflow2实现使用 MNIST 数据集的 DAE。

去噪自编码器(Denoising Autoencoder, DAE)

在介绍去噪自编码器 (Denoising Autoencoder, DAE) 之前,首先介绍下DAE的一种使用场景示例,当我们在夜晚拍照时,或者其他黑暗环境时,我们的照片总是被大量的噪点所充斥,严重影响了图像质量,而 DAE 的目的就是用来去除这些图像中的噪声。为了更好的讲解 DAE,使用简单的 MNIST 数据集进行演示,以将我们的重心放在有关 DAE 的知识上。如下图所示,显示了三组 MNIST 数字。每组的顶行是原始图像 (Original Images);中间的行显示 DAE 的输入 (Noised Images),这些输入是被噪声破坏的原始图像,当噪声过多时,我们将很难读懂被破坏的数字;最后一行显示DAE的输出 (Denoised Images)。

8eaaf9c723d0472f9847bd17acd62a1d_tplv-k3u1fbpfcp-zoom-1.png

Tips:如果对于自编码器还不是很了解的话,可以参考自编码器模型详解与实现(采用tensorflow2.x实现)

接下来就让我们实际构建一个 DAE,以消除图像中的噪声。

DAE模型架构1d27530a77874645acb1417da21eca54_tplv-k3u1fbpfcp-zoom-1.png

根据 DAE 的介绍可以将输入定义为:

x = xorig + noise

其中 xorig 表示被噪声 noise 破坏的原始 MNIST 图像,编码器的目的是学习潜矢量 z。DAE的损失函数表示为:

屏幕截图 2021-12-23 153400.png

其中,m 是输出的维度,例如在MNIST数据集中,m=width × height×channels=28 × 28 × 1 = 784。xorigi 和 xi 分别是 xorigimage.png 中的元素。

DAE实现

数据预处理

为了实现 DAE,首先需要构造训练数据集,输入数据是添加噪声的 MNIST 数字,训练输出数据是原始的干净 MNIST 数字。添加的噪声需要满足高斯分布,均值 μ = 0.5,标准差 σ = 0.5。由于添加随机噪声可能会产生小于0或大于1的无效像素值,因此需要将像素值裁剪为 [0.0,1.0] 范围内。

# 数据加载(x_train,_),(x_test,_) =keras.datasets.mnist.load_data()
# 数据预处理image_size=x_train.shape[1]
x_train=np.reshape(x_train,[-1,image_size,image_size,1])
x_test=np.reshape(x_test,[-1,image_size,image_size,1])
x_train=x_train.astype('float32') /255.x_test=x_test.astype('float32') /255.# 产生高斯分布的噪声noise=np.random.normal(loc=0.5,scale=0.5,size=x_train.shape)
x_train_noisy=x_train+noisenoise=np.random.normal(loc=0.5,scale=0.5,size=x_test.shape)
x_test_noisy=x_test+noise# 将像素值裁剪为[0.0,1.0]范围内x_train_noisy=np.clip(x_train_noisy,0.0,1.0)
x_test_noisy=np.clip(x_test_noisy,0.0,1.0)

模型构建与模型训练

#编码器inputs=keras.layers.Input(shape=input_shape,name='encoder_input')
x=inputsforfiltersinlayer_filters:
x=keras.layers.Conv2D(filters=filters,
kernel_size=kernel_size,
strides=2,
activation='relu',
padding='same')(x)
shape=keras.backend.int_shape(x)
x=keras.layers.Flatten()(x)
latent=keras.layers.Dense(latent_dim,name='latent_vector')(x)
encoder=keras.Model(inputs,latent,name='encoder')
# 解码器latent_inputs=keras.layers.Input(shape=(latent_dim,),name='decoder_input')
x=keras.layers.Dense(shape[1]*shape[2]*shape[3])(latent_inputs)
x=keras.layers.Reshape((shape[1],shape[2],shape[3]))(x)
forfiltersinlayer_filters[::-1]:
x=keras.layers.Conv2DTranspose(filters=filters,
kernel_size=kernel_size,
strides=2,
padding='same',
activation='relu')(x)
outputs=keras.layers.Conv2DTranspose(filters=1,
kernel_size=kernel_size,
padding='same',
activation='sigmoid',
name='decoder_output')(x)
decoder=keras.Model(latent_inputs,outputs,name='decoder')
autoencoder=keras.Model(inputs,decoder(encoder(inputs)),name='autoencoder')
# 模型编译与训练autoencoder.compile(loss='mse',optimizer='adam')
autoencoder.fit(x_train_noisy,
x_train,validation_data=(x_test_noisy,x_test),
epochs=10,
batch_size=batch_size)
# 模型测试x_decoded=autoencoder.predict(x_test_noisy)

效果展示2ac7f8578ec44d53a6c45ead21c84050_tplv-k3u1fbpfcp-zoom-1.png


如上图所示,当噪声水平从 σ=0.5 增加到 σ=0.75 和 σ=1.0 时,DAE 具有一定的鲁棒性,可以较好的恢复出原始图像。但是,在 σ=1.0 时,某些数字,没有被正确地恢复。

相关文章
|
TensorFlow API 算法框架/工具
TensorFlow利用函数API实现简易自编码器
TensorFlow利用函数API实现简易自编码器
67 0
TensorFlow利用函数API实现简易自编码器
|
数据挖掘 TensorFlow 算法框架/工具
使用TensorFlow创建能够图像重建的自编码器模型
使用TensorFlow创建能够图像重建的自编码器模型
129 0
使用TensorFlow创建能够图像重建的自编码器模型
|
机器学习/深度学习 TensorFlow 算法框架/工具
|
机器学习/深度学习 JavaScript TensorFlow
【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第15章 自编码器
关联权重 当自编码器整齐地对称时,就像我们刚刚构建的那样,一种常用技术是将解码器层的权重与编码器层的权重相关联。 这样减少了模型中的权重数量,加快了训练速度,并限制了过度拟合的风险。 不幸的是,使用fully_connected()函数在 TensorFlow 中实现相关权重有点麻烦;手动定义层实际上更容易。
|
机器学习/深度学习 JavaScript 数据可视化
|
机器学习/深度学习 数据可视化 TensorFlow
《Scikit-Learn与TensorFlow机器学习实用指南》第15章 自编码器
第15章 自编码器 来源:ApacheCN《Sklearn 与 TensorFlow 机器学习实用指南》翻译项目 译者:@akonwang 校对:@飞龙 自编码器是能够在无监督的情况下学习输入数据(叫做编码)的人工神经网络(即,训练集是未标记)。
1291 0
|
TensorFlow 算法框架/工具
(TensorFlow)变分自编码器实现
一个小例子带你玩转(TensorFlow)变分自编码器,文中有源码下载!
4888 0
|
12天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
44 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
12天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
44 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
12天前
|
机器学习/深度学习 人工智能 算法
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型
蔬菜识别系统,本系统使用Python作为主要编程语言,通过收集了8种常见的蔬菜图像数据集('土豆', '大白菜', '大葱', '莲藕', '菠菜', '西红柿', '韭菜', '黄瓜'),然后基于TensorFlow搭建卷积神经网络算法模型,通过多轮迭代训练最后得到一个识别精度较高的模型文件。在使用Django开发web网页端操作界面,实现用户上传一张蔬菜图片识别其名称。
53 0
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型

相关实验场景

更多
下一篇
无影云桌面