TFLearn实例

简介: 【7月更文挑战第27天】TFLearn实例。

在TFLearn目录下新建CNN_MNIST.py,在PyCharm中编写代码。
使用TFLearn搭建一个两层的卷积神经网络,数据集是MNIST手写数字的数据集,TFLearn将卷积、池化、正则化等操作都封装成了类,所以需要先导入这些类。
from future import division, print_function, absolute_import
import tflearn
from tflearn.layers.core import input_data, dropout, fully_connected
from tflearn.layers.conv import conv_2d, max_pool_2d
from tflearn.layers.normalization import local_response_normalization
from tflearn.layers.estimator import regression
导入类之后,需要构建一个拥有两个卷积层的神经网络。使用TFLearn的卷积、池化、正则化、全连接、Dropout等操作完成网络构建,TFLearn在卷积的时候,参数包含激活函数,所以不必单独构建激活函数。

MNIST数据集加载

import tflearn.datasets.mnist as mnist
X, Y, testX, testY = mnist.load_data(one_hot=True)
X = X.reshape([-1, 28, 28, 1])
testX = testX.reshape([-1, 28, 28, 1])

搭建卷积神经网络,两层卷积

network = input_data(shape=[None, 28, 28, 1], name='input')
network = conv_2d(network, 32, 3, activation='relu', regularizer="L2")
network = max_pool_2d(network, 2)
network = local_response_normalization(network)
network = conv_2d(network, 64, 3, activation='relu', regularizer="L2")
network = max_pool_2d(network, 2)
network = local_response_normalization(network)
network = fully_connected(network, 128, activation='tanh')
network = dropout(network, 0.8)
network = fully_connected(network, 256, activation='tanh')
network = dropout(network, 0.8)
network = fully_connected(network, 10, activation='softmax')
network = regression(network, optimizer='adam', learning_rate=0.01,
loss='categorical_crossentropy', name='target')
regression()函数中需要规定优化器类型、学习率和损失函数类型。
完成网络构建后,开始训练模型,在训练过程中可以看到损失以及准确率。

训练

model = tflearn.DNN(network, tensorboard_verbose=0)
model.fit({'input': X}, {'target': Y}, n_epoch=20,
validation_set=({'input': testX}, {'target': testY}),
snapshot_step=100, show_metric=True, run_id='convnet_mnist')
使用TFLearn构建神经网络时,由于封装度更高,所以整体的代码非常简洁。

相关文章
|
3月前
|
机器学习/深度学习 数据可视化 TensorFlow
TFLearn介绍
【7月更文挑战第27天】TFLearn介绍。
31 4
|
2月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
【Tensorflow+Keras】tf.keras.layers.Bidirectional()的解析与使用
本文解析了TensorFlow和Keras中的`tf.keras.layers.Bidirectional()`层,它用于实现双向RNN(如LSTM、GRU)的神经网络结构。文章详细介绍了该层的参数配置,并通过实例演示了如何构建含有双向LSTM层的模型,以及如何使用IMDB数据集进行模型训练和评估。
53 8
|
2月前
|
TensorFlow 算法框架/工具
【Tensorflow+Keras】用Tensorflow.keras的方法替代keras.layers.merge
在TensorFlow 2.0和Keras中替代旧版keras.layers.merge函数的方法,使用了新的层如add, multiply, concatenate, average, 和 dot来实现常见的层合并操作。
24 1
|
2月前
|
机器学习/深度学习 大数据 算法框架/工具
【Python-Keras】keras.fit()和keras.fit_generator()的解析与使用
本文解析了Keras中的`fit()`和`fit_generator()`方法,解释了两者在训练神经网络模型时的区别和使用场景,其中`fit()`适用于数据集较小且无需数据增强时,而`fit_generator()`适用于大数据集或需要数据增强的情况。
34 2
|
2月前
|
机器学习/深度学习
【Python-Keras】keras.layers.Dense层的解析与使用
关于Python-Keras库中keras.layers.Dense层的解析与使用。
59 1
|
机器学习/深度学习 并行计算 PyTorch
【PyTorch】Training Model
【PyTorch】Training Model
84 0
|
API 算法框架/工具
越来越火的tf.keras模型,这三种构建方式记住了,你就是大佬!!!
越来越火的tf.keras模型,这三种构建方式记住了,你就是大佬!!!
118 0
|
TensorFlow API 算法框架/工具
Tensorflow:from tensorflow.keras import layers 报错
Tensorflow:from tensorflow.keras import layers 报错
409 0
|
PyTorch 算法框架/工具
【PyTorch简明教程】torch.Tensor()与torch.tensor()的区别
【PyTorch简明教程】torch.Tensor()与torch.tensor()的区别
120 0
|
机器学习/深度学习 算法框架/工具 Python
Keras-3-实例2-多分类问题
Keras-3-实例2-多分类问题