Tensorflow入门1-CNN网络及MNIST例子讲解

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: ## 1. 前言 人工智能自从阿尔法狗大败李世石后就异常火爆,最近工作中需要探索AI在移动端的应用,趁着这个计划入门下深度学习吧。 深度学习的入门曲线还是很陡峭的,看了很多资料,询问了从事相关工作的朋友后终于有点感觉了,这篇文章就讲一下我在这个过程中的所见所得吧,肯定是不专业的,如果所说有什么错误,也希望大家帮忙指出,共同进步。 这个入门的文章准备分以下几个部分来说: - CN

1. 前言

人工智能自从阿尔法狗大败李世石后就异常火爆,最近工作中需要探索AI在移动端的应用,趁着这个计划入门下深度学习吧。

深度学习的入门曲线还是很陡峭的,看了很多资料,询问了从事相关工作的朋友后终于有点感觉了,这篇文章就讲一下我在这个过程中的所见所得吧,肯定是不专业的,如果所说有什么错误,也希望大家帮忙指出,共同进步。

这个入门的文章准备分以下几个部分来说:

  • CNN的原理
  • Tensorflow使用CNN网络解决MNIST问题的例子讲解
  • Demo改造解决我自己的股票图片识别问题
  • 训练出的模型部署到iOS端的Tensorflow Mobile框架中
  • 训练出的模型部署到iOS端的Tensorflow List框架中

首先我做的第一件事是分清楚一些概念,之前完全不懂得时候只觉得人工智能很厉害,能解决人力解决不了的问题,但人工智能到底是什么,完全不知道。既然要学习,首先就得分清楚人工智能,机器学习,深度学习都是些什么东西,需要从哪里入手等等这些问题。这个问了从事相关工作的同学后再查阅了一些资料后,很容易的就理解了。知乎上的这个回答比较靠谱,传送门,总结一下就是这两句话。

机器学习:一种实现人工智能的方法

深度学习:一种实现机器学习的技术

而三者的关系就是

这里写图片描述

可以看的出来,人工智能是一个很大的概念,想用机器来解决问题的一种思想都可以认为是人工智能,而这个概念早在19世纪50年代就提出了。机器学习就是实现人工智能的一种方法,一切使用数据分析帮助决策的场景都可以叫做机器学习,这个概念从19世纪80年代到现在也已经发展了快40年了,机器学习其实一点都不神秘,在现代生产中的应用随处可见,比如各种网站的推荐算法,垃圾邮件的过滤算法等等。而最近火热的概念其实人工智能中很小的一部分,叫做深度学习。简单来说,使用深度神经网络去解决问题的学习方法叫做深度学习。如果说广义的机器学习是人类定义好规则,让计算机去做,那么深度学习就是人类定义好规则后,让计算机去学。深度学习依赖于现在计算能力的提升飞速发展,在图像识别、语音识别等领域发挥了巨大的作用。看完这篇文章后,你应该对深度学习会有一个简单的理解。

考虑到机器学习的算法实在是太多,学习需要很多时间(按照我粗浅的理解,机器学习就是一整部统计学在计算机界的应用,很大)。而深度学习就相对单纯一些,据我所知,目前比较流行的深度学习算法就只有CNN(卷积神经网络),RNN(循环神经网络)和DNN(深度神经网络)。DNN是整个深度学习的基础,后面的CNN和RNN其实都是基于DNN来做的,CNN(卷积神经网络)比较擅长于提取图片特征,处理图像问题。RNN是把前一次网络的输出作为下一次网络的输入,让整个网络有了前因后果的概念,比较擅长处理有前后时间序列关系的问题,比如语音识别,语义分析等。

根据之前列的大纲,这篇文章会先讲一下CNN网络的概念,然后讲一下Tensorflow中一个很有用的例子,用CNN网络去解决MNIST问题。大纲中剩下的部分会在接下来的文章中讲解。

2. CNN神经网络

CNN神经网络,全称是卷积神经网络,是目前深度学习中最常见、应用最广泛的一种网络,适合于解决图像识别,图片分类,图像预测的问题。

这里有一篇讲CNN比较好的文章,我看到很多大V讲到CNN的时候也会引用这篇文章的内容。有兴趣可以先看一下这篇文章。

An Intuitive Explanation of Convolutional Neural Networks

译文:什么是卷积神经网络?为什么它们很重要?

如果不考虑CNN,可以先思考下一个自己去实现一个分类图片的程序会怎么做。我之前做了一个判断一张图片是否是自选股截图的程序,自选股截图指的是下面这种图片。

这里写图片描述

首先我会去看这种图片有什么特征,很明显,自选股截图上面有规则的红绿方块,而其他图片是没有的。那么在程序中,我首先提取出图片的各个像素值,如果去查找这张图片中是否有这种红绿色块,查找红绿色块的算法,可以这样做,看红色的像素值的坐标是否是一个方块,或者绿色的像素值的坐标是否是一个方块。

由上所知,一个典型的图片分类算法就是提取特征,比较特征。CNN网络简单来说就是将这个过程自动化,开发人员不需要告诉网络图片的特征是什么,CNN网络可以自动的从图片中寻找特征,并记录。这个过程是怎么做到的呢,下面来讲。

输入一张图片,网络通过一系列的运算,提取出图片的特征。如下图所示:

这里写图片描述

当然,这中间的一系列计算是有算法和参数的。训练的时候我们会给每张图片打上一个对应的标签,CNN通过上面一系列计算出特征后,每个特征就对应着一个标签。比如

特征1 -> 标签A 
特征2 -> 标签B 
特征3 -> 标签A 

当下一张图进入训练时,CNN网络仍然以上次训练计算出来的参数去提取特征,假如提取出的是特征2,如果图片的标签是B,那么证明参数正确,无需调整。如果提取出的是特征2,但是图片的标签是A,那么证明参数不准确,需要调整下参数。调整完参数后继续下次训练,以此类推,直到参数大概率准确的时候。

很简单的去解释了CNN卷积神经网络是怎么工作的,当然实际的过程比这要复杂的多,提取特征需要一些算法,比如卷积、池化、激活,算法的参数也不是1个这么简单,而是几百万个。下面的文章中基于Tensorflow中一个很简单的例子MNIST问题的代码来讲一下CNN网络是怎样工作的。

3. MNIST问题

MNIST问题就相当于图像处理的Hello World程序,在Tensorflow的官方教程里已经有一个完整的Demo。

MNIST问题处理

MNIST问题是很常见的图片分类问题,训练集是已经编码过的手写图片,图片中是手写的0~9的数字,模型经过训练后,输入一张图片,可以输出0~9的数字。

3.1 输入集

首先我们来看一下MNIST问题的输入集,数据集的介绍传送门

整个数据集由以下四个文件构成,

//训练集-图片数据
train-images-idx3-ubyte.gz:  training set images (9912422 bytes) 
//训练集-label数据
train-labels-idx1-ubyte.gz:  training set labels (28881 bytes) 
//测试集-图片数据
t10k-images-idx3-ubyte.gz:   test set images (1648877 bytes) 
//测试集-label数据
t10k-labels-idx1-ubyte.gz:   test set labels (4542 bytes)

训练集-图片数据的格式如下

[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000803(2051) magic number 
0004     32 bit integer  60000            number of images 
0008     32 bit integer  28               number of rows 
0012     32 bit integer  28               number of columns 
0016     unsigned byte   ??               pixel 
0017     unsigned byte   ??               pixel 
........ 
xxxx     unsigned byte   ??               pixel

训练集-label数据的格式如下

[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000801(2049) magic number (MSB first) 
0004     32 bit integer  60000            number of items 
0008     unsigned byte   ??               label 
0009     unsigned byte   ??               label 
........ 
xxxx     unsigned byte   ??               label
The labels values are 0 to 9.

测试集的数据格式和训练集是一样的。

首先我们写个程序试着解析一下这些数据:

#coding=utf-8
import os
import struct
import numpy as np
import matplotlib.pyplot as plt


def load_mnist(path, kind='train'):
    # 读取文件
    labels_path = os.path.join(path,
                               '%s-labels-idx1-ubyte'
                               % kind)
    images_path = os.path.join(path,
                               '%s-images-idx3-ubyte'
                               % kind)
    with open(labels_path, 'rb') as lbpath:
        # 读取magic numer,labels数量
        magic, n = struct.unpack('>II',
                                 lbpath.read(8))
        print 'label magic : ',
        print magic
        # 载入label数据
        labels = np.fromfile(lbpath,
                             dtype=np.uint8).reshape(n, 1)

    with open(images_path, 'rb') as imgpath:
        # 读取magic numer,图片数量,图片宽,高
        magic, num, rows, cols = struct.unpack('>IIII',
                                               imgpath.read(16))
        print 'image magic : ',
        print magic
        # 载入图片数据
        images = np.fromfile(imgpath,
                             dtype=np.uint8).reshape(num, rows * cols)

    return images, labels, rows, cols


def show_image():
    images, labels, rows, cols = load_mnist('/tmp/tensorflow/mnist/input_data/')
    fig, ax = plt.subplots(
        nrows=2,
        ncols=5,
        sharex=True,
        sharey=True, )

    ax = ax.flatten()
    for i in range(10):
        img = images[i].reshape(rows, cols)
        print labels[i]
        ax[i].imshow(img, cmap='Greys', interpolation='nearest')

    ax[0].set_xticks([])
    ax[0].set_yticks([])
    plt.tight_layout()
    plt.show()


if __name__ == '__main__':
  show_image()

运行程序后,会显示输入集的前10张图片,如下图所示:

在控制台会输出labels

label magic :  2049
image magic :  2051
[5] [0] [4] [1] [9] [2] [1] [3] [1] [4]

这是一个CNN模型需要的典型的输入,有一些数据,每个数据都有一个label。后面我们做自己项目的时候,也是这种数据格式。

因为MNIST问题是个比较典型的问题,所以Tensorflow甚至封装了解析的方法。

3.2 MNIST问题代码解析

完整的代码在Tensorflow的/tensorflow/git/tensorflow/tensorflow/examples/tutorials/mnist/mnist_deep.py里面。

我们根据程序的运行顺序来看一下。

3.2.1 读取数据

if __name__ == '__main__':
  # 解析命令行参数,默认没有
  parser = argparse.ArgumentParser()
  # 添加MNIST数据集的下载地址
  parser.add_argument('--data_dir', type=str,
                      default='/tmp/tensorflow/mnist/input_data',
                      help='Directory for storing input data')
  FLAGS, unparsed = parser.parse_known_args()
  # 运行main方法
  tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)
  # Import data
  mnist = input_data.read_data_sets(FLAGS.data_dir)

代码将MNIST的下载和解析过程封装了一次,看下read_data_sets方法

def read_data_sets(train_dir,
                   fake_data=False,
                   one_hot=False,
                   dtype=dtypes.float32,
                   reshape=True,
                   validation_size=5000,
                   seed=None,
                   source_url=DEFAULT_SOURCE_URL):
                   ...
                   return base.Datasets(train=train, validation=validation, test=test)

这个方法最后返回的是一个Datasets格式,里面train,validation和test都是已经解析好的数据,解析方法就类似于上一节讲到的。

读到这里,你可能有个疑问,MNIST数据里面只有train和test,那验证数据集validation是哪里来的。这里validation使用的就是train数据集。CNN网络在每次训练完之后运行validation数据集,可以让开发者了解目前的准确度,在所有训练结束之后运行test数据集,可以知道训练出的这个模型的准确度。所以运行validation数据只是给开发者参考用的,这里对数据的要求不是很严苛,可以直接用train的数据集,而最后测试模型的准确度时使用的test数据集一定不能是train里面的数据,因为如果两个数据集有重合,可能无法准确的测试模型的准确度。

3.2.2 定义输入输出

  # Create the model
  x = tf.placeholder(tf.float32, [None, 784], name="x")

  # Define loss and optimizer
  y_ = tf.placeholder(tf.int64, [None])
  

tf.placeholder可以理解为定义变量,这里定义了两个变量,一个是输入值x,类型是浮点数,纬度是[None, 784],None代表不确定数量,784代表28*28,也就是一张MNIST输入集的图片,这里的意思是说输入层x可以是不确定数量的图片,代表着我们这个网络可以同时输入多张图片的数据。这种变量就是tensorflow的张量tensor,而每个tensor都可以指定名称,但是我们一般只指定具有代表性的几个tensor的名称,比如这个输入节点的名称是x。

而y_声明的存储label的变量,类型是int类型,因为label是1-10,也是不确定数量的,因为前面x输入多少图片,这里的label就应该有多少数量。

声明一个变量为什么要如此复杂,为什么不能像我们写程序一样直接声明float x = 5这样。这里需要给读者讲解一下Tensorflow计算图和静态图的概念。训练一个深度学习网络的时候,是需要大量计算的,而深度学习框架为了加快计算速度,会直接把计算的过程扔给CPU或GPU去运行,CPU和GPU运行结束后返回框架结果。举个简单的例子,如果我们要计算3*5+2,普通的程序是先计算3*5,得到结果之后再+2,得到结果。如果Tensorflow也这样做的话,相当于让CPU算3*5,CPU算完后返回结果,然后把返回的结果和2再扔给CPU去算,最后得到结果。但是需要知道的是,每一次和CPU的交互其实都是特别浪费时间的,所以如果像普通的程序一样,那训练神经网络会特别耗时。所以有一些深度学习框架像Tensorflow提出了静态图的概念,首先定义好整个计算图,放在前面的例子里,就是定义好“先乘后加”,然后将需要计算的数字和这个计算图扔给CPU,最后CPU会计算出一个最终的结果返回给框架,这样整个过程中框架和CPU只有一次交互。这样做可以提升计算的速度,但是有一个致命的缺点是不能调试,你不能在3*5之后打个断点看看结果对不对,你只能知道最后的结果是不是正确。

所以tf.placeholder只是定义了整个计算图中的一个节点tensor,所以必须用Tensorflow定义tensor的语法。

3.2.3 定义计算图

# Build the graph for the deep net
  y_conv = deepnn(x)

deepnn这个方法是整个程序的核心,在这个方法中定义了一整个计算图。我们一层一层的看。这个CNN的网络用的是LeNet网络。构成是这样的。

这里写图片描述

其中有两层卷积层,两层池化层,最后输出层是两层全连接层。代码如下:

def deepnn(x):
  """deepnn builds the graph for a deep net for classifying digits.

  Args:
    x: an input tensor with the dimensions (N_examples, 784), where 784 is the
    number of pixels in a standard MNIST image.

  Returns:
    A tuple (y, keep_prob). y is a tensor of shape (N_examples, 10), with values
    equal to the logits of classifying the digit into one of 10 classes (the
    digits 0-9). keep_prob is a scalar placeholder for the probability of
    dropout.
  """
  # Reshape to use within a convolutional neural net.
  # Last dimension is for "features" - there is only one here, since images are
  # grayscale -- it would be 3 for an RGB image, 4 for RGBA, etc.
  with tf.name_scope('reshape'):
    x_image = tf.reshape(x, [-1, 28, 28, 1])

  # First convolutional layer - maps one grayscale image to 32 feature maps.
  with tf.name_scope('conv1'):
    W_conv1 = weight_variable([5, 5, 1, 32])
    b_conv1 = bias_variable([32])
    h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

  # Pooling layer - downsamples by 2X.
  with tf.name_scope('pool1'):
    h_pool1 = max_pool_2x2(h_conv1)

  # Second convolutional layer -- maps 32 feature maps to 64.
  with tf.name_scope('conv2'):
    W_conv2 = weight_variable([5, 5, 32, 64])
    b_conv2 = bias_variable([64])
    h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)

  # Second pooling layer.
  with tf.name_scope('pool2'):
    h_pool2 = max_pool_2x2(h_conv2)

  # Fully connected layer 1 -- after 2 round of downsampling, our 28x28 image
  # is down to 7x7x64 feature maps -- maps this to 1024 features.
  with tf.name_scope('fc1'):
    W_fc1 = weight_variable([7 * 7 * 64, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

  # Map the 1024 features to 10 classes, one for each digit
  with tf.name_scope('fc2'):
    W_fc2 = weight_variable([1024, 10])
    b_fc2 = bias_variable([10])

    y_conv = tf.add(tf.matmul(h_fc1, W_fc2), b_fc2, name="output")
  return y_conv

下面一层一层的看这个网络是怎么工作的。

卷积层

CNN叫卷积神经网络,可以看出卷积是这个网络的核心。卷积层是用于提取图片特征,卷积的操作是用一个卷积矩阵(也叫卷积核)在输入矩阵上依次扫描,做矩阵相乘,得到的结果输入矩阵的某一个特征。这样讲是不太好理解,下面用图片说一下这个过程。

假设输入矩阵是这样的
这里写图片描述

选取如下一个卷积核
这里写图片描述

用卷积核在输入矩阵上依次扫过,做矩阵相乘的操作,就可以得到输入矩阵由这个卷积核提取的特征。

这里写图片描述

在 CNN 的术语中,3x3 的矩阵叫做“滤波器(filter)”或者“核(kernel)”或者“特征检测器(feature detector)”,通过在图像上滑动滤波器并计算点乘得到矩阵叫做“卷积特征(Convolved Feature)”或者“激活图(Activation Map)”或者“特征图(Feature Map)”。记住滤波器在原始输入图像上的作用是特征检测器。

是不是在怀疑,这种操作真的能够提取特征吗,看下对实际图片进行卷积操作的例子。

输入图像如下:
这里写图片描述

用不同的卷积核进行卷积操作的结果如下:

这里写图片描述

可以看到,不同的卷积核对原图像进行处理后可以得到不同的特征图像,有的卷积核能提取边缘信息,有的卷积核能提取色彩信息,有的卷积核能提取明暗特征,等等等等。有没有觉得这一步特别像PS中的滤镜,其实卷积的操作和滤镜的操作是很类似的。不同的卷积就像不同的滤镜对不同的特征敏感度不同。而代码中的卷积层如下:

# First convolutional layer - maps one grayscale image to 32 feature maps.
  with tf.name_scope('conv1'):
    W_conv1 = weight_variable([5, 5, 1, 32])
    b_conv1 = bias_variable([32])
    h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

首先定义一个卷积核W_conv1变量,由于后面会多次定义变量,所以将定义变量的部分提取了方法,如下:

def weight_variable(shape):
  """weight_variable generates a weight variable of a given shape."""
  initial = tf.truncated_normal(shape, stddev=0.1)
  return tf.Variable(initial)

tf.Variable生成一个变量tensor,参数initial是初始化值。initial由truncated_normal方法生成,shape指定了生成变量的纬度,这里是[5,5,1,32]四维的变量,初始化值是由truncated_normal产生的正态分布的值,这就是truncated_normal方法的作用,详细的说明可以看文档。

相对于卷积核的声明,偏量b_conv1的生成要简单一点。

def bias_variable(shape):
  """bias_variable generates a bias variable of a given shape."""
  initial = tf.constant(0.1, shape=shape)
  return tf.Variable(initial)

初始化值是固定的0.1。
这两个变量的初始化值不能是0,而要加入一些脏值,是为了打破对称性以及避免0梯度,提升模型训练的效率。

后面的代码就是执行卷积操作,我们来看,

conv2d(x_image, W_conv1)

def conv2d(x, W):
  """conv2d returns a 2d convolution layer with full stride."""
  return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

这个函数就是tensorflow中用于做卷积的函数,2d代表生成的是一个二维特征图,这个是什么意思呢,后面会提到。除了conv2d,还有conv1d和conv3d函数。

看下conv2d的函数签名。

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

除去name参数用以指定该操作的name,与方法有关的一共五个参数:

第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一

第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维

第三个参数strides:卷积时在图像每一维每一次移动的步长,这是一个一维的向量,长度跟前面卷积核的纬度相同,这里是4。

第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式

第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true,cudnn是英伟达的GPU处理单元,这里也就是用GPU进行加速计算。

二维特征向量

conv2d生成的是二维特征向量,conv2d有两个参数是必要的,input和filter。我们的输入参数是一张图片,三维的数据[宽,高,颜色空间],为了最后向量相乘的结果是二维的,filer的第三个纬度应该和input的第四个纬度相等,也就是in_channels相等,这样永远都只能输出一个二维的特征向量,也就是这个函数叫conv2d的原因,这里比较难理解,可以仔细考虑一下。

padding参数

padding参数的可选值是SAME和VALID,这个参数影响了了卷积核对输入矩阵边缘的处理,决定了输出的特征向量大小。

卷积核和按照步数一步步的扫描输入矩阵,做乘法操作。但是在输入矩阵的边缘,如果输入矩阵剩余的纬度小于定义的卷积核的纬度,那么卷积核就无法做乘法操作了,剩余这部分边界怎么处理呢。

如果padding是SAME,则会在输入矩阵的两端补齐0,使补齐后的输入矩阵纬度刚好可以被卷积核处理,最后得到的特征矩阵和原来的输入矩阵纬度相同。

这里写图片描述

如果padding是VALID,则会抛弃边界的节点,最后输出的特征矩阵纬度和输入矩阵不相同

这里写图片描述

再回来看代码

  W_conv1 = weight_variable([5, 5, 3, 32])
  conv2d(x_image, W_conv1)

卷积核是5*5*3的,一共32个卷积核,对图像处理后,可以得到32个特征向量,因为我们没有指定步长和padding,所以步长默认是1,padding是SAME,这样的话,输出的特征矩阵就是28 28 1。

# 第一个卷积层,从图像中提取32的特征
with tf.name_scope('conv1'):
    W_conv1 = weight_variable([5, 5, 3, 32])  # y =wX+b
    b_conv1 = bias_variable([32])
    h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

做完了卷积后,进行了一个relu处理

ReLU 是一个元素级别的操作(应用到各个像素),并将特征图中的所有小于 0 的像素值设置为零。ReLU 的目的是在 ConvNet 中引入非线性,因为在大部分的我们希望 ConvNet 学习的实际数据是非线性的(卷积是一个线性操作——元素级别的矩阵相乘和相加,所以我们需要通过使用非线性函数 ReLU 来引入非线性。

引入非线性可以让神经网络更好的工作,这个更好的工作指的是在做反向传播的时候避免出现梯度消失的问题,原因涉及到比较深的理论,这篇文章就不多说了。

这样第一个卷积操作就结束了。

池化

卷积操作之后是一个池化层。

# Pooling layer - downsamples by 2X.
  with tf.name_scope('pool1'):
    h_pool1 = max_pool_2x2(h_conv1)

池化的作用类似于压缩,这种压缩是在缩小输入值的纬度的同时还要保持输入值的特征。比如在2*2的4个像素点中取最大值,最小值或者平均值。不过经过研究,最大池化能够比较好的保持原来的特征值。

这里写图片描述

# 2*2的最大化池化层
    with tf.name_scope('pool1'):
        h_pool1 = max_pool_2x2(h_conv1)
def max_pool_2x2(x):
  """max_pool_2x2 downsamples a feature map by 2X."""
  return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                        strides=[1, 2, 2, 1], padding='SAME')

池化操作也是调用的Tensorflow的函数,参数strides和padding跟前面提到的conv2d函数的参数一致。ksize是定义的在每个维度上池化的大小,上一步卷积之后,输出的特征向量是1*28*28*1,所以在中间两个纬度进行处理。

# Second convolutional layer -- maps 32 feature maps to 64.
  with tf.name_scope('conv2'):
    W_conv2 = weight_variable([5, 5, 32, 64])
    b_conv2 = bias_variable([64])
    h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)

  # Second pooling layer.
  with tf.name_scope('pool2'):
    h_pool2 = max_pool_2x2(h_conv2)

后面又做了一个卷积操作和一个池化操作,这个跟前面的操作是一样的。卷积操作的输出不影响输入值的纬度,但是影响输入值的深度。池化操作不影响输入值的深度但是影响输入值的纬度,经过两层的卷积和2*2的池化后,输入值的纬度变成了原来的1/4。深度变成64。也就是7*7*64。

上面的几层又叫隐藏层,表示使用者看不到的处理层。

全连接

接下来是输出层,输出层是两个全连接层。

  # Fully connected layer 1 -- after 2 round of downsampling, our 28x28 image
  # is down to 7x7x64 feature maps -- maps this to 1024 features.
  with tf.name_scope('fc1'):
    W_fc1 = weight_variable([7 * 7 * 64, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

  # Map the 1024 features to 10 classes, one for each digit
  with tf.name_scope('fc2'):
    W_fc2 = weight_variable([1024, 10])
    b_fc2 = bias_variable([10])

    y_conv = tf.add(tf.matmul(h_fc1, W_fc2), b_fc2, name="output")

全连接层,顾名思义,指的是这一层的每个节点都跟上一层的全部节点有连接。

全连接节点

比如图中全连接层的节点a1与上一层的所有节点x1,x2,x3有联系,a2也与上一层的所有节点有联系,就这样,少一个也不行。因此解释全连接层的时候,图就是这样一个网状结构。

上文中提到了联系,这里的“联系”具体指的是什么呢。如图所示,假设x1,x2,x3是全连接层的输入值,那么在全连接层的a1可以表示为以下的形式。

从这个公式可以看出,a1与x1,x2,x3都有联系,只是输入节点的权重值不同。同理,a2和a3也可以表示为以下的形式。

由此就可以从数学层面去理解什么叫全连接层,但是这个全连接层在实际应用中表示得意义是什么呢,简单来说,它可以作为一个分类网络,还是上面那个图,输入层是3个值,全连接层是3个节点,就代表这个全连接层可以把上一层的特征值分类为三种特征。当然,输入层和全连接层的节点数并不一定相同,比如下面这个结构。

最后的全连接层是10个节点,全连接层的上一层是15个特征值,这样就把15个特征值归类为10种特征。举例来说,比如输出的15个特征标记位t1-15,而t1,t3,t5三种特征可以认为都属于某一种输出o1。而t2,t6两种特征可以认为属于输出o2,以此类推,就可以把15个特征分类为10个输出。

前面提到的MNIST问题中,全连接层有两层,第一层是1024个节点,第二层是10个节点。一般情况下,最靠近用户的输出层就是用户所期待的结果类别数,MNIST问题中,用户期待的输出是0-9一共10个数字也就是10种类别,所以第二层全连接层是10个节点。再往前看,卷积层在每一个像素点上提取64个特征值,所以整个图片可以有高*宽*64个特征值,也就是7*7*64个特征,第一个全连接层是1024个节点,表示希望这个网络将这7*7*64个特征归类为1024个分类。至于为什么第一个连接层是1024个节点,是一个经验值的问题,这个节点的个数是可以调整的,后面会讲到全连接层对模型体积的影响,也会再说到这个经验值的问题。那么全连接层是如何分类的。一起来看一下。

回顾一下全连接层的表示公式。

这里的输入值x1,x2,x3...,输出值a1和权重W,偏移量b到底指的是什么呢。

在MNIST的基础上,可以考虑这样一种情况。看下面这个图,对于0这个数字来说,我们经过训练之后,认为如果一张图片在中间红色部分出现了像素值,那这张图有一定概率不是0,并且出现在红色部分的像素值越多,不是0的概率越大。如果在周围一圈的蓝色部分出现了像素值,那么这张图有一定概率是0,并且出现在蓝色部分的像素值越多,是0的概率越大。

这个过程用数学公式怎么表示呢,蓝色部分拥有正值的权重,红色部分拥有负值的权重,将输入图片的每个像素点与权重值进行相乘后求和,这样如果红色部分出现的像素值越多,则最后的和越小,如果蓝色部分出现的像素值越多,则最后的和越大。最后得出的结果我们称为是输入图片x是这种分类(比如分类0)的证据evidence。这样对于一张输入的图片,最后落在每个节点上的evidence就可以用如下的公式表示。

看这个公式,是不是就是全连接层的公式。所以全连接层这个过程比较绕,但是是深度学习网络的基本原理,可以仔细理解一下。

反过来看代码。

  # Fully connected layer 1 -- after 2 round of downsampling, our 28x28 image
  # is down to 7x7x64 feature maps -- maps this to 1024 features.
  with tf.name_scope('fc1'):
    W_fc1 = weight_variable([7 * 7 * 64, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

首先生成全连接层的权重W_fc1和偏量b_fc1,这里复用了前面卷积操作生成卷积核和偏量的两个方法,虽然概念不同,但计算是相通的,所以可以复用。tf.reshape(h_pool2, [-1, 7 7 64])将之前层的四维[1,7,7,64]的输出变成一个一维的向量,因为全连接层只能处理一维的问题。后面用tf.matmul向量乘法实现了全连接层的操作。tf.nn.relu和前面一样,是个激活函数。

droupout

在第一层全连接层之后,加了一个dropout的操作

  # Dropout - controls the complexity of the model, prevents co-adaptation of
  # features.
  with tf.name_scope('dropout'):
    keep_prob = tf.placeholder(tf.float32)
    h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

droupout的操作如下图所示:

在计算的过程中,随机的“丢弃”一些节点,简单来说,h_fc1有1024个节点,在droupout之后,如果keep_prob是50%,那么经过droupout之后,可以认为参与计算的是512个节点。droupout有两个优势。

  • 解决过拟合的问题
  • 在训练中加入概率性

droupout操作之后又是一层全连接。

  # Map the 1024 features to 10 classes, one for each digit
  with tf.name_scope('fc2'):
    W_fc2 = weight_variable([1024, 10])
    b_fc2 = bias_variable([10])

    y_conv = tf.add(tf.matmul(h_fc1, W_fc2), b_fc2, name="output")

第二层全连接将上一层产生的1024个节点归类到10个节点上,,得到最后的输出。即使经过droupout之后,实体依然是1024个节点,只是其中一部分不再参与计算。这个网络结构最后的输出是10个节点的evidence的值。

3.2.4 Softmax回归处理

至此,整个计算图就定义完了,接下来定义一些训练中的必要单元来告知框架如何训练。

  with tf.name_scope('loss'):
    cross_entropy = tf.losses.sparse_softmax_cross_entropy(
        labels=y_, logits=y_conv)
  cross_entropy = tf.reduce_mean(cross_entropy)

定义损失函数使用softmax交叉熵的,关于softmax和交叉熵,这里引用传送门一段描述。

神经网络的原始输出不是一个概率值,实质上只是输入的数值做了复杂的加权和与非线性处理之后的一个值而已,那么如何将这个输出变为概率分布?

这就是Softmax层的作用,假设神经网络的原始输出为y1,y2,….,yn,那么经过Softmax回归处理之后的输出为:

经过softmax的公式后,所有节点的和变成了1,之前神经网络输出的每个节点的权重值变成了每个节点的概率值。

单个节点的输出变成的一个概率值,经过Softmax处理后结果作为神经网络最后的输出。

3.2.5 Softmax回归处理

交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉熵,则:

这个公式如何表征距离呢,举个例子:
假设N=3,期望输出为p=(1,0,0),实际输出q1=(0.5,0.2,0.3),q2=(0.8,0.1,0.1),那么:

很显然,q2与p更为接近,它的交叉熵也更小。
除此之外,交叉熵还有另一种表达形式,还是使用上面的假设条件:

其结果为:

以上的所有说明针对的都是单个样例的情况,而在实际的使用训练过程中,数据往往是组合成为一个batch来使用,所以对用的神经网络的输出应该是一个m*n的二维矩阵,其中m为batch的个数,n为分类数目,而对应的Label也是一个二维矩阵,还是拿上面的数据,组合成一个batch=2的矩阵:

所以交叉熵的结果应该是一个列向量(根据第一种方法):

而对于一个batch,最后取平均为0.2。

tf.losses.sparse_softmax_cross_entropy是Tensorflow将以上两个过程封装后的产物,最后的结果是一个batch的概率值,reduce_mean用来取得概率的平均值。综上作为整个网络的损失函数。

3.2.6 训练方法-梯度下降

然后定义梯度下降的方法

  with tf.name_scope('adam_optimizer'):
    train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

以下降步速,即学习率为1e-4的速度最小化损失函数cross_entropy。这样就能定义训练的目的是为了让损失函数越来越来,每次参数的变化值为1e-4。

3.2.7 准确度

定义准确度的计算方法

  with tf.name_scope('accuracy'):
    correct_prediction = tf.equal(tf.argmax(y_conv, 1), y_)
    correct_prediction = tf.cast(correct_prediction, tf.float32)
  accuracy = tf.reduce_mean(correct_prediction)

y_conv是网络输出的原始结果,也就是图片在最后10个节点上的权重值,比如[314, -423, 342...],最后权重值最大的节点是我们的期望节点,比如这里第三个节点的权重值最大,那这幅图片可能就是数字2,tf.argmax是取出权重值最大的下标。y_是我们给的label值,把这两个值相比较得出准确度。最后依然用tf.reduce_mean算出batch的平均准确度。

3.2.8 计算图可视化

  graph_location = tempfile.mkdtemp()
  print('Saving graph to: %s' % graph_location)
  train_writer = tf.summary.FileWriter(graph_location)
  train_writer.add_graph(tf.get_default_graph())

这是Tensorflow提供的计算图可视化的方法,这里暂时没起到作用。

3.2.9 启动计算图

  with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for i in range(20000):
      batch = mnist.train.next_batch(50)
      if i % 100 == 0:
        train_accuracy = accuracy.eval(feed_dict={
            x: batch[0], y_: batch[1], keep_prob: 1.0})
        print('step %d, training accuracy %g' % (i, train_accuracy))
      train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})

    print('test accuracy %g' % accuracy.eval(feed_dict={
        x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))

这里就是前面提到的将计算图和计算数据给CPU计算,Tensorflow将和CPU的一个交互过程定义为session,启动session后,开始运行。

sess.run(tf.global_variables_initializer())

首先将前面定义的所有变量初始化,注意前面在定义图的时候只是定义了变量初始化的方法,而没有真正去做初始化,真正运行是在这个地方。

然后循环20000次,每次从训练集中取出50个图片数据作为一个batch。

train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})

开始训练,train_step是前面定义的梯度下降的方法,以这种方法开始训练。参数是图片数据,正确的labels,和droupout的参数。

if i % 100 == 0:
        train_accuracy = accuracy.eval(feed_dict={
            x: batch[0], y_: batch[1], keep_prob: 1.0})
        print('step %d, training accuracy %g' % (i, train_accuracy))

每训练100次,输出一下当前的准确率,是为了开发者感知的。测试准确率的时候,是不需要droupout操作的,所以keep_prob是1。

print('test accuracy %g' % accuracy.eval(feed_dict={
        x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))

20000次训练之后,输出最终的准确率。

输出结果类似这样的

step 0, training accuracy 0.16
step 100, training accuracy 0.9
step 200, training accuracy 0.94
step 300, training accuracy 0.9
step 400, training accuracy 0.96
...
test accuracy 0.9446

总结

至此,整个模型的训练过程就完全结束了。通过这个例子,我们知道了一个CNN网络是怎么工作的,并且如何用Tensorflow来实现一个CNN网络。下一篇文章,我将写一下如果改造这个例子,来解决我的一个实际问题。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
11天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
142 55
|
20天前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
110 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
2天前
|
JSON Dart 前端开发
鸿蒙应用开发从入门到入行 - 篇7:http网络请求
在本篇文章里,您将掌握鸿蒙开发工具DevEco的基本使用、ArkUI里的基础组件,并通过制作一个简单界面掌握使用
28 8
|
24天前
|
机器学习/深度学习 资源调度 算法
图卷积网络入门:数学基础与架构设计
本文系统地阐述了图卷积网络的架构原理。通过简化数学表述并聚焦于矩阵运算的核心概念,详细解析了GCN的工作机制。
65 3
图卷积网络入门:数学基础与架构设计
|
14天前
|
Web App开发 网络协议 安全
网络编程懒人入门(十六):手把手教你使用网络编程抓包神器Wireshark
Wireshark是一款开源和跨平台的抓包工具。它通过调用操作系统底层的API,直接捕获网卡上的数据包,因此捕获的数据包详细、功能强大。但Wireshark本身稍显复杂,本文将以用抓包实例,手把手带你一步步用好Wireshark,并真正理解抓到的数据包的各项含义。
64 2
|
20天前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)##
在当今的人工智能领域,深度学习已成为推动技术革新的核心力量之一。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,因其在图像和视频处理方面的卓越性能而备受关注。本文旨在深入探讨CNN的基本原理、结构及其在实际应用中的表现,为读者提供一个全面了解CNN的窗口。 ##
|
21天前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
52 3
|
23天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-GRU网络的数据分类识别算法matlab仿真
本项目展示了使用MATLAB2022a实现的贝叶斯优化、CNN和GRU算法优化效果。优化前后对比显著,完整代码附带中文注释及操作视频。贝叶斯优化适用于黑盒函数,CNN用于时间序列特征提取,GRU改进了RNN的长序列处理能力。
|
28天前
|
数据采集 XML 存储
构建高效的Python网络爬虫:从入门到实践
本文旨在通过深入浅出的方式,引导读者从零开始构建一个高效的Python网络爬虫。我们将探索爬虫的基本原理、核心组件以及如何利用Python的强大库进行数据抓取和处理。文章不仅提供理论指导,还结合实战案例,让读者能够快速掌握爬虫技术,并应用于实际项目中。无论你是编程新手还是有一定基础的开发者,都能在这篇文章中找到有价值的内容。
|
27天前
|
机器学习/深度学习 自然语言处理 算法
深入理解深度学习中的卷积神经网络(CNN)
深入理解深度学习中的卷积神经网络(CNN)
36 1