TensorFlow——训练神经网络模型

简介: TensorFlow训练神经网络模型的步骤:(1)定义神经网络的结构和向前传播的输出结果(2)定义损失函数以及选择反向传播优化的算法(3)生成会话(tf.
TensorFlow训练神经网络模型的步骤:
(1)定义神经网络的结构和向前传播的输出结果
(2)定义损失函数以及选择反向传播优化的算法
(3)生成会话(tf.Session),并且在训练数据上反复运行反向传播优化算法

例:下面是一个完整的程序来训练神经网络解决二分类问题
import tensorflow as tf
import numpy as np    #通过NumPy工具包生成模拟数据

batch_size=8     #定义训练数据batch的大小
#定义神经网络的参数
w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))
w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))

#定义placeholder存放输入数据
#在shape的一个维度上使用None可以方便使用不大的batch大小
x_data=tf.placeholder(tf.float32,shape=(None,2),name='x-input')
y_data=tf.placeholder(tf.float32,shape=(None,1),name='y-input')

#定义神经网络向前传播过程
a=tf.matmul(x_data,w1)
y=tf.matmul(a,w2)

#定义损失函数和反向传播算法
cross_entropy=-tf.reduce_mean(y_data*tf.log(tf.clip_by_value(y,1e-10,1.0)))
train_step=tf.train.AdadeltaOptimizer(0.001).minimize(cross_entropy)

#通过随机数生成一个模拟数据集
rdm=np.random.RandomState(1)
dataset_size=128
X=rdm.rand(dataset_size,2)
#定义规则来给出样本的标签。
Y=[[int(x1+x2<1)] for (x1,x2) in X]
#创建一个会话来运行TensorFlow程序
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer()) #初始化变量
    print("训练之前的神经网络参数值:")
    print(sess.run(w1))  #输出训练之前神经网络参数的值
    print(sess.run(w2))

    #设置训练5000次
    for i in range(5000):
        start=(i*batch_size)%dataset_size #每次选取batch_size个样本进行训练
        end=min(start+batch_size,dataset_size)
        #通过选取的样本训练神经网络并更新参数
        sess.run(train_step,feed_dict={x_data:X[start:end],y_data:Y[start:end]})
        #每隔一段时间计算在所有数据上的交叉熵并输出
        if i%1000==0:
            total_cross_entropy=sess.run(cross_entropy,feed_dict={x_data:X,y_data:Y})
            print("After %d training steps,cross entropy on all data is %g" %(i,total_cross_entropy))

    #输出训练5000次之后的神经网络参数值
    print("训练之后的神经网络参数值:")
    print(sess.run(w1))
    print(sess.run(w2))

输出结果为:


详解交叉熵损失函数
cross_entropy=-tf. reduce_mean (y_data*tf. log (tf. clip_by_value (y, 1e-10 , 1.0 )))

(1)tf.clip_by_value()函数
#tf.clip_by_value() 函数可以将一个张量中的数值限制在一个范围之内,这样可以避免一些运算错误
v1=tf. constant ([[ 1.0 , 2.0 , 3.0 ],[ 4.0 , 5.0 , 6.0 ]])
with tf. Session () as sess:
print (sess. run (tf. clip_by_value (v1, 2.5 , 4.5 )))
# 如上,小于 2.5 的数都被换成了 2.5 ,大于 4.5 的数都被换成了 4.5
#tf.clip_by_value() 函数可以保证在进行 log 运算时不会出现 log0 这样的错误或者大于 1 的概率
#输出结果为:[[2.5 2.5 3. ]
[4. 4.5 4.5]]

(2)tf.log()函数
#tf.log() 函数完成张量中所有元素依次求对数的功能
v2=tf. constant ([ 1.0 , 2.0 , 3.0 ])
with tf. Session () as sess:
print (sess. run (tf. log (v2)))
#输出结果为:[0. 0.6931472 1.0986123]

(3)" * "操作
在实现交叉熵的代码中,直接将两个矩阵通过" * "操作相乘,这个操作不是矩阵的乘法,而是 元素之间的直接相乘 矩阵乘法 需要使用 tf.matmul()函数 来完成

(4)cross_entropy=tf.nn.softmax_cross_entropy_with_logits(y,y_data)
# 交叉熵一般会与 softmax 回归一起使用, TensorFlow 对这两个功能进行了统一封装
# 通过以下代码实现使用 softmax 回归之后的交叉熵损失函数
cross_entropy=tf.nn. softmax_cross_entropy_with_logits (y,y_data)
# 其中 y 代表了原始神经网络的输出结果, y_data 是标准答案

(5)tf.nn.sparse_softmax_cross_entropy_with_logits(y,y_data)
# 在只有一个正确答案的分类问题中, TensorFlow 提供了如下函数来进一步加速计算过程
tf.nn. sparse_softmax_cross_entropy_with_logits (y,y_data)



参考资料:《TensorFlow实战 Google深度学习框架》



相关文章
|
6天前
|
机器学习/深度学习 PyTorch TensorFlow
【机器学习】基于tensorflow实现你的第一个DNN网络
【机器学习】基于tensorflow实现你的第一个DNN网络
17 0
|
17天前
|
机器学习/深度学习 人工智能 算法
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
眼疾识别系统,使用Python作为主要编程语言进行开发,基于深度学习等技术使用TensorFlow搭建ResNet50卷积神经网络算法,通过对眼疾图片4种数据集进行训练('白内障', '糖尿病性视网膜病变', '青光眼', '正常'),最终得到一个识别精确度较高的模型。然后使用Django框架开发Web网页端可视化操作界面,实现用户上传一张眼疾图片识别其名称。
52 9
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
|
10天前
|
机器学习/深度学习
CNN网络编译和训练
【8月更文挑战第10天】CNN网络编译和训练。
44 20
|
12天前
|
机器学习/深度学习 前端开发 数据挖掘
基于Python Django的房价数据分析平台,包括大屏和后台数据管理,有线性、向量机、梯度提升树、bp神经网络等模型
本文介绍了一个基于Python Django框架开发的房价数据分析平台,该平台集成了多种机器学习模型,包括线性回归、SVM、GBDT和BP神经网络,用于房价预测和市场分析,同时提供了前端大屏展示和后台数据管理功能。
|
6天前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
20 1
|
17天前
|
机器学习/深度学习 API 算法框架/工具
【Tensorflow+keras】Keras API三种搭建神经网络的方式及以mnist举例实现
使用Keras API构建神经网络的三种方法:使用Sequential模型、使用函数式API以及通过继承Model类来自定义模型,并提供了基于MNIST数据集的示例代码。
30 12
|
17天前
|
机器学习/深度学习 API 算法框架/工具
【Tensorflow+keras】Keras API两种训练GAN网络的方式
使用Keras API以两种不同方式训练条件生成对抗网络(CGAN)的示例代码:一种是使用train_on_batch方法,另一种是使用tf.GradientTape进行自定义训练循环。
20 5
|
17天前
|
机器学习/深度学习 IDE API
【Tensorflow+keras】Keras 用Class类封装的模型如何调试call子函数的模型内部变量
该文章介绍了一种调试Keras中自定义Layer类的call方法的方法,通过直接调用call方法并传递输入参数来进行调试。
16 4
|
17天前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
17 1
|
4天前
|
机器学习/深度学习 监控 数据可视化

热门文章

最新文章