创建一个训练函数
def train_tf(train_data):
# 1.获取数据
trainx = [train_d[0] for train_d in train_data] # list
trainy = [train_d[1] for train_d in train_data]
# 2.构造预测的线性回归函数:y= W * x + b
W = tf.Variable(tf.random_uniform([1])) # 从均匀分布中返回随机值,即[0,1)
b = tf.Variable(tf.zeros([1])) # 在一维数组里放一个值
y = W * trainx + b
# 3.判断假设的函数的好坏
cost = tf.reduce_mean(tf.square(y - trainy))
# 4.优化函数
optimizer = tf.train.AdamOptimizer(0.05)
train = optimizer.minimize(cost)
# 5.开始训练
with tf.Session() as sess:
# 初始化所有变量值
sess.run(tf.global_variables_initializer())
# 将画图模式改为交互模式
plt.ion()
for k in range(1000):
sess.run(train)
# 构造图形结构
# 实时地输出训练好的W和b
if k % 50 == 0:
print("第", k ,"步:","cost=", sess.run(cost), "W=",
sess.run(W), "b=", sess.run(b))
plt.cla() # 清除原有图像
plt.plot(trainx, trainy, 'co', label='train data') # 显示数据
plt.plot(trainx, sess.run(y), 'y', label='train result') # 显示拟合
plt.pause(0.01)
plt.ioff() # 关闭交互模式
plt.close() # 关闭当前窗口
print("训练完成!")
# 输出训练好的W和b
print("finally_cost=", sess.run(cost), "finally_W=", sess.run(W),
"finally_b=", sess.run(b))
return sess.run(W)[0], sess.run(b)[0]
tf.reduce_mean()函数用于计算张量Tensor沿着指定数轴(Tensor的某一维度)的平均值,主要用于降维或计算结果的平均值。第4步中,用梯度下降算法找最优解,通过梯度下降法为最小化损失函数增加了相关的优化操作。在训练过程中,先实例化一个优化函数,并基于一定的学习率进行梯度优化训练,如tf.train.AdamOptimizer(),该优化函数是一个寻找全局最优点的优化算法,引入了二次方梯度校正;使用minimize()操作,不仅可以优化及更新训练的模型参数,也可以为全局步骤(Global Step)计数,函数的参数传入损失值节点cost,再启动一个外层的循环,优化器就会按照循环的次数沿着cost最小值的方向优化参数。第5步开始训练,先初始化所有变量值和操作,打开plt的交互模式,开始训练并实时显示拟合的效果。