虽然已经 9102 年了MNIST手写数据集也早已经被各路神仙玩出了各种花样,比如其中比较秀的有用MINST训练手写日语字体的。但是目前还是很少有整体的将训练完之后的结果部署为一个可使用的服务的。大多数还是停留在最终Print出一个Accuracy。
这一次我们就借助阿里云的PAI平台来快速构建训练一个手写模型并且部署出一个生产可用级别的服务的教程让大家可以在其他的产品中调用这个服务作出更加有意思的项目。
整个部分会分为3篇文章分别对应机器学习中: 构建训练以及导出模型 模型的部署以及模型的调用。这篇文章里我们先讲讲如何构建训练并导出这个手写字体识别的模型。整个教程的代码基于Snapchat的ML大佬 Aymeric Damien 的Tensorflow 入门教程系列
Step 1: 下载代码
首先我们可以把代码Clone到本地或者直接Clone到DSW的实例。如何Clone到DSW实例的方法可以参考我的这篇文章。Clone完代码之后我们还需要准备训练所需要的数据集这边可以直接从Yann Lecun的网站下载。我这边然后我们可先运行一遍看一下效果。
我们可以看到代码Clone下来之后直接运行就已经帮我们训练出了model并且给出了现在这个Model的精度。在500个batch之后准确率达到了95%以上而且基于GPU的DSW实例训练这500个Batch只需要十几秒的时间。
Step 2: 修改部分代码使得可以自动导出SavedModel
这一步就是比较重要的地方了我们第一个需要关注的就是当前的这个Model里面的Input和Output.
Input还比较清楚我们直接找所有placeholder就可以了
Output这一块就比较复杂了,在当前的model里我们可以看到output并不是直接定义的Y而是softmax之后的prediction
找到了这些之后就比较简单了。首先我们创建一个 Saver , 它可以帮助我们保存所有的tf变量以便之后导出模型使用
# 'Saver' op to save and restore all the variables
saver = tf.train.Saver()
然后我们在模型训练的session结束的时候导出模型就好了。我们可以通过以下这段代码来导出我们训练好的模型
import datetime
# 声明导出模型路径这边加入了时间作为路径名 这样每次训练的时候就可以保存多个版本的模型了
export_path = "./model-" + datetime.datetime.now().strftime('%Y-%m-%d_%H:%M:%S')
# 保存训练的日志文件方便如果出问题了我们可以用 tensorboard 来可视化神经网络排查问题
tf.summary.FileWriter('./graph-' + datetime.datetime.now().strftime('%Y-%m-%d_%H:%M:%S') , sess.graph)
# 构建我们的Builder
builder = tf.saved_model.builder.SavedModelBuilder(export_path)
# 声明各种输入这里有一个X和一个keep_prob作为输入然后
tensor_info_x = tf.saved_model.utils.build_tensor_info(X)
tensor_info_keep_prob = tf.saved_model.utils.build_tensor_info(keep_prob)
tensor_info_y = tf.saved_model.utils.build_tensor_info(prediction)
prediction_signature = (
tf.saved_model.signature_def_utils.build_signature_def(
# 声明输入
inputs={
'images': tensor_info_x,
'keep_prob' : tensor_info_keep_prob
},
# 声明输出
outputs={
'scores': tensor_info_y
},
method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME
)
)
legacy_init_op = tf.group(tf.tables_initializer(), name='legacy_init_op')
builder.add_meta_graph_and_variables(
sess, [tf.saved_model.tag_constants.SERVING],
signature_def_map={
'predict_images':
prediction_signature,
},
legacy_init_op=legacy_init_op)
# 保存模型
builder.save()
我们可以吧这段代码插在这里这样训练完成的时候就会自动导出了
导出之后应该会有如下的文件结构我们也可以在左边的文件管理器中查看
./model-2019-05-20_13:50:26
├── saved_model.pb
└── variables
├── variables.data-00000-of-00001
└── variables.index
1 directory, 3 files
Step 3: 部署我们的模型
终于到了可以部署的阶段了。但是在部署之前先别那么着急建议用 tensorboard 把训练日志下载到本地之后看一下。
这一步除了可以可视化的解释我们的模型之外还可以帮助我们理清我们的模型的输入和输出分别是什么。
这边我先在有日志文件的路径打开一个tensorboard 通过这个命令
tensorboard --logdir ./
然后我们在游览器里输入默认地址 localhost:6006 就可以看到了
从这个图里也可以看到我们的这个Model里有2个输入源分别叫做images和keep_prob。并且点击它们之后我们
还能看到对应的数据格式应该是什么样的。不过没有办法使用 Tensorboard 的同学也不用担心因为EAS
这个产品也为我们提供了构造请求的方式。这一次部署我们先使用WEB界面来部署我们的服务这一步也可以通过EASCMD来实现之后我会再写一篇如何用好EASCMD的文章。
我们可以吧模型文件下载完之后用zip打包然后到PAI产品的控制台点击EAS-模型在线服务.
ZIP打包可以用这个命令如果你是Unix的用户的话
zip -r model.zip path/to/model_files
进入EAS之后我们点击模型部署上传
然后继续配置我们的processor这一次因为我们是用tensorflow训练的所以选择Tensorflow
然后资源选择CPU有需要的同学可以考虑GPU然后上传我们的模型文件.
点击下一步我们选新建服务然后给我们的服务起个名字,并且配置资源数量。
然后最后确认一下就可以点击部署了
Step 4: 调试我们的模型
回到EAS的控制台我们可以看到我们的服务正在被构建中。等到状态显示Running的时候我们就可以开始调试了。
我们可以先点击在线调试
会让我们跳转到一个Debug 接口的页面。什么都不需要填直接点击提交我们就可以看到服务的数据格式了
然后我们用一段python2的代码来调试这个刚刚部署完的服务。python3的SDK暂时还在研发中。注意要把下面的
app_key, app_secret, url 换成我们刚刚部署好的内容。点击模型名字就可以看见了。
其中测试图片的数据大家可以在这下载到
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import json
from urlparse import urlparse
from com.aliyun.api.gateway.sdk import client
from com.aliyun.api.gateway.sdk.http import request
from com.aliyun.api.gateway.sdk.common import constant
from pai_tf_predict_proto import tf_predict_pb2
import cv2
import numpy as np
with open('9.jpg', 'rb') as infile:
buf = infile.read()
# 使用numpy将字节流转换成array
x = np.fromstring(buf, dtype='uint8')
# 将读取到的array进行图片解码获得28 × 28的矩阵
img = cv2.imdecode(x, cv2.IMREAD_UNCHANGED)
# 由于预测服务API需要长度为784的一维向量将矩阵reshape成784
img = np.reshape(img, 784)
def predict(url, app_key, app_secret, request_data):
cli = client.DefaultClient(app_key=app_key, app_secret=app_secret)
body = request_data
url_ele = urlparse(url)
host = 'http://' + url_ele.hostname
path = url_ele.path
req_post = request.Request(host=host, protocol=constant.HTTP, url=path, method="POST", time_out=6000)
req_post.set_body(body)
req_post.set_content_type(constant.CONTENT_TYPE_STREAM)
stat,header, content = cli.execute(req_post)
return stat, dict(header) if header is not None else {}, content
def demo():
# 输入模型信息,点击模型名字就可以获取到了
app_key = 'YOUR_APP_KEY'
app_secret = 'YOUR_APP_SECRET'
url = 'YOUR_APP_URL'
# 构造服务
request = tf_predict_pb2.PredictRequest()
request.signature_name = 'predict_images'
request.inputs['images'].dtype = tf_predict_pb2.DT_FLOAT # images 参数类型
request.inputs['images'].array_shape.dim.extend([1, 784]) # images参数的形状
request.inputs['images'].float_val.extend(img) # 数据
request.inputs['keep_prob'].dtype = tf_predict_pb2.DT_FLOAT # keep_prob 参数的类型
request.inputs['keep_prob'].float_val.extend([0.75]) # 默认填写一个
# å°†pbåºåˆ—化æˆstringè¿›è¡Œä¼ è¾“
request_data = request.SerializeToString()
stat, header, content = predict(url, app_key, app_secret, request_data)
if stat != 200:
print 'Http status code: ', stat
print 'Error msg in header: ', header['x-ca-error-message'] if 'x-ca-error-message' in header else ''
print 'Error msg in body: ', content
else:
response = tf_predict_pb2.PredictResponse()
response.ParseFromString(content)
print(response)
if __name__ == '__main__':
demo()
运行这个python代码然后我们会得到
outputs {
key: "scores"
value {
dtype: DT_FLOAT
array_shape {
dim: 1
dim: 10
}
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 0.0
float_val: 1.0
}
}
我们可以看到从0开始数的最后一个也就是第9个的结果是1 其他都是0 说明我们的结果是9和我们输入的一样。这样我们就简单轻松的构建了一个在线服务能够将用户的图片中手写数字识别出来。配合其他Web框架或者更多的东西我们就可以作出更好玩的玩具啦