开发者学堂课程【PAL 平台学习路线:机器学习入门到应用:如何部署 PS-LR 模型】学习笔记,与课程紧密联系,让用户快速学习知识。
课程地址:https://developer.aliyun.com/learning/course/855/detail/14243
如何部署 PS-LR 模型
内容介绍:
一、前提条件及背景信息
二、部署 PS-LR 模型的步骤
一、前提条件及背景信息
PS-LR 是基于参数服务器的逻辑回归算法,适用于超大规模特征和样本的推荐系统和广告引擎,主要介绍如何使用PAI-EAS部署PS-LR模型,并进行在线调试。
1.前提条件:
需要购买 PAI-EAS 专属资源组,需要选择预付费/后付费模式
完成 PS-LR 模型训练从而获得公开访问的模型存储地址或者本地模型
2.背景信息:
PS-LR 模型需要使用自定义 Processor ,因此只能将其部署至专属资源组
二、部署 PS-LR 模型的步骤
PAI Studio 中进行 PS-LR 模型训练:
PS-LR模型主要适用于大规模的数据量的模型训练,选择实验模板中的雾霾天气预测进行演示
注意:在模型训练节点,改用 PS-SMART 二分类训练
导出模型的节点选择通用模型导出
在通用模型导出节点的 oss 目标路径中选择 oss仓 库的某个文件夹,同时需要对模型导出的模型重命名passmart。
模型导出完成之后,可在 oss 下的 Bucket 列表->文件管理
查看到导出的两个文件,目前只支持先下载文件打包文件之后再上传的模式,需要将模型下载到本地,之后采 tar 命令将模型打包并上传至模型部署。
注意:windows 系统的用户用 tar 命令进行文件打包时,需要确认这两个文件是否在三级目录下,如果在三级目录下则上传时会产生无效的提示,因此需要进行修改。
在打包完成之后,进入到模型部署->模型在线服务(EAS)
进行模型上传,定义模型名称passmart_demo_01
资源组为公共资源组
资源资源种类为 CPU
Processor 种类为选择 ps 算法
模型文件进行导出
实例和 Quata 配置分别选择2
进行部署,等待一段时间后模型状态显示为运行中时,模型上传成功。
对于测试接口,选择在线服务页面下的在线调试功能,在调试页面可以核对模型的接口地址和 Token。通常系统会自动配置已经部署的模型的接口地址和 Token,因此无需进行手动修改,
在调试页面的 Request 包里区域输入测试数据单击发送请求。当显示200的时候,说明测试已经成功。