在部署开始之前,我们打开部署操作连接:https://developer.aliyun.com/adc/scenario/96067309564244e8a373a69401281f2d? 然后进行后面的正式部署操作
部署操作
进入部署操作页面,点击【再次实验】,初次进入会显示【开始实验】
选择【个人账号资源】,然后点击【确认开启实验】
进入人工智能平台PAI控制台,如果没有创建工作空间,那么需要先创建工作空间,这里我已经创建过工作空间了,因此直接就进入到已经创建好的工作空间中
在工作空间页面的左侧导航栏,选择模型部署>模型在线服务(EAS),进入PAI EAS模型在线服务页面
点击【部署服务】,选择【自定义部署】
在部署页面输入服务名称、部署方式、镜像选择
运行命令默认即可,资源组种类选择公共资源组,资源配置选择GPU 实例规格 ecs.gn7i-c8g1.2xlarge
完成之后点击【部署】等待部署成功
当服务状态为运行中时,表明服务部署成功。
点击【查看Web应用】跳转到ChatGLM模型对话页面,在WebUI页面,进行模型推理验证
到这里,基于PAI-EAS一键部署ChatGLM的基本操作就完成了,整个部署过程按照文档指引操作,还是比较容易上手的。
使用体验
本次部署的操作很轻松,整个部署过程也没什么卡顿,也就是说个人或者企业都可以轻松的部署自己的语言大模型服务,且部署时间成本忽略。唯一的一点就是涉及到训练模型或者使用模型的服务器实例规格计费往往都比较贵,这点希望 可以提供一些资源包或者优惠来供新手体验使用,降低学习成本。