系列文章
- 计算巢实现大模型微调——如何发布一个微调服务
- 计算巢实现大模型微调——如何使用微调服务零代码微调
前言
各位看官,最近是否被大模型相关信息刷屏了呢,铺天盖地的大模型预训练、微调等各种关键词是否让你眼花缭乱呢?在如此热度之下,你有没有想过自己亲自动手部署一个大模型执行训练或者微调呢,或许你曾经尝试过却被某个繁琐的步骤劝退了呢?又或者你是模型的研究人员或开发人员,想要让你的模型服务更多用户、有更大的影响力?如果你有自己的基础大模型供给其他人精调,却苦于难以部署、难以让用户上手使用等各种问题,来试试计算巢吧,你的这些问题都将迎刃而解!
按照传统方式,想要对一个大模型进行微调一共需要以下这些步骤:
首先需要创建云资源或者使用线下资源,然后安装各种GPU驱动和各种依赖环境。接着需要自己编写微调脚本或者找一些开源的微调方法,然后就是一系列的pip install或者conda install。运气好的话,你的微调能够顺利run起来,可是稍有差池,也许就会抛出各类错误让你崩溃。讲到这里有没有勾起你痛苦的回忆?没关系,计算巢将为你彻底解决这些烦恼!!!
在前文《计算巢实现大模型微调——如何发布一个微调服务》中我们已经实现了微调服务的发布,接下来将带领大家通过计算巢发布的微调服务实现真正的零代码微调。
创建微调服务实例
服务实例的创建只需要简单几步,下面将逐步展示整个创建流程!
点击创建实例
登陆阿里云计算巢控制台,选择发布的大模型微调服务并点击正式创建进入服务创建页面。
选择资源创建地域和规格
GPU规格大家根据实际需求和库存情况选择。优先推荐使用A10训练速度更快(也可以选择算力更强的规格)。
其他选项
这里根据自己的情况选择可用区和VPC等信息,输入实例密码。值得注意的是系统盘尽量大于100G防止加载模型或数据集时存储空间不够。
确认订单
勾选“我已阅读并同意《计算巢服务协议》”后,点击立即创建即可成功创建属于你的大模型微调服务实例。
等待服务部署完成后点击“详情”按钮即可访问服务页面。
执行微调
在服务详情页面提供了NoteBook登陆地址,可以方便地进行代码的调试等各类操作。
而我们的重点——微调指令,放在了“运维管理”中。
点击运维管理后会看到服务商运维选项,选择“执行微调”并调整参数即可下发微调指令。
接下来点击“下一步”后再点击“创建”即可成功创建一个微调任务并将指令下发到我们的GPU实例上。
稍等片刻后等任务状态变为“成功”时,任务就已经成功在实例后台运行了。
您也可以点击服务商运维“查看训练日志”按钮,通过执行输出查看训练日志情况,操作步骤和执行微调是完全一致的,就不再赘述。
到这里,经过简单的几个步骤ChatGLM的微调任务就已经成功执行了,我们只需要耐心等待微调结束就可以获得属于自己的微调大模型啦!
总结
通过计算巢的大模型微调服务,我们仅需要鼠标十余次的点击即可完成大模型的微调操作,这让大模型微调的技术门槛不再存在,人人都可以拥有自己的微调大模型。还等什么,快来计算巢试用体验吧!