开发者社区 > ModelScope模型即服务 > 正文

ModelScope关于qwen1.5的微调有最佳实践的手册吗?

ModelScope关于qwen1.5的微调有最佳实践的手册吗?

展开
收起
Lucidly 2024-05-01 08:56:41 41 0
1 条回答
写回答
取消 提交回答
  • 某政企事业单位运维工程师,主要从事系统运维工作,同时兼顾教育行业、企业等src安全漏洞挖掘,曾获全国行业网络安全大赛二等奖。

    ModelScope提供了关于Qwen1.5系列模型微调的详细手册和最佳实践。关键步骤包括:

    模型部署:

    登录PAI控制台,选择工作空间。
    在快速开始页面,选择qwen1.5-7b-chat模型,点击部署,配置推理服务资源。

    微调训练:

    在模型详情页,点击右上角的“微调训练”。
    准备数据集,可上传至OSS或使用NAS/CPFS/NFS存储。
    配置计算资源,需V100/P00/T4 GPU。
    调整超参数,如学习率(默认5e-5)、训练轮数(默认1)、批次大小(默认1)等。
    支持JSON格式数据,包含"instruction"(问题)和"output"(答案)字段。

    技术细节:

    可选LoRA/QLoRA轻量化训练,配置LoRA相关参数如lora_dim、load_in_4bit或load_in_8bit。
    使用梯度累积优化训练过程,配置gradient_accumulation_steps。

    模型调用与服务:

    训练完成后,可在同一页面选择资源组部署为在线服务。
    通过PAI Python SDK也可进行模型部署和调用。
    确保遵循官方指南操作,以实现模型的有效微调与部署。

    部署及微调Qwen1.5系列模型通义千问1.5模型部署与微调_人工智能平台 PAI(PAI) 通过PAI控制台

    通义千问Qwen全托管灵骏最佳实践 步骤一:准备通义千问模型

    2024-05-01 20:37:49
    赞同 1 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载