modelscope中,llamafactory怎么用呢?
在ModelScope中使用LLaMA Factory进行模型微调和训练,主要分为以下几个步骤:环境准备、安装LLaMA Factory、下载数据集、模型微调以及模型评估与对话。以下是详细的操作流程:
在开始使用LLaMA Factory之前,需要完成以下准备工作: - 创建阿里云账号并完成实名认证。 - 创建工作空间,具体操作请参考相关文档。 - 创建DSW实例,推荐配置如下: - 实例规格:建议使用24 GB显存的A10(ecs.gn7i-c8g1.2xlarge
)或更高配置。 - 镜像选择:建议使用Python 3.9及以上版本,镜像为modelscope:1.18.0-pytorch2.3.0-gpu-py310-cu121-ubuntu22.04
。
进入DSW开发环境后,按照以下步骤安装LLaMA Factory: 1. 登录PAI控制台,选择DSW实例所在地域,进入默认工作空间。 2. 在左侧导航栏,选择模型开发与训练 > 交互式建模(DSW),打开DSW实例。 3. 在Launcher页面中,单击Notebook下的Python3。 4. 在Notebook中执行以下命令拉取LLaMA Factory项目:
!git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
!pip uninstall -y vllm
!pip install llamafactory[metrics]==0.7.1
!llamafactory-cli version
如果显示版本号(如0.7.1.dev0
),则表示安装成功。
LLaMA Factory支持内置数据集和自定义数据集。以下是下载内置数据集的步骤: 1. 进入LLaMA Factory目录:
%cd LLaMA-Factory
!wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/tutorials/llama_factory/data.zip
!mv data rawdata && unzip data.zip -d data
!export USE_MODELSCOPE_HUB=1 && \
llamafactory-cli webui
http://0.0.0.0:7860
),进入Web UI界面。在Web UI中,关键参数配置如下: | 区域 | 参数 | 建议取值 | 说明 | | - | - | - | - | | ① | 语言 | zh
| 设置为中文 | | ② | 模型名称 | LLaMA3-8B-Chat
| 使用LlaMA 3 8B模型 | | ③ | 微调方法 | lora
| 使用LoRA轻量化微调方法 | | ④ | 数据集 | train
| 选择训练集 | | ⑤ | 学习率 | 1e-4
| 有利于模型拟合 | | ⑥ | 计算类型 | bf16
| 根据GPU型号选择计算类型 | | ⑦ | 梯度累计 | 2
| 提高模型拟合效果 | | ⑧ | LoRA+学习率比例 | 16
| 相比LoRA,LoRA+续写效果更好 | | ⑨ | LoRA作用模块 | all
| 将LoRA层挂载到所有线性层上 |
train_llama3
,单击“开始”按钮,启动模型微调。train_llama3
作为适配器路径。eval
,将输出目录修改为eval_llama3
,单击“开始”按钮。train_llama3
,单击“加载模型”。通过以上步骤,您可以在ModelScope中使用LLaMA Factory对LlaMA 3模型进行中文化与角色扮演的微调和评估。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352