使用PAI×LLaMA Factory 微调 Llama3 模型

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 本次教程介绍了如何使用PAI和LLaMA Factory框架,基于轻量化LoRA方法微调Llama-3模型,使其能够进行中文问答和角色扮演,同时通过验证集ROUGE分数和人工测试验证了微调的效果。在后续实践中,可以使用实际业务数据集,对模型进行微调,得到能够解决实际业务场景问题的本地领域大模型。

教程简述

LLaMA Factory是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过Web UI界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架,GitHub星标超过2万。

本教程将基于Meta AI开源的Llama-3 8B模型,介绍如何使用PAI平台及LLaMA Factory训练框架完成模型的中文化与角色扮演微调和评估。

通过云起实验室一键开启AI体验:https://developer.aliyun.com/adc/scenario/exp/544084672a6942b7ac1809a4df8410f3


本教程使用PAI ×LLaMA Factory 微调 Llama3 模型后,问答机器人模仿诸葛亮的语气对话效果如下:

image.png


基于本教程可以体验:
👍新用户可免费领取价值万元的人工智能平台PAI试用资源

👍学会如何快速在阿里云上创建一个交互式训练开发环境

👍学会如何在DSW中基于LLaMA Factory训练框架完成模型的中文化与角色扮演微调和评估

👍学会如何在WebUI中进行知识问答


答疑交流群

如需技术支持,请在钉钉搜索群号「 52485000325」,加入群聊


实验教程

1. 准备环境和资源

1.1. 领取交互式建模PAI-DSW免费试用权益,并准备PAI工作空间

前往活动页面,领取交互式建模PAI-DSW产品免费试用资源包

image.png

  • 对于交互式建模 PAI-DSW 的新用户,阿里云提供了5000CU*H 的免费试用资源,可以在活动页面中直接领取(试用规则请参照阿里云免费试用:https://free.aliyun.com/);或可以购买交互式建模 PAI-DSW 资源包参与活动,购买链接:PAI-DSW 100CU*H资源包,价格 59 元起;如不购买资源包,PAI-DSW 会;按量进行计费,计费标准详见阿里云产品定价。

开通机器学习PAI并创建默认工作空间

前往PAI控制台,其中关键参数配置如下:

  • 本教程地域选择:华北2(北京)。您也可以根据情况选择华东1(杭州)、华东2(上海)、华南1(深圳)地域。
  • 组合开通:本教程无需使用其他产品,去除勾选MaxCompute和DataWorks产品。
  • 服务角色授权:单击去授权,完成服务角色授权。

说明:更多详细内容,请参见开通并创建默认工作空间

image.png

1.2. 进入PAI NotebookGallery

登录PAI控制台

在左侧导航栏中,选择快速开始>NotebookGallery。

image.png

在Notebook Gallery页面,单击LLaMA Factory:微调LLaMA3模型实现角色扮演。

image.png

在详情页面,您可查看到预置的使用LLaMA Factory微调Llama3模型教程,单击右上角的在DSW中打开。

image.png

在请选择对应实例对话框中,单击新建DSW实例。

image.png

1.3. 创建PAI-DSW实例

在配置实例页面,自定义输入实例名称,例如DSW_LlamaFactory。

image.png

在配置实例页面的资源配额区域,GPU规格分类下的ecs.gn6v-c8g1.2xlarge或ecs.gn7i-c8g1.2xlarge,建议优先选择ecs.gn7i-c8g1.2xlarge

说明:

  • 若您是PAI产品新用户,请再次确认是否已领取免费使用权益。领取方式:前往活动页【链接待更新】,根据页面提示领取免费试用权益。若您未领取免费试用权益,或不符合免费试用条件,或历史已领取且免费试用额度用尽或到期,完成本实验将产生扣费,大约为10-30元/小时。
  • 请在实验完成后,参考最后一章节清理及后续,停止/删除实例,以免产生不必要的扣费或资源消耗。

image.png

在配置实例页面的选择镜像区域,请确认镜像是否为官方镜像的modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04。

image.png

在配置实例页面,未提及的参数保持默认即可,单击下一步。

image.png

在确认订单页面,检查订单的资源配置是否为ecs.gn6v-c8g1.2xlarge或ecs.gn7i-c8g1.2xlarge,选择镜像是否为modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04,信息确认无误后,单击创建实例。

image.png

在交互式建模(DSW)页面,请您耐心等待大约5分钟左右,当状态变为运行中时,表示实例创建成功。

image.png

1.4 打开实例并下载框架、数据集

在选择对应实例对话框中,单击DSW实例右侧 image.png 图标,在DSW实例中选择您刚创建的实例,单击确定。

image.png

运行Notebook教程文件

安装LLaMA Factory

在llama_factory.ipynb文件的安装LLaMA Factory区域,根据教程指引,依次运行命令。

说明:单击命令左侧的运行按钮表示开始运行任务,当左侧为号时表明成功运行结束。

image.png

下载数据集

llama_factory.ipynb文件的下载数据集区域,根据教程指引,依次运行命令。

说明:单击命令左侧的运行按钮表示开始运行任务,当左侧为号时表明成功运行结束。

image.png

2. WebUI界面零代码实现模型微调模型微调

三步骤、零代码、WebUI界面完成模型微调,让开源大语言模型Llama3实现中文能力增强。

2.1. 启动Web UI

单击命令左侧的运行按钮表示开始运行任务,当左侧为号时表明成功运行结束。

image.png

然后单击返回的URL地址,进入Web UI页面。

image.png

2.2. 配置参数

进入WebUI后,可以切换到中文(zh)。首先配置模型,本教程选择LLaMA3-8B-Chat模型,微调方法则保持默认值lora,使用LoRA轻量化微调方法能极大程度地节约显存。

image.png

数据集使用上述步骤下载的train.json,单击预览数据集。

image.png

在弹窗中,您可以预览train.json数据集。

image.png

设置学习率为1e-4,梯度累积为2,有利于模型拟合。如果显卡是V100,计算类型保持为fp16;如果使用了A10,可以更改计算类型为bf16。

说明:创建PAI-DSW实例时,如果GPU规格选择ecs.gn6v-c8g1.2xlarge,则显卡是V100;如果GPU规格选择ecs.gn7i-c8g1.2xlarge,则显卡是A10。

image.png

单击LoRA参数设置展开参数列表,设置LoRA+学习率比例为16,LoRA+被证明是比LoRA学习效果更好的算法。在LoRA作用模块中填写all,即将LoRA层挂载到模型的所有线性层上,提高拟合效果。

image.png

将输出目录修改为train_llama3,训练后的LoRA权重将会保存在此目录中。单击预览命令可展示所有已配置的参数,您如果想通过代码运行微调,可以复制这段命令,在命令行运行。然后单击开始。

image.png

启动微调后需要等待一段时间,待模型下载完毕后可在界面观察到训练进度和损失曲线。

模型微调大约需要20分钟,下方显示训练完毕代表微调成功。

image.png

3. 模型评估

微调完成后,点击页面顶部的「刷新适配器」,然后点击适配器路径,即可弹出刚刚训练完成的LoRA权重,点击选择下拉列表中的train_llama3选项,在模型启动时即可加载微调结果。

image.png

选择「Evaluate&Predict」栏,在数据集下拉列表中选择「eval」(验证集)评估模型。更改输出目录为eval_llama3,模型评估结果将会保存在该目录中。最后点击开始按钮启动模型评估。

image.png

模型评估大约需要5分钟左右,评估完成后会在界面上显示验证集的分数。其中ROUGE分数衡量了模型输出答案(predict)和验证集中标准答案(label)的相似度,ROUGE分数越高代表模型学习得更好。

image.png

4. 模型对话

选择「Chat」栏,确保适配器路径是train_llama3,点击「加载模型」即可在Web UI中和微调模型进行对话。

image.png

在页面底部的对话框输入想要和模型对话的内容,点击「提交」即可发送消息。发送后模型会逐字生成回答,从回答中可以发现模型学习到了数据集中的内容,能够恰当地模仿诸葛亮的语气对话。

image.png

点击「卸载模型」,点击“×”号取消适配器路径,再次点击「加载模型」,即可与微调前的原始模型聊天。

image.png

重新向模型发送相同的内容,发现原始模型无法模仿诸葛亮的语气生成中文回答。

image.png

5. 清理及后续

  • 如果无需继续使用DSW实例,您可以按照以下操作步骤停止或删除DSW实例。
  1. 登录PAI控制台
  2. 在页面左上方,选择DSW实例的地域。
  3. 在左侧导航栏单击工作空间列表,在工作空间列表页面中单击默认工作空间名称,进入对应工作空间内。
  4. 在工作空间页面的左侧导航栏选择模型开发与训练>交互式建模(DSW),进入交互式建模(DSW)页面。
  5. 单击目标实例操作列下的停止,成功停止后即停止资源消耗。
  6. 如果您不再需要DSW实例,单击目标实例操作列下的删除
  • 领取免费资源包后,请在免费额度和有效试用期内使用。如果免费额度用尽或试用期结束后,继续使用计算资源,会产生后付费账单。

请前往节省计划页面,查看抵扣包剩余金额和过期时间。

image.png

  • 如果需要继续使用DSW实例,请务必至少在试用到期1小时前为您的阿里云账号充值,到期未续费的DSW实例会因欠费而被自动停止。
  • 在试用有效期期间,您还可以继续使用DSW实例进行模型训练和推理验证。

6. 总结

本次教程介绍了如何使用PAI和LLaMA Factory框架,基于轻量化LoRA方法微调Llama-3模型,使其能够进行中文问答和角色扮演,同时通过验证集ROUGE分数和人工测试验证了微调的效果。在后续实践中,可以使用实际业务数据集,对模型进行微调,得到能够解决实际业务场景问题的本地领域大模型。



相关实践学习
使用PAI-EAS一键部署ChatGLM及LangChain应用
本场景中主要介绍如何使用模型在线服务(PAI-EAS)部署ChatGLM的AI-Web应用以及启动WebUI进行模型推理,并通过LangChain集成自己的业务数据。
机器学习概览及常见算法
机器学习(Machine Learning, ML)是人工智能的核心,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。 本课程将带你入门机器学习,掌握机器学习的概念和常用的算法。
目录
打赏
0
10
11
1
3589
分享
相关文章
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
【新模型速递】PAI一键云上零门槛部署DeepSeek-V3-0324、Qwen2.5-VL-32B
PAI-Model Gallery 集成国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,用户可以通过 PAI 以零代码方式实现从训练到部署再到推理的全过程,获得更快、更高效、更便捷的 AI 开发和应用体验。 现阿里云PAI-Model Gallery已同步接入DeepSeek-V3-0324、Qwen2.5-VL-32B-Instruct两大新模型,提供企业级部署方案。
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
40 6
云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践
3月6日阿里云发布并开源了全新推理模型通义千问 QwQ-32B,在一系列权威基准测试中,千问QwQ-32B模型表现异常出色,几乎完全超越了OpenAI-o1-mini,性能比肩Deepseek-R1,且部署成本大幅降低。并集成了与智能体 Agent 相关的能力,够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。阿里云人工智能平台 PAI-Model Gallery 现已经支持一键部署 QwQ-32B,本实践带您部署体验专属 QwQ-32B模型服务。
DistilQwen2.5蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen2.5 是阿里云人工智能平台 PAI 推出的全新蒸馏大语言模型系列。通过黑盒化和白盒化蒸馏结合的自研蒸馏链路,DistilQwen2.5各个尺寸的模型在多个基准测试数据集上比原始 Qwen2.5 模型有明显效果提升。这一系列模型在移动设备、边缘计算等资源受限的环境中具有更高的性能,在较小参数规模下,显著降低了所需的计算资源和推理时长。阿里云的人工智能平台 PAI,作为一站式的机器学习和深度学习平台,对 DistilQwen2.5 模型系列提供了全面的技术支持。本文详细介绍在 PAI 平台使用 DistilQwen2.5 蒸馏小模型的全链路最佳实践。
基于机器学习的数据分析:PLC采集的生产数据预测设备故障模型
本文介绍如何利用Python和Scikit-learn构建基于PLC数据的设备故障预测模型。通过实时采集温度、振动、电流等参数,进行数据预处理和特征提取,选择合适的机器学习模型(如随机森林、XGBoost),并优化模型性能。文章还分享了边缘计算部署方案及常见问题排查,强调模型预测应结合定期维护,确保系统稳定运行。
121 0
FastAPI + ONNX 部署机器学习模型最佳实践
本文介绍了如何结合FastAPI和ONNX实现机器学习模型的高效部署。面对模型兼容性、性能瓶颈、服务稳定性和安全性等挑战,FastAPI与ONNX提供了高性能、易于开发维护、跨框架支持和活跃社区的优势。通过将模型转换为ONNX格式、构建FastAPI应用、进行性能优化及考虑安全性,可以简化部署流程,提升推理性能,确保服务的可靠性与安全性。最后,以手写数字识别模型为例,展示了完整的部署过程,帮助读者更好地理解和应用这些技术。
176 20
全网首发 | PAI Model Gallery一键部署阶跃星辰Step-Video-T2V、Step-Audio-Chat模型
Step-Video-T2V 是一个最先进的 (SoTA) 文本转视频预训练模型,具有 300 亿个参数,能够生成高达 204 帧的视频;Step-Audio 则是行业内首个产品级的开源语音交互模型,通过结合 130B 参数的大语言模型,语音识别模型与语音合成模型,实现了端到端的文本、语音对话生成,能和用户自然地进行高质量对话。PAI Model Gallery 已支持阶跃星辰最新发布的 Step-Video-T2V 文生视频模型与 Step-Audio-Chat 大语言模型的一键部署,本文将详细介绍具体操作步骤。
多元线性回归:机器学习中的经典模型探讨
多元线性回归是统计学和机器学习中广泛应用的回归分析方法,通过分析多个自变量与因变量之间的关系,帮助理解和预测数据行为。本文深入探讨其理论背景、数学原理、模型构建及实际应用,涵盖房价预测、销售预测和医疗研究等领域。文章还讨论了多重共线性、过拟合等挑战,并展望了未来发展方向,如模型压缩与高效推理、跨模态学习和自监督学习。通过理解这些内容,读者可以更好地运用多元线性回归解决实际问题。
|
3月前
如何看PAI产品下训练(train)模型任务的费用细节
PAI产品下训练(train)模型任务的费用细节
109 6

热门文章

最新文章

相关产品

  • 人工智能平台 PAI
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等