场景简介
本教程使用PAI和LLaMA Factory框架,基于全参方法微调Qwen2-VL模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。
背景知识
人工智能平台 PAI
人工智能平台PAI(Platform for AI,原机器学习平台PAI)是AI Native的大模型与AIGC工程平台,提供包含数据集管理、算力管理、模型工具链、模型开发、模型训练、模型部署、AI资产管理在内的功能模块,内置100+种大模型最佳实践,为用户提供高性能、高稳定、企业级的大模型工程化能力。
交互式建模PAI-DSW
阿里云人工智能平台PAI提供了面向开发者与企业的深度学习工程平台,其中交互式建模PAI-DSW集成了Jupyter等多种云端开发环境,提供丰富的计算资源与镜像环境,实现开箱即用的高效开发模式。
LLaMA Factory(LLaMA Factory Github 开源地址)
LLaMA Factory是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过 Web UI界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架,GitHub星标超过3万。
前提条件
本实验支持领取免费试用资源、使用个人账号资源两种体验方式,请您选择其中一种方式进行体验即可。
开通机器学习PAI并创建默认工作空间
在实验室页面右侧的操作区中,勾选我已阅读并同意《阿里云云起实践平台服务协议》,单击开始实操。

开通人工智能平台PAI。
前往PAI控制台。
根据如下参数配置后,单击确认开通并创建默认工作空间。
进入PAI NotebookGallery
登录PAI控制台。
在左侧导航栏中,选择。

在Notebook Gallery页面,单击进入LLaMA Factory多模态微调实践:微调Qwen2-VL构建文旅大模型教程。

在详情页面,您可查看到预置的LLaMA Factory多模态微调实践:微调Qwen2-VL构建文旅大模型教程,单击右上角的在DSW中打开。

在请选择对应实例对话框中,单击新建符合条件的实例。

创建PAI-DSW实例
重要
若您是PAI产品新用户,请再次确认是否已领取免费使用权益,点击领取。若您未领取免费试用权益,或不符合免费试用条件,或历史已领取且免费试用额度用尽或到期,完成本实验将产生扣费,大约为10-30元/小时。
计费公式为:按量计费=公共资源+系统盘=(单价/60)×服务时长(分钟)+系统盘容量(GiB)×单价×使用时长(小时)
请在实验完成后,参考最后一章节清理资源,停止/删除实例,以免产生不必要的扣费或资源消耗。
GPU推荐使用 24GB 显存的 A10(ecs.gn7i-c8g1.2xlarge)或更高配置。
支持免费试用的资源:ecs.gn7i-c8g1.2xlarge、ecs.gn6v-c8g1.2xlarge、ecs.g6.xlarge。
在新建实例页面,自定义输入实例名称,例如DSW_LlamaFactory
。资源规格选择推荐使用GPU 24GB显存的A10(ecs.gn7i-c8g1.2xlarge)或更高配置。
说明
支持免费试用的资源ecs.gn7i-c8g1.2xlarge、ecs.gn6v-c8g1.2xlarge、ecs.g6.xlarge。

在新建实例页面的选择镜像区域,请确认镜像是否为官方镜像的modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04,单击确定。

请您耐心等待大约3分钟左右,当实例状态变为运行中时,表示实例创建成功,点击打开NoteBook。

打开实例并下载框架、数据集
安装LLaMA Factory。
根据教程指引,依次运行命令。
单击命令左侧的运行
按钮表示开始运行任务,当左侧为
图标时表明成功运行结束。

下载数据集。
LLaMA-Factory 项目内置了丰富的数据集,放在了data
目录下。您可以跳过本步骤,直接使用内置数据集。您也可以准备自定义数据集,将数据处理为框架特定的格式,放在 data下,并且修改dataset_info.json
文件。
本教程准备了一份多轮对话数据集,运行下述命令下载数据。
单击命令左侧的运行
按钮表示开始运行任务,当左侧为
图标时表明成功运行结束。

WebUI界面零代码实现模型微调
三步骤、零代码、WebUI界面完成模型微调,搭建文旅知识问答机器人。
启动Web UI。
单击命令左侧的运行
按钮表示开始运行任务,当左侧为
图标时表明成功运行结束。
当左侧为
图标时表明运行中,单击返回的URL地址,进入Web UI页面。

配置参数。
进入Web UI后,可以切换语言到中文(zh)。首先配置模型,本教程选择Qwen2VL-2B-Chat模型,微调方法修改为full,针对小模型使用全参微调方法能带来更好的效果。

数据集使用上述下载的train.json
。

可以单击预览数据集查看数据集信息,然后单击关闭返回训练界面。

设置学习率为1e-4,训练轮数为10,更改计算类型为pure_bf16,梯度累积为2,有利于模型拟合。

在其他参数设置区域修改保存间隔为1000,节省硬盘空间。

启动微调。
将输出目录修改为train_qwen2vl,训练后的模型权重将会保存在此目录中。单击预览命令可展示所有已配置的参数,您如果想通过代码运行微调,可以复制这段命令,在命令行运行。

单击开始启动模型微调。

启动微调后需要等待一段时间,待模型下载完毕后可在界面观察到训练进度和损失曲线。模型微调大约需要 14 分钟,显示“训练完毕”代表微调成功。

模型对话
选择Chat栏,将检查点路径改为train_qwen2vl,单击加载模型即可在 Web UI中和微调后的模型进行对话。

首先点击下载测试图片1或测试图片2,并上传至对话框的图像区域,接着在系统提示词区域填写你是一个导游,请生动有趣地回答游客提出的问题
。在页面底部的对话框输入想要和模型对话的内容,单击提交即可发送消息。

发送后模型会逐字生成回答,从回答中可以发现模型学习到了数据集中的内容,能够恰当地模仿导游的语气介绍图中的山西博物院。

单击卸载模型,点击检查点路径输入框取消勾选检查点路径,再次单击加载模型,即可与微调前的原始模型聊天。

重新向模型发送相同的内容,发现原始模型无法准确识别山西博物院。

上传作品
完成上述步骤后,请截图分享您与文旅智能问答机器人的聊天截图至活动页面,将有机会赢取精美礼品!