大数据AI一体化开发再加速:DataWorks 支持GPU类型资源

本文涉及的产品
大数据开发治理平台DataWorks,资源组抵扣包 750CU*H
简介: 大数据开发治理平台 DataWorks 的Serverless资源组支持GPU资源类型,以免运维、按需付费、弹性伸缩的Serverless架构,将大数据处理与AI开发能力无缝融合。面向大数据&AI协同开发场景,DataWorks提供了交互式开发和分析工具Notebook。开发者在创建个人开发环境时,可以选择GPU类型的资源作为Notebook运行环境,以支持进行高性能的计算工作。本教程将基于开源多模态大模型Qwen2-VL-2B-Instruct,介绍如何使用 DataWorks Notebook及LLaMA Factory训练框架完成文旅领域大模型的构建。

打破Data+AI融合瓶颈:DataWorks支持 GPU类型资源

在人工智能技术飞速发展的今天,“数据+算力”的有效结合已成为释放数据价值的关键途径。企业不仅需要处理海量数据,更需将数据转化为智能洞察,而传统方式自行部署和使用GPU资源高成本投入、运维复杂性和弹性不足的特点,让开发者从“大数据”迈向“Data+AI”的关键跃迁陷入瓶颈。基于此,作为一站式智能数据开发治理平台,DataWorks在积累和沉淀了阿里巴巴十余年大数据建设方法论和最佳实践的基础上,宣布其Serverless资源组支持GPU资源类型,以免运维、按需付费、弹性伸缩的Serverless架构,将大数据处理与AI开发能力无缝融合。


这意味着开发者在创建个人开发环境时,可以选择GPU类型的资源作为Notebook运行环境,以支持进行高性能的计算工作。在此基础上:开发者可在DataWorks一个平台即可完成数据清洗、特征工程到模型训练/推理的全流程,无需跨平台迁移数据,真正实现“Data+ AI”一站式数据开发,让数据驱动的未来加速降临。

极简体验:GPU算力,开箱即用

LLaMA Factory是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过Web UI界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架,GitHub星标超过3万。


DataWorks作为阿里云上的一站式智能数据开发治理平台,面向大数据&AI协同开发场景,提供了交互式开发和分析工具Notebook。DataWorks Notebook具备灵活且可复用的数据处理和分析环境,增强了数据开发和分析体验的直观性、模块化和交互性,能够帮助用户轻松高效地进行数据处理、数据探索、数据可视化和模型构建。


本教程将基于开源多模态大模型Qwen2-VL-2B-Instruct,介绍如何使用 DataWorks Notebook及LLaMA Factory训练框架完成文旅领域大模型的构建。


前置资源配置

注意需要将数据开发(DataStudio)(新版)公测开关置为开启才可使用Notebook。

  • 创建资源组:在DataWorks控制台创建“Serverless资源组”,将资源组绑定至目标工作空间。  

可选择开通按量付费资源组,领取免费试用资源组抵扣包资源来抵扣。


截屏2025-03-11 下午2.17.18.png

  • 选择刚刚创建的工作空间,点击创建实例,跳转到新建个人开发环境示例界面

截屏2025-03-11 下午2.17.31.png


  • 绑定GPU实例:创建个人开发环境实例,注意选择GPU资源类型时,选择以下配置:  
  • GPU 推荐使用 24GB 显存的 A10(ecs.gn7i-c8g1.2xlarge)或更高配置
  • 镜像选择 DSW 官方镜像 modelscope:1.18.0-pytorch2.3.0-gpu-py310-cu121-ubuntu22.04


操作步骤

1. 安装 LLaMA Factory

  • 首先,拉取 LLaMA-Factory 项目到 Notebook 个人开发环境实例。
!git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
%cd LLaMA-Factory


  • 接着,我们安装 LLaMA-Factory 依赖环境。
!pip uninstall -y accelerate vllm matplotlib
!pip install llamafactory==0.9.0


  • 运行如下命令,如果显示 LLaMA Factory 的版本,则表示安装成功。
!llamafactory-cli version


2. 下载数据集

LLaMA-Factory 项目内置了丰富的数据集,放在了 data 目录下。您可以跳过本步骤,直接使用内置数据集。您也可以使用DataWorks 构建自定义数据集或使用数据湖、数据仓库或湖仓一体架构中的数据来进行模型的微调,将数据处理为框架特定的格式,放在 data 下,并且修改 dataset_info.json 文件。DataWorks深度适配数十种大数据计算引擎进行数据集成,支持自定义数据集的开发与调度。


  • 本教程准备了一份多轮对话数据集,运行下述命令下载数据。
!wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/llama_factory/Qwen2-VL-History.zip
!mv data rawdata && unzip Qwen2-VL-History.zip -d data


  • 数据集中的样本为单轮对话形式,含有 261 条样本,每条样本都由一条系统提示、一条用户指令和一条模型回答组成,微调过程中模型不断学习样本中的回答风格,从而达到学习文旅知识的目的。数据样例如下所示:
[
  {
    "conversations": [
      {
        "from": "system",
        "value": "你是一个导游,请生动有趣地回答游客提出的问题"
      },
      {
        "from": "human",
        "value": "给我讲讲这个东西<image>"
      },
      {
        "from": "gpt",
        "value": "各位游客朋友们,大家好!\n\n现在映入大家眼帘的,是一件极为珍贵的文物——**神面纹玉戚**。它可不是一般的宝贝,而是来自遥远的新石器时代的一件精美玉器哦!\n\n这件宝贝现藏于山西博物院,它的尺寸相当精致:高20.6厘米,宽13.1厘米,厚仅0.4厘米,真是薄如蝉翼,工艺精湛!\n\n1964年,它在黎城县后庄村广志山出土,仿佛穿越时空,向我们诉说着古老的故事。\n\n大家仔细看,这块玉戚采用了线刻工艺,一侧雕刻着神人的半侧面头像,头戴华美的冠饰,披拂着飘逸的长发,眼眉清晰可辨,仿佛在凝视着我们;而另一侧则是一个方形台座上置神人冠饰的形象,显得神秘而威严。\n\n要知道,玉戚在古代可是象征军事统帅权力的神器,握有它,就如同掌握了千军万马!\n\n大家不妨多停留片刻,感受一下这件文物散发出的古老而神秘的气息吧!\n\n谢谢大家的聆听,接下来我们将继续参观其他精彩展品,敬请期待!"
      }
    ],
    "images": [
      "images/instance_1579398113581395972.jpg"
    ]
  }
]


3. 模型微调

3.1 启动 Web UI

做好前序准备工作后,直接运行下述命令就可以启动 Web UI。这里用到的环境变量解释如下:

  • USE_MODELSCOPE_HUB 设为 1,表示模型从 ModelScope 魔搭社区下载。避免从 HuggingFace 下载模型导致网速不畅。

点击返回的 URL 地址,进入 Web UI 页面。

!USE_MODELSCOPE_HUB=1 llamafactory-cli webui


3.2 配置参数

  • 进入 WebUI 后,可以切换语言到中文(zh)。

首先配置模型,本教程选择 Qwen2VL-2B-Chat 模型,微调方法修改为 full,针对小模型使用全参微调方法能带来更好的效果。

 


  • 数据集使用上述下载的 train.json

 


  • 可以点击「预览数据集」。点击关闭返回训练界面。

 


  • 设置学习率为 1e-4,训练轮数为 10,更改计算类型为 pure_bf16,梯度累积为 2,有利于模型拟合。


  • 在其他参数设置区域修改保存间隔为 1000,节省硬盘空间。


3.3 启动微调

  • 将输出目录修改为 train_qwen2vl,训练后的模型权重将会保存在此目录中。点击「预览命令」可展示所有已配置的参数,您如果想通过代码运行微调,可以复制这段命令,在命令行运行。
  • 点击「开始」启动模型微调。

 


  • 启动微调后需要等待一段时间,待模型下载完毕后可在界面观察到训练进度和损失曲线。模型微调大约需要 14 分钟,显示“训练完毕”代表微调成功。


4. 模型对话

  • 选择「Chat」栏,将检查点路径改为 train_qwen2vl,点击「加载模型」即可在 Web UI 中和微调后的模型进行对话。


  • 首先点击下载测试图片1测试图片2,并上传至对话框的图像区域,接着在系统提示词区域填写“你是一个导游,请生动有趣地回答游客提出的问题”。在页面底部的对话框输入想要和模型对话的内容,点击提交即可发送消息。


  • 发送后模型会逐字生成回答,从回答中可以发现模型学习到了数据集中的内容,能够恰当地模仿导游的语气介绍图中的山西博物院。


  • 点击「卸载模型」,点击检查点路径输入框取消勾选检查点路径,再次点击「加载模型」,即可与微调前的原始模型聊天。


  • 重新向模型发送相同的内容,发现原始模型无法准确识别山西博物院。


5. 总结

本次教程介绍了如何使用 DataWorks 和 LLaMA Factory 框架,基于全参方法微调 Qwen2-VL-2B 模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。在后续实践中,可以使用实际业务数据集,对模型进行微调,得到能够解决实际业务场景问题的本地领域多模态大模型。  


立即行动:免费额度,即刻体验!


DataWorks为新用户提供750CU*H免费GPU算力资源,有效期1个月。点击领取免费试用资源包;

同时推出400CU*H的资源组抵扣包5折活动,快领取资源组抵扣包畅享大数据AI一体化开发吧!

点击领取可选择开通按量付费资源组,领取或资源来抵扣。

相关实践学习
基于Hologres轻量实时的高性能OLAP分析
本教程基于GitHub Archive公开数据集,通过DataWorks将GitHub中的项⽬、行为等20多种事件类型数据实时采集至Hologres进行分析,同时使用DataV内置模板,快速搭建实时可视化数据大屏,从开发者、项⽬、编程语⾔等多个维度了解GitHub实时数据变化情况。
相关文章
|
14天前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
10天前
|
人工智能 安全 API
20 万奖金池就位!Higress AI 网关开发挑战赛参赛指南
本次赛事共设三大赛题方向,参赛者可以任选一个方向参赛。本文是对每个赛题方向的参赛指南。
|
9天前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
13天前
|
人工智能 自然语言处理 JavaScript
VTJ.PRO如何利用AI实现低代码开发
VTJ.PRO深度集成AI,实现设计稿转代码、自然语言生成组件等功能,显著提升低代码开发效率。支持双向代码穿梭、企业级工程化与多模型协同决策,兼顾开发速度与代码自由度,助力项目周期大幅压缩。
128 43
VTJ.PRO如何利用AI实现低代码开发
|
11天前
|
人工智能 运维 Java
Spring AI Alibaba Admin 开源!以数据为中心的 Agent 开发平台
Spring AI Alibaba Admin 正式发布!一站式实现 Prompt 管理、动态热更新、评测集构建、自动化评估与全链路可观测,助力企业高效构建可信赖的 AI Agent 应用。开源共建,现已上线!
1029 34
|
人工智能 自然语言处理 前端开发
产品经理也能“开发”需求?淘宝信息流从需求到上线的AI端到端实践
淘宝推荐信息流业务,常年被“需求多、技术栈杂、协作慢”困扰,需求上线周期动辄一周。WaterFlow——一套 AI 驱动的端到端开发新实践,让部分需求两天内上线,甚至产品经理也能“自产自销”需求。短短数月,已落地 30+ 需求、自动生成 5.4 万行代码,大幅提升研发效率。接下来,我们将揭秘它是如何落地并改变协作模式的。
242 37
产品经理也能“开发”需求?淘宝信息流从需求到上线的AI端到端实践
|
14天前
|
人工智能 IDE 开发工具
从6人日到1人日:一次AI驱动的客户端需求开发实战
从6人日到1人日:一次AI驱动的客户端需求开发实战
从6人日到1人日:一次AI驱动的客户端需求开发实战
|
6天前
|
Kubernetes 调度 异构计算
Kubernetes集群中,部分使用GPU资源的Pod出现UnexpectedAdmissionError问题的解决方案。
如果在进行上述检查之后,问题依然存在,可以尝试创建一个最小化的Pod配置,仅请求GPU资源而不
42 5

相关产品

  • 大数据开发治理平台 DataWorks
  • 下一篇
    开通oss服务