千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
性能测试 PTS,5000VUM额度
可观测监控 Prometheus 版,每月50GB免费额度
简介: 本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
在人工智能快速发展的今天,大模型的应用为各个领域带来了前所未有的机遇和变革。 基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP 为开发者们提供了一个便捷、高效的环境,让部署和体验热门推理大模型变得简单快捷。本文将带您了解如何使用CAP平台,轻松实现QWQ-32B和满血DeepSeek R1两大热门推理模型的一键部署,开启智能应用的新篇章。

模型介绍

  • DeepSeek R1系列模型使用强化学习训练,推理过程包含大量反思和验证,并凭借其卓越的性能和广泛的应用场景,一经开源迅速在全球范围内获得了极高的关注度和广泛的用户基础。您可点击以下链接,查看方案具体详情:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms
  • 千问QWQ-32B 是阿里探索推理模型的最新成果。在冷启动的基础上,模型针对数学和编程任务、通用能力分别进行了两轮大规模强化学习,实现质的飞跃,整体性能比肩DeepSeek-R1,同时大度降低了部署使用成本,在消费机显卡上也能实现本地部署。您可点击以下链接,查看方案具体详情:https://www.aliyun.com/solution/tech-solution/qwq-for-platforms

开始部署

部署QWQ-32B推理模型

方式一:应用模板部署

创建项目
进入 CAP控制台 单击 基于模板创建 开始创建。

部署模板

1.在搜索栏输入QWQ进行搜索,单击基于 Qwen-QwQ 推理模型构建AI聊天助手,进入模板详情页,单击立即部署

2.选择地域,目前支持 北京、上海、杭州,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。

说明

  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。

验证应用
部署完毕后,点击 Open-WebUI 服务,在 访问地址 内找到 公网访问 单击访问。在 OpenWebUI 界面体验 QwQ 模型进行对话。

方式二:模型服务部署

使用 API 形式进行模型调用,接入线上业务应用。
创建空白项目
进入 CAP控制台 单击 创建空白项目 开始创建,并为项目命名。

选择模型服务

部署模型服务

1.选择模型QwQ-32B-GGUF,目前仅支持杭州地域。

2.单击资源配置,QwQ-32B-GGUF推荐使用 Ada 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

3.单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10~30分钟即可完成。

验证模型服务
单击 调试 ,即可测试和验证相关模型调用。

在本地命令行窗口中验证模型调用。

第三方平台 API 调用
您可以选择在 Chatbox 等其他第三方平台中验证和应用模型调用,以下以 Chatbox 为例。

部署满血DeepSeek R1模型

方式1 : 应用模版部署

实现 DeepSeek-R1 模型 + OpenWebUI 部署

创建项目

点击如下链接新建项目:

https://cap.console.aliyun.com/projects

部署模版

搜索 “DeepSeek” ,点击 “基于 DeepSeek-R1 构建AI聊天助手” 模版并部署

选择 Region 并部署应用

部署过程大约持续 10 分钟左右

验证应用

部署完毕后,点击 OpenWebUI 服务,在访问地址内找到“公网访问”

在 OpenWebUI 界面验证 DeepSeek 模型对话

方式2. 模型服务部署

使用 API 形式进行模型调用,接入线上业务应用
创建空白项目

进入CAP控制台点击“创建空白项目”开始创建,并为项目命名

选择模型服务

选择“模型服务”组件并创建;

预览&部署

选择模型 “DeepSeek-R1-Distill-Qwen-7B-GGUF”

点击“资源配置”开始配置卡型及规格(可直接使用默认配置)

您也可以根据业务诉求填写需要的卡型信息,DeepSeek-R1-Distill-Qwen-7B-GGUF 推荐使用 Tesla 系列。

点击“预览并部署”,该阶段需下载模型,预计等待 10 分钟左右即可完成


验证模型服务

点击调试,即可测试和验证相关模型调用

在本地 IDE 中验证模型调用

第三方平台 API 调用

您可以选择在 Chatbox 等其他第三方平台中验证和引用模型调用,以下以 chatbox 为例

您可以自主切换其他参数模型。同时,Cap 模型部署也支持多种模型部署能力,您可根据业务自行配置相关信息。
目录
打赏
0
1
2
0
90
分享
相关文章
AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画
万相首尾帧模型是阿里通义开源的14B参数规模视频生成模型,基于DiT架构和高效视频压缩VAE,能够根据首尾帧图像自动生成5秒720p高清视频,支持多种风格变换和细节复刻。
156 8
AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画
利用通义灵码AI在VS Code中快速开发扫雷游戏:Qwen2.5-Max模型的应用实例
本文介绍了如何利用阿里云通义灵码AI程序员的Qwen2.5-Max模型,在VS Code中一键生成扫雷小游戏。通过安装通义灵码插件并配置模型,输入指令即可自动生成包含游戏逻辑与UI设计的Python代码。生成的游戏支持难度选择,运行稳定无Bug。实践表明,AI工具显著提升开发效率,但人机协作仍是未来趋势。建议开发者积极拥抱新技术,同时不断提升自身技能以适应行业发展需求。
22204 17
QVQ-Max:阿里通义新一代视觉推理模型!再造多模态「全能眼」秒解图文难题
QVQ-Max是阿里通义推出的新一代视觉推理模型,不仅能解析图像视频内容,还能进行深度推理和创意生成,在数学解题、数据分析、穿搭建议等场景展现强大能力。
166 15
QVQ-Max:阿里通义新一代视觉推理模型!再造多模态「全能眼」秒解图文难题
通义万相2.1首尾帧模型开源!细节真实生动+过渡丝滑,指令遵循表现出色!
通义万相2.1首尾帧模型开源!细节真实生动+过渡丝滑,指令遵循表现出色!
48 4
通义灵码 Rules 来了:个性化代码生成,对抗模型幻觉
通义灵码又上新外挂啦,Project Rules来了。当模型生成代码不精准,试下通义灵码 Rules,对抗模型幻觉,硬控 AI 根据你的代码风格和偏好生成代码和回复。
713 7
通义灵码 Rules 来了:个性化代码生成,对抗模型幻觉
通义灵码又上新外挂啦,Project Rules来了。当模型生成代码不精准,试下通义灵码 Rules,对抗模型幻觉,硬控 AI 根据你的代码风格和偏好生成代码和回复。
通义灵码 Visual Studio 终于支持模型切换
如需使用灵码模型选择,需要开发者将灵码 IDE 插件更新到最新版,前往下载安装包安装
153 0
通义灵码 Visual Studio 终于支持模型切换
通义大模型:解码中国AI的"通"与"义"
“通义”取自中国传统文化中“通晓大义”,寓意技术与人文的结合。作为阿里巴巴旗下的超大规模语言模型,通义在知识蒸馏、动态稀疏激活和文化感知模块上实现三大突破,大幅提升效率与适切性。其已在医疗、司法、文化传播等领域落地,如辅助病历处理、法律文书生成及文物解说等。测试显示,通义在中文诗歌创作、商业报告生成等方面表现优异。同时,开放的开发者生态已吸引5万+创新者。未来,通义将探索长期记忆、自我反思及多智能体协作,向AGI迈进,成为智能本质的载体。其对中文语境情感的精准把握,更是中国AI“通情达义”的典范。
46 22
通义大模型:中国AI领域的新里程碑
本文介绍了阿里巴巴达摩院研发的“通义大模型”系列,该模型在2025年已成为AI领域的重要里程碑。通义大模型拥有超大规模参数、多模态融合、高效训练框架和中文优化等技术特点,在智能客服、内容创作、教育和企业服务等多个场景实现应用。未来,它将在多模态能力、小样本学习、安全性及应用场景拓展等方面持续突破,推动中国AI技术进步与行业智能化转型。
48 17
通义灵码 vs. GitHub Copilot:中国AI编码工具的破局之道
全球AI编码工具形成“双极格局”,GitHub Copilot凭借先发优势主导市场,而通义灵码通过差异化路径突围。技术层面,通义灵码在中文语境理解、云原生绑定上展现优势;生态方面,Copilot依托GitHub开源生态,通义灵码则深耕阿里云企业协同场景;开发者心智战中,通义灵码以数据合规、本土化服务及定制化能力取胜。这场较量不仅是技术的比拼,更是生态逻辑与开发者需求的全面博弈,彰显中国AI编码工具“换道超车”的潜力。
89 18

云原生

+关注