千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型

简介: 本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
在人工智能快速发展的今天,大模型的应用为各个领域带来了前所未有的机遇和变革。 基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP 为开发者们提供了一个便捷、高效的环境,让部署和体验热门推理大模型变得简单快捷。本文将带您了解如何使用CAP平台,轻松实现QWQ-32B和满血DeepSeek R1两大热门推理模型的一键部署,开启智能应用的新篇章。

模型介绍

  • DeepSeek R1系列模型使用强化学习训练,推理过程包含大量反思和验证,并凭借其卓越的性能和广泛的应用场景,一经开源迅速在全球范围内获得了极高的关注度和广泛的用户基础。您可点击以下链接,查看方案具体详情:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms
  • 千问QWQ-32B 是阿里探索推理模型的最新成果。在冷启动的基础上,模型针对数学和编程任务、通用能力分别进行了两轮大规模强化学习,实现质的飞跃,整体性能比肩DeepSeek-R1,同时大度降低了部署使用成本,在消费机显卡上也能实现本地部署。您可点击以下链接,查看方案具体详情:https://www.aliyun.com/solution/tech-solution/qwq-for-platforms

开始部署

部署QWQ-32B推理模型

方式一:应用模板部署

创建项目
进入 CAP控制台 单击 基于模板创建 开始创建。

部署模板

1.在搜索栏输入QWQ进行搜索,单击基于 Qwen-QwQ 推理模型构建AI聊天助手,进入模板详情页,单击立即部署

2.选择地域,目前支持 北京、上海、杭州,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。

说明

  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。

验证应用
部署完毕后,点击 Open-WebUI 服务,在 访问地址 内找到 公网访问 单击访问。在 OpenWebUI 界面体验 QwQ 模型进行对话。

方式二:模型服务部署

使用 API 形式进行模型调用,接入线上业务应用。
创建空白项目
进入 CAP控制台 单击 创建空白项目 开始创建,并为项目命名。

选择模型服务

部署模型服务

1.选择模型QwQ-32B-GGUF,目前仅支持杭州地域。

2.单击资源配置,QwQ-32B-GGUF推荐使用 Ada 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

3.单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10~30分钟即可完成。

验证模型服务
单击 调试 ,即可测试和验证相关模型调用。

在本地命令行窗口中验证模型调用。

第三方平台 API 调用
您可以选择在 Chatbox 等其他第三方平台中验证和应用模型调用,以下以 Chatbox 为例。

部署满血DeepSeek R1模型

方式1 : 应用模版部署

实现 DeepSeek-R1 模型 + OpenWebUI 部署

创建项目

点击如下链接新建项目:

https://cap.console.aliyun.com/projects

部署模版

搜索 “DeepSeek” ,点击 “基于 DeepSeek-R1 构建AI聊天助手” 模版并部署

选择 Region 并部署应用

部署过程大约持续 10 分钟左右

验证应用

部署完毕后,点击 OpenWebUI 服务,在访问地址内找到“公网访问”

在 OpenWebUI 界面验证 DeepSeek 模型对话

方式2. 模型服务部署

使用 API 形式进行模型调用,接入线上业务应用
创建空白项目

进入CAP控制台点击“创建空白项目”开始创建,并为项目命名

选择模型服务

选择“模型服务”组件并创建;

预览&部署

选择模型 “DeepSeek-R1-Distill-Qwen-7B-GGUF”

点击“资源配置”开始配置卡型及规格(可直接使用默认配置)

您也可以根据业务诉求填写需要的卡型信息,DeepSeek-R1-Distill-Qwen-7B-GGUF 推荐使用 Tesla 系列。

点击“预览并部署”,该阶段需下载模型,预计等待 10 分钟左右即可完成


验证模型服务

点击调试,即可测试和验证相关模型调用

在本地 IDE 中验证模型调用

第三方平台 API 调用

您可以选择在 Chatbox 等其他第三方平台中验证和引用模型调用,以下以 chatbox 为例

您可以自主切换其他参数模型。同时,Cap 模型部署也支持多种模型部署能力,您可根据业务自行配置相关信息。
相关文章
|
4月前
|
负载均衡 测试技术 调度
大模型分布式推理:张量并行与流水线并行技术
本文深入探讨大语言模型分布式推理的核心技术——张量并行与流水线并行。通过分析单GPU内存限制下的模型部署挑战,详细解析张量并行的矩阵分片策略、流水线并行的阶段划分机制,以及二者的混合并行架构。文章包含完整的分布式推理框架实现、通信优化策略和性能调优指南,为千亿参数大模型的分布式部署提供全面解决方案。
1051 4
|
4月前
|
机器学习/深度学习 缓存 监控
大模型推理优化技术:KV缓存机制详解
本文深入探讨了大语言模型推理过程中的关键技术——KV缓存(Key-Value Cache)机制。通过对Transformer自注意力机制的分析,阐述了KV缓存的工作原理、实现方式及其对推理性能的显著优化效果。文章包含具体的代码实现和性能对比数据,为开发者理解和应用这一关键技术提供实践指导。
1508 8
|
4月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
440 120
|
4月前
|
机器学习/深度学习 缓存 自然语言处理
【万字长文】大模型训练推理和性能优化算法总结和实践
我们是阿里云公共云 AI 汽车行业大模型技术团队,致力于通过专业的全栈 AI 技术推动 AI 的落地应用。
2296 39
【万字长文】大模型训练推理和性能优化算法总结和实践
|
5月前
|
自然语言处理 机器人 图形学
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
腾讯混元图像3.0,真的来了——开源,免费开放使用。 正式介绍一下:混元图像3.0(HunyuanImage 3.0),是首个工业级原生多模态生图模型,参数规模80B,也是目前测评效果最好、参数量最大的开源生图模型,效果可对…
1139 2
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
|
4月前
|
机器学习/深度学习 存储 并行计算
大模型推理加速技术:FlashAttention原理与实现
本文深入解析大语言模型推理加速的核心技术——FlashAttention。通过分析传统注意力机制的计算瓶颈,详细阐述FlashAttention的IO感知算法设计、前向反向传播实现,以及其在GPU内存层次结构中的优化策略。文章包含完整的CUDA实现示例、性能基准测试和实际部署指南,为开发者提供高效注意力计算的全套解决方案。
629 10
|
4月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
1131 2
|
4月前
|
机器学习/深度学习 存储 缓存
大模型推理加速技术:PagedAttention原理与实现
本文深入解析大语言模型推理中的革命性技术——PagedAttention,该技术是vLLM推理引擎的核心创新。通过将操作系统中的虚拟内存分页概念引入注意力机制,PagedAttention有效解决了KV缓存的内存碎片问题,实现了近乎零浪费的KV缓存管理。文章详细阐述其原理、内存管理机制、实现细节,并提供完整的代码示例和性能分析。
523 1