3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1

简介: 3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1



春节期间,DeepSeek热度居高不下,开发者们对其相关系列模型的部署尤为关注。天池团队手把手带你在阿里云上一键部署DeepSeek-R1系列模型!


阿里云PAI Model Gallery功能强大,支持云上一键部署DeepSeek-V3、DeepSeek-R1。


在该平台上用户可以零代码实现从训练到部署再到推理的全过程,简化模型开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。


01DeepSeek-V3、R1系列模型


DeepSeek-V3 是 DeepSeek 发布的 MoE(Mixture-of-Experts)大语言模型,总参数量为671B,每个 token 激活的参数量为37B。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了 MLA(Multi-head Latent Attention)和 DeepSeekMoE 架构。此外,


DeepSeek-V3 首次引入了一种无需辅助损失的负载均衡策略,并设定了多 token 预测的训练目标,以提升性能。DeepSeek-V3 在14.8万亿个多样且高质量的 token 上对模型进行了预训练,随后通过监督微调(SFT)和强化学习来充分发挥其潜力。DeepSeek-R1 是


DeepSeek 发布的高性能 AI 推理模型,在后训练阶段大规模使用强化学习技术,显著提升了模型的推理能力,在数学、代码、自然语言推理等任务上,其性能与 OpenAI 的 o1 正式版相当。DeepSeek-R1 具有660B的参数量,DeepSeek 开源 660B 模型的同时,通过模型蒸馏,微调了若干参数量较小的开源模型,其中包括:


模型

基础模型

DeepSeek-R1-Distill-Qwen-1.5B

Qwen2.5-Math-1.5B

DeepSeek-R1-Distill-Qwen-7B

Qwen2.5-Math-7B

DeepSeek-R1-Distill-Llama-8B

Llama-3.1-8B

DeepSeek-R1-Distill-Qwen-14B

Qwen2.5-14B

DeepSeek-R1-Distill-Qwen-32B

Qwen2.5-32B

DeepSeek-R1-Distill-Llama-70B

Llama-3.3-70B-Instruct


目前 PAI Model Gallery 已经支持 DeepSeek-V3、DeepSeek-R1 以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。


02PAI Model Gallery 简介


Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,如Qwen,DeepSeek等系列模型。通过 PAI 对这些模型的适配,用户可以零代码实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。


PAI Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/models

image.png

03PAI Model Gallery 一键部署 Deep Seek-V3、Deep Seek-R1


1. 进入 Model Gallery 页面(链接:https://pai.console.aliyun.com/#/quick-start/models

  1. 登录 PAI 控制台。
  2. 在顶部左上角根据实际情况选择地域。
  3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。
  4. 在左侧导航栏选择快速开始 > Model Gallery。

image.png

  1. 在 Model Gallery 页面的模型列表中,单击找到并点击需要部署的模型卡片,例如“DeepSeek-R1-Distill-Qwen-7B”模型,进入模型详情页面。

image.png

  1. 单击右上角部署:目前 DeepSeek-R1 支持采用 vLLM 加速部署;DeepSeek-V3 支持 vLLM 加速部署以及 Web 应用部署;DeepSeek-R1 蒸馏小模型支持采用 BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署。选择部署方式和部署资源后,即可一键部署服务,生成一个 PAI-EAS 服务。

image.png

  1. 使用推理服务。部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

image.png

image.png

相关文章
|
7天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34477 17
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
19天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45307 142
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
8天前
|
人工智能 JSON 监控
Claude Code 源码泄露:一份价值亿元的 AI 工程公开课
我以为顶级 AI 产品的护城河是模型。读完这 51.2 万行泄露的源码,我发现自己错了。
4874 21
|
1天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
1979 6
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
7天前
|
人工智能 API 开发者
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案
阿里云百炼Coding Plan Lite已停售,Pro版每日9:30限量抢购难度大。本文解析原因,并提供两大方案:①掌握技巧抢购Pro版;②直接使用百炼平台按量付费——新用户赠100万Tokens,支持Qwen3.5-Max等满血模型,灵活低成本。
1815 5
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案