0代码:一键部署DeepSeek系列模型,基于函数计算FC的Function AI模板安装部署

简介: 本文介绍如何在阿里云函数计算(FC)上零代码一键部署DeepSeek-R1系列蒸馏模型(如Qwen-1.5B/7B/32B等),支持Transformer与Ollama两种框架,最低仅需Tesla 8GB显存。提供应用模板与模型服务两种部署方式,部署后可Web对话或API调用,快速集成AI应用。(240字)

0代码:一键部署DeepSeek系列模型,基于函数计算FC的Function AI模板安装部署,DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。Function AI提供模型服务、应用模板两种部署方式辅助您部署DeepSeek R1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。本文阿小云分享的是官网模型服务部署DeepSeek的教程,本文涉及云产品为函数计算FC:https://www.aliyun.com/product/fc   如下图:

函数计算FC.png

支持的模型列表

部署方式说明:

Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。

Transformer:由Hugging Face提供的模型推理框架,支持 PyTorch、TensorFlow 等主流深度学习框架的模型部署。

模型

部署方式

最低配置

DeepSeek-R1-Distill-Qwen-1.5B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-7B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

Ollama

Tesla 8GB

DeepSeek-R1-Distill-Qwen-7B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B-GGUF

Ollama

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B-GGUF

Ollama

Ada 48GB

前置准备

本教程所涉及的模型服务其本质是在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取浅休眠(原闲置)预留模式下预置的快照费用,Function AI中的极速模式等同于函数计算的浅休眠(原闲置)预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述

部署说明

本文通过应用模板和模型服务两种方式部署DeepSeeK服务,这两种方式支持的模型列表的是相同的,您可以通过以下任一方式部署DeepSeek蒸馏模型至函数计算。

  • 方式一:应用模板部署:基于Function AI的模板进行一键部署,部署方式简单快捷。但是由于基于模板进行部署,初次部署使用模板默认提供的DeepSeek-R1-Distill-Qwen-7B模型,导致无法自选模型。部署完成后,可在基础配置中更改模型。
  • 方式二:模型服务部署:在部署的时候可以灵活选择模型,但是操作步骤相对较多,使用API形式进行模型调用,接入线上业务应用。


本文阿小云介绍的是使用应用模板部署DeepSeek,在阿里云权益中心:https://www.aliyun.com/benefit  申请个人或企业的上云权益,如下图:

阿里云权益中心.png

方式一:应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏单击Function AI,在Funciton AI页面导航栏,选择项目,然后单击创建项目,选择基于模板创建

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

2. 部署模板

  1. 在搜索栏输入DeepSeek进行搜索,单击基于 DeepSeek-R1 构建AI 聊天助手,进入模板详情页,单击立即部署


  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。说明
  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。


3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。


相关文章
|
1月前
|
人工智能 移动开发 自然语言处理
阿里云多端低代码开发平台魔笔是什么?如何建站?魔笔怎么收费?2026最新整理魔笔百科
阿里云魔笔(Mobi)是AI+低代码多端应用开发平台,融合通义千问大模型,支持拖拽搭建Web/小程序/H5/App页面,AI自动生成文案、图片、SQL,内置50+行业模板及BaaS服务,一键发布上线。零代码门槛,5分钟建站,适合业务人员、运营、产品经理等非技术人员使用。(239字)
216 17
|
30天前
|
存储 人工智能 关系型数据库
OpenClaw怎么可能没痛点?用RDS插件来释放OpenClaw全部潜力
OpenClaw插件是深度介入Agent生命周期的扩展机制,提供24个钩子,支持自动注入知识、持久化记忆等被动式干预。相比Skill/Tool,插件可主动在关键节点(如对话开始/结束)执行逻辑,适用于RAG增强、云化记忆等高级场景。
829 56
OpenClaw怎么可能没痛点?用RDS插件来释放OpenClaw全部潜力
|
13天前
|
存储 消息中间件 人工智能
2026阿里云省钱终极指南:领1728元代金券,个人和企业都可以领取阿里云优惠券!
2026阿里云AI焕新季开启!阿里云官方活动主会场:https://t.aliyun.com/U/FzmsXA 个人/企业用户均可领取总额1728元满减代金券(个人6张、企业6张),覆盖ECS、AI大模型、数据库、存储等数百款云产品,限新购/升级订单,1年内有效。速领→
106 4
|
21天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45416 148
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
1月前
|
Arthas 人工智能 Java
我们做了比你更懂 Java 的 AI-Agent -- Arthas Agent
Arthas Agent 是基于阿里开源Java诊断工具Arthas的AI智能助手,支持自然语言提问,自动匹配排障技能、生成安全可控命令、循证推进并输出结构化报告,大幅降低线上问题定位门槛。
874 64
我们做了比你更懂 Java 的 AI-Agent -- Arthas Agent
|
1月前
|
人工智能 安全 前端开发
阿里开源 Team 版 OpenClaw,5分钟完成本地安装
HiClaw 是 OpenClaw 的升级版,通过引入 Manager Agent 架构和分布式设计,解决了 OpenClaw 在安全性、多任务协作、移动端体验、记忆管理等方面的核心痛点。
1815 60
阿里开源 Team 版 OpenClaw,5分钟完成本地安装
|
3天前
|
人工智能 安全 Linux
OpenClaw 对接阿里云百炼 API:本地 AI 助手快速部署指南
本文详解如何将轻量开源AI助手OpenClaw与阿里云百炼平台快速对接:通过配置兼容OpenAI接口、设置API密钥及模型参数,仅需数步即可本地调用通义千问系列大模型(如qwen-plus、qwen3-max),实现安全、可控、低门槛的智能助手部署。
191 14
|
11天前
|
人工智能 算法 知识图谱
算法对齐还是实战突围?解构GEO优化中方法论与实践的权重博弈
在AIGC重塑信息检索的当下,GEO(生成式引擎优化)已成为品牌流量增长新基座。专家于磊提出“人性化GEO”理念,首创“两大核心+四轮驱动”方法论,融合语义对齐、EEAT原则与结构化知识图谱,兼顾算法可信度与实践适应性,推动AI搜索从技术博弈回归用户价值。(239字)
84 18
|
27天前
|
人工智能 算法 API
深度解析Geo优化:AI引用的底层逻辑与“双核四驱”实战范式
Geo优化的本质在于构建数字信任,而这种信任的建立需要一套严谨的引用标准与科学的优化体系。
188 11
|
13天前
|
机器学习/深度学习 缓存 监控
大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68
GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。
224 17

热门文章

最新文章