太香了!0 代码一键部署 DeepSeek 模型,FC Function AI 模板直接用

简介: 本文介绍如何在阿里云函数计算(FC)上零代码一键部署DeepSeek-R1系列蒸馏模型(如Qwen-1.5B/7B/32B等),支持Transformer与Ollama两种推理框架。通过Function AI应用模板快速部署,可直接对话或API调用,最低仅需Tesla 8GB显存,适合低成本、高效率AI应用开发。(239字)

0代码:一键部署DeepSeek系列模型,基于函数计算FC的Function AI模板安装部署,DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。Function AI提供模型服务、应用模板两种部署方式辅助您部署DeepSeek R1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。本文阿小云分享的是官网模型服务部署DeepSeek的教程,本文涉及云产品为函数计算FC:https://www.aliyun.com/product/fc   如下图:

函数计算FC.png

支持的模型列表

部署方式说明:

Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。

Transformer:由Hugging Face提供的模型推理框架,支持 PyTorch、TensorFlow 等主流深度学习框架的模型部署。

模型

部署方式

最低配置

DeepSeek-R1-Distill-Qwen-1.5B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-7B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

Ollama

Tesla 8GB

DeepSeek-R1-Distill-Qwen-7B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B-GGUF

Ollama

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B-GGUF

Ollama

Ada 48GB

前置准备

本教程所涉及的模型服务其本质是在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取浅休眠(原闲置)预留模式下预置的快照费用,Function AI中的极速模式等同于函数计算的浅休眠(原闲置)预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述

部署说明

本文通过应用模板和模型服务两种方式部署DeepSeeK服务,这两种方式支持的模型列表的是相同的,您可以通过以下任一方式部署DeepSeek蒸馏模型至函数计算。

  • 方式一:应用模板部署:基于Function AI的模板进行一键部署,部署方式简单快捷。但是由于基于模板进行部署,初次部署使用模板默认提供的DeepSeek-R1-Distill-Qwen-7B模型,导致无法自选模型。部署完成后,可在基础配置中更改模型。
  • 方式二:模型服务部署:在部署的时候可以灵活选择模型,但是操作步骤相对较多,使用API形式进行模型调用,接入线上业务应用。


本文阿小云介绍的是使用应用模板部署DeepSeek,在阿里云权益中心:https://www.aliyun.com/benefit  申请个人或企业的上云权益,如下图:

阿里云权益中心.png

方式一:应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏单击Function AI,在Funciton AI页面导航栏,选择项目,然后单击创建项目,选择基于模板创建

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

2. 部署模板

  1. 在搜索栏输入DeepSeek进行搜索,单击基于 DeepSeek-R1 构建AI 聊天助手,进入模板详情页,单击立即部署


  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。说明
  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。


3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。


目录
相关文章
|
1天前
|
人工智能 自然语言处理 安全
保姆级图文教学!OpenClaw(Clawdbot)阿里云与本地部署与必装 Skills 精选及避坑指南
OpenClaw 是由 PSPDFKit 创始人 Peter Steinberger 于 2025 年 11 月推出的开源 AI Agent,其核心特性在于本地运行保障数据隐私,同时支持 WhatsApp、Telegram、Slack 等 12 个主流平台接入,后端可灵活适配 Claude、GPT-4o 或本地 Ollama 模型,不绑定任何云服务商。2026 年 1 月,该项目因商标纠纷在四天内完成两次更名(Clawdbot → Moltbot → OpenClaw),创始人加入 OpenAI 后项目移交开源基金会维护,截至 2026 年 3 月,GitHub Star 数已突破 220,0
183 8
|
3天前
|
自然语言处理 PyTorch 算法框架/工具
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
86 10
大模型太慢?别急着上 GPU 堆钱:Python + ONNX Runtime 优化推理性能实战指南
|
10天前
|
人工智能 弹性计算 机器人
炸了!OpenClaw部署钉钉AI员工,新手 5 分钟一次成功
OpenClaw(Clawdbot)是现代化RPA平台,支持零代码部署钉钉AI员工。新手5分钟即可完成配置,实现自动化任务与智能群聊交互。一键部署链接
392 3
|
26天前
|
存储 API 数据库
投稿 | Zvec: 开箱即用、高性能的嵌入式向量数据库
Zvec 是一款开源(Apache 2.0)轻量级嵌入式向量数据库,专为终端侧设计,具备开箱即用、资源可控、极致性能与完整向量能力四大优势,支持标量-向量混合查询、CRUD、崩溃恢复等生产级特性,让端侧RAG如SQLite般简单可靠。(239字)
329 7
|
2天前
|
人工智能 前端开发 Serverless
10 分钟部署 Qwen3!阿里云 FunctionAI 模板实测,成本低至 ¥0.5/小时
通义千问Qwen3正式开源8款混合推理模型,含2款MoE(如Qwen3-235B-A22B)和6款Dense模型(从0.6B到32B),支持119种语言、思考/非思考双模式,在代码、数学等基准测试中表现优异。依托阿里云函数计算FC与FunctionAI平台,提供vLLM/SGLang/Ollama等多种部署方式,开箱即用。
167 30
|
1天前
|
人工智能 机器人 数据挖掘
OpenClaw(Clawdbot)阿里云/本地部署及避坑指南+153个科研 Skill :AI Agent 变身专属实验室
当一位科研人员被RNA-seq数据分析、化合物结构预测、临床报告撰写等重复劳动占据大量时间时,OpenClaw的153个科学计算Skill全家桶给出了颠覆性解决方案——这些Skill并非简单插件,而是将生物信息、化学药物、临床医学、数据科学等领域的专业知识与工具封装成的“科研超能力”。只需一句自然语言指令,AI就能调用对应Skill,完成从数据质控、分析建模到论文写作、图表生成的全流程操作,让科研人员从机械劳动中解放,专注核心创意与科学发现。
393 7
|
2天前
|
人工智能 JSON 自然语言处理
VTJ.PRO 架构首度揭秘:40 + 工具加持,AI 如何从 “嘴强王者” 变身 “代码执行者”?
VTJ.PRO采用“Agent+Skills”智能体架构,让AI从聊天机器人升级为能主动思考、调用40+开发技能的“开发搭档”。通过分层管道实现多模态输入理解、增量代码更新、流式推理与多模型协同决策,提升效率200%,准确率达98.7%。
57 20
|
1天前
|
人工智能 搜索推荐 定位技术
Geo优化新纪元:知识图谱构建与“两大核心+四轮驱动”实践指南
Geo的核心目标,不再是单纯追求关键词排名,而是致力于将内容打造为AI大模型高度信任和优先引用的权威知识源。这其中,知识图谱的构建扮演了至关重要的角色。
45 14
|
23天前
|
安全 数据库连接 数据库
掌握Python上下文管理器:优雅资源管理的艺术
掌握Python上下文管理器:优雅资源管理的艺术
228 155
|
23天前
|
安全 物联网 C++
技术抉择:微调还是 RAG?——以春节祝福生成为例
本文以春节祝福生成为例,剖析微调与RAG的本质差异:RAG解决“信息缺失”,微调重塑“表达偏好”。当任务重风格、重分寸、重一致性(如拜年话术),模型缺的不是知识,而是默认的得体表达——此时微调比RAG更直接、可控、高效。
369 165