阿里云服务器一键部署DeepSeek教程,新手傻瓜式学习流程

简介: 阿里云函数计算FC一键部署DeepSeek-R1蒸馏模型教程,零代码、傻瓜式操作。支持Qwen/LLaMA系列1.5B-32B多种规格,含Transformer/Ollama双框架部署方案,部署后可对话体验或API调用。

阿里云服务器一键部署DeepSeek教程,新手傻瓜式学习流程,0代码:一键部署DeepSeek系列模型,基于函数计算FC的Function AI模板安装部署,DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。Function AI提供模型服务、应用模板两种部署方式辅助您部署DeepSeek R1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。本文阿小云分享的是官网模型服务部署DeepSeek的教程,本文涉及云产品为函数计算FC:https://www.aliyun.com/product/fc   如下图:

函数计算FC.png

支持的模型列表

部署方式说明:

Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。

Transformer:由Hugging Face提供的模型推理框架,支持 PyTorch、TensorFlow 等主流深度学习框架的模型部署。

模型

部署方式

最低配置

DeepSeek-R1-Distill-Qwen-1.5B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-7B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

Ollama

Tesla 8GB

DeepSeek-R1-Distill-Qwen-7B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B-GGUF

Ollama

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B-GGUF

Ollama

Ada 48GB

前置准备

本教程所涉及的模型服务其本质是在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取浅休眠(原闲置)预留模式下预置的快照费用,Function AI中的极速模式等同于函数计算的浅休眠(原闲置)预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述

部署说明

本文通过应用模板和模型服务两种方式部署DeepSeeK服务,这两种方式支持的模型列表的是相同的,您可以通过以下任一方式部署DeepSeek蒸馏模型至函数计算。

  • 方式一:应用模板部署:基于Function AI的模板进行一键部署,部署方式简单快捷。但是由于基于模板进行部署,初次部署使用模板默认提供的DeepSeek-R1-Distill-Qwen-7B模型,导致无法自选模型。部署完成后,可在基础配置中更改模型。
  • 方式二:模型服务部署:在部署的时候可以灵活选择模型,但是操作步骤相对较多,使用API形式进行模型调用,接入线上业务应用。


本文阿小云介绍的是使用应用模板部署DeepSeek,在阿里云权益中心:https://www.aliyun.com/benefit  申请个人或企业的上云权益,如下图:

阿里云权益中心.png

方式一:应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏单击Function AI,在Funciton AI页面导航栏,选择项目,然后单击创建项目,选择基于模板创建

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

2. 部署模板

  1. 在搜索栏输入DeepSeek进行搜索,单击基于 DeepSeek-R1 构建AI 聊天助手,进入模板详情页,单击立即部署


  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。说明
  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。


3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。


相关文章
|
9天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
11089 95
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
8天前
|
人工智能 IDE API
2026年国内 Codex 安装教程和使用教程:GPT-5.4 完整指南
Codex已进化为AI编程智能体,不仅能补全代码,更能理解项目、自动重构、执行任务。本文详解国内安装、GPT-5.4接入、cc-switch中转配置及实战开发流程,助你从零掌握“描述需求→AI实现”的新一代工程范式。(239字)
5197 132
|
5天前
|
人工智能 自然语言处理 供应链
【最新】阿里云ClawHub Skill扫描:3万个AI Agent技能中的安全度量
阿里云扫描3万+AI Skill,发现AI检测引擎可识别80%+威胁,远高于传统引擎。
1366 3
|
7天前
|
人工智能 并行计算 Linux
本地私有化AI助手搭建指南:Ollama+Qwen3.5-27B+OpenClaw阿里云/本地部署流程
本文提供的全流程方案,从Ollama安装、Qwen3.5-27B部署,到OpenClaw全平台安装与模型对接,再到RTX 4090专属优化,覆盖了搭建过程的每一个关键环节,所有代码命令可直接复制执行。使用过程中,建议优先使用本地模型保障隐私,按需切换云端模型补充功能,同时注重显卡温度与显存占用监控,确保系统稳定运行。
1788 5
|
15天前
|
人工智能 JavaScript API
解放双手!OpenClaw Agent Browser全攻略(阿里云+本地部署+免费API+网页自动化场景落地)
“让AI聊聊天、写代码不难,难的是让它自己打开网页、填表单、查数据”——2026年,无数OpenClaw用户被这个痛点困扰。参考文章直击核心:当AI只能“纸上谈兵”,无法实际操控浏览器,就永远成不了真正的“数字员工”。而Agent Browser技能的出现,彻底打破了这一壁垒——它给OpenClaw装上“上网的手和眼睛”,让AI能像真人一样打开网页、点击按钮、填写表单、提取数据,24小时不间断完成网页自动化任务。
2970 6

热门文章

最新文章