DeepSeek集群版一键部署

简介: 本文介绍如何通过阿里云计算巢一键部署DeepSeek集群版,支持弹性扩缩容。DeepSeek-R1是2025年发布的开源大模型,性能与OpenAI-o1相当。集成Ollama和Open WebUI,用户可通过Web界面管理大模型。计算巢基于阿里云ACK和Knative架构,存储采用NAS,网关使用Kourier,默认拉取deepseek-r1:7B模型。计费涉及GPU规格、节点数量、磁盘容量和公网带宽。RAM账号需具备ECS、VPC等权限。部署流程简单,用户可快速启动并使用服务,支持公网和私网访问,提供API接口及进阶教程,如添加用户、下载其他模型和配置弹性扩缩容。

本文介绍如何通过计算巢一键部署DeepSeek集群版

整体架构

DeepSeek-R1简介

DeepSeek-R1是深度求索(DeepSeek)于2025年1月20日发布的开源人工智能大型语言模型。在数学、代码及推理任务上的表现与 OpenAI-o1 旗鼓相当。 DeepSeek-R1(7b)是 DeepSeek R1 的中端版本。其设计目标是将 DeepSeek R1 的强大推理能力转移到更小的模型中,以提高计算效率和部署灵活性。

Open WebUI和Ollama简介

Open WebUI 是一个功能丰富且用户友好的自托管 Web 用户界面(WebUI),它被设计用于与大型语言模型(LLMs)进行交互,特别是那些由 Ollama 或与 OpenAI API 兼容的服务所支持的模型。

Ollama 是一个开源项目,其主要目标是简化大型语言模型(LLMs)的部署和运行流程,使得用户能够在本地机器或私有服务器上轻松运行这些模型。

Open WebUI和Ollama做了集成,可以轻松在web界面上管理大模型,本服务通过Ollama运行DeepSeek-R1模型,您可以在Open WebUI中直接选择DeepSeek-R1模型进行对话。

集群版部署说明

通过阿里云计算巢服务,可以一键部署DeepSeek ACK集群版并支持弹性扩缩容,也可以部署单机版Ollama+OpenWebUI DeepSeek服务,关于阿里云计算巢可以查看计算巢帮助文档
本服务基于阿里云ACK,利用Knative开源架构,实现对Ollama与OpenWebUI的部署,其中存储采用了NAS,Knative网关采用Kourier,服务默认会拉取deepseek-r1:7B模型。
Knative是一款基于Kubernetes集群的开源Serverless框架,负责管理Serverless工作负载,提供了应用部署、多版本管理等能力,且支持强大灵活的扩缩容能力。详情请参考:Knative文档

计费说明

DeepSeek集群版在阿里云上的费用主要涉及:

  • 所选GPU云服务器的规格
  • 节点数量
  • 磁盘容量
  • 公网带宽
    计费方式:按量付费(小时)或包年包月
    预估费用在创建实例时可实时看到。


RAM账号所需权限

部署Deepseek集群版服务实例,需要对部分阿里云资源进行访问和创建操作。因此您的账号需要包含如下资源的权限。

权限策略名称

备注

AliyunECSFullAccess

管理云服务器服务(ECS)的权限

AliyunVPCFullAccess

管理专有网络(VPC)的权限

AliyunROSFullAccess

管理资源编排服务(ROS)的权限

AliyunCSFullAccess

管理容器服务(CS)的权限

AliyunComputeNestUserFullAccess

管理计算巢服务(ComputeNest)的用户侧权限

AliyunNASFullAccess

管理网络文件系统(NAS)的权限

部署流程

  1. 单击商品链接,点击立即订阅部署。
    进入服务实例部署界面,选择模板:ollama_knative集群版,然后根据界面提示填写参数,可以看到对应询价明细,确认参数后点击下一步:确认订单。(计算巢也支持单机版部署Ollama+OpenWebUI的DeepSeek服务)。
    注意:如果要使用70B的模型,推荐选用64GB以上显存的规格。如果使用671B的模型,只能选择H20的机器。

  2. 点击下一步:确认订单后可以也看到价格预览,随后点击立即部署,等待部署完成。
  3. 等待部署完成后就可以开始使用服务,进入服务实例详情点击OpenWebUIServer访问。

使用说明

公网OpenWebUI地址

  1. 访问概览页的公网OpenWebUI地址,注册管理员账号并登录。
  2. 登录成功后即可使用默认的deepseek-r1:7b模型进行对话。本服务内置了截图所示的几种参数规模的模型,默认使用7B模型,可以选择下面其他参数规模的模型。请根据购买的ECS规格显存大小进行选择,模型参数规模越大需要的显存越高,启动加载、推理会更慢,推理结果越精确智能。
    如果出现选择模型的地方为空,则表示内置模型还在拉取中,可以等待几分钟,或者查看容器日志,可以看到模型拉取进度。

私网API地址

  1. 在和服务器同一VPC内的ECS中访问概览页的私网API地址。访问示例如下:
curl -H "Host: ollama.ollama.svc.cluster.local" http://${PrivateIp}/api/generate -d  '{
  "model": "deepseek-r1:7b",
  "prompt": "你是谁?"
}'

如果提示模型还未下载好则可以等待几分钟重试即可。

  1. 如果想通过公网访问API地址,需要在Kourier页面关闭仅内网访问,便能通过公网访问API地址。关闭方式:
curl -H "Host: ollama.ollama.example.com" http://${GatewayIp}/api/generate -d  '{
  "model": "deepseek-r1:7b",
  "prompt": "你是谁?"
}'
  1. 进入集群管理页面,点击左侧导航栏的应用,点击Knative,进入Knative页面。
  2. 点击服务管理,选择ollama命名空间,然后可以看到ollama服务。
  3. 点击详情,取消勾选仅内部访问,然后点击确定
  4. 默认域名自动修改为 ollama.ollama.example.com。随后通过示例进行访问。其中GatewayIp采用页面基本信息中的访问网关中的ip。


    访问示例如下:

进阶教程

  • 在管理员面板中添加其他用户
  • 通过面板下载其他模型,支持的模型请查看ollama官网:https://ollama.ai/library
     
  • 配置弹性扩缩容  Knativa提供灵活的弹性扩缩容功能,您可以参考该文档设置对应的扩缩容配置:基于流量请求数实现服务自动扩缩容,
     需要注意,目前每个pod分配了一张GPU,当通过扩容得到的pod数量超过GPU数量时将会导致其余pod扩容失败。可以创建一个弹性gpu节点池,当新创建的pod 所需要gpu资源不够,处于pending的时候,通过gpu节点池弹出来新的节点供pod使用,
     具体参考文档:启用节点自动伸缩
相关文章
|
9月前
|
自然语言处理 前端开发 JavaScript
WordPress果果CMS主题
果果CMS是一款基于WordPress开发的超精简主题,安装包仅135.94KB,使用时只需加载少量CSS和JS文件,确保网站访问快速。支持随机文章、标签、分类、广告及友情链接等功能,具备响应式布局、SEO优化、验证码等特性,适合中文网站并兼容多语言插件。新版移除了轮播图功能,优化了核心代码,提升性能表现。
115 4
|
9月前
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
10月前
|
弹性计算 Serverless API
What?废柴, 还在本地部署DeepSeek吗?Are you kidding?
拥有DeepSeek-R1满血版实践教程及评测报告
3548 11
|
10月前
|
并行计算 前端开发 异构计算
告别服务器繁忙,云上部署DeepSeek
本文以 DeepSeek-R1-Distill-Qwen-32B-FP8 为例,向您介绍如何在GPU实例上使用容器来部署量化的 DeepSeek-R1 蒸馏模型。
|
10月前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
5190 13
|
9月前
|
搜索推荐 API SEO
WordPress上 好用的自动别名插件
这款插件支持为文章、页面、标签、分类等设置个性化别名,提升网站在搜索引擎中的排名。主要功能包括:自动别名生成(随机字符串、拼音、英文翻译三种规则),兼容自定义内容类型,可重新生成别名确保一致性。通过简单配置,用户能轻松优化URL结构,提高SEO效果。产品截图展示了设置界面及不同别名类型的使用场景。
185 0
|
8月前
|
小程序 数据挖掘 索引
服务器数据恢复—双循环RAID5多盘掉线,数据恢复有妙招
一台服务器上共有10块硬盘,其中的7块硬盘组建了一组raid5磁盘阵列,另外3块硬盘是没有拔掉的掉线磁盘。 服务器raid5阵列中硬盘出现物理故障掉线,服务器崩溃。
|
10月前
|
人工智能 Serverless API
评测|全网最强🚀!5min部署满血版DeepSeek,零成本,无需编程!
本文介绍了阿里云提供的四种DeepSeek部署方案,包括基于百炼调用满血版API、基于函数计算部署、基于人工智能平台PAI部署和GPU云服务器部署。通过这些方案,用户可以摆脱“服务器繁忙”的困扰,实现快速部署与使用
2795 3
评测|全网最强🚀!5min部署满血版DeepSeek,零成本,无需编程!
|
10月前
|
弹性计算 人工智能 应用服务中间件
一键部署开源DeepSeek并集成到企业微信
DeepSeek近期发布了两款先进AI模型V3和R1,分别适用于通用应用和推理任务。由于官方API流量过大,建议通过阿里云的计算巢进行私有化部署,以确保稳定使用。用户无需编写代码即可完成部署,并可通过AppFlow轻松集成到钉钉、企业微信等渠道。具体步骤包括选择适合的机器资源、配置安全组、创建企业微信应用及连接流,最后完成API接收消息配置和测试应用。整个过程简单快捷,帮助用户快速搭建专属AI服务。
1888 7
一键部署开源DeepSeek并集成到企业微信
|
11月前
|
弹性计算 应用服务中间件 API
AppFlow:无代码部署Dify并集成到企业微信
本文介绍如何通过计算巢AppFlow完成Dify的无代码部署,并将Dify应用集成到企业微信中使用。具体步骤包括:创建企业微信应用,获取AgentID和Secret;使用计算巢AppFlow模板创建连接流,配置Dify和企业微信的鉴权凭证;配置企业微信API接收消息和可信IP;最后测试应用确保正常运行。文中还提供了常见问题的解决方案,如域名主体校验未通过和配置企业可信IP报错等。
2743 11
AppFlow:无代码部署Dify并集成到企业微信