使用阿里云GPU服务器部署DeepSeek满血版模型——2026年最新教程

简介: 本文介绍如何在阿里云ebmgn8v GPU实例上,使用SGLang部署671B参数的开源MoE模型DeepSeek-V3/R1,实现开箱即用的高效推理服务,涵盖环境配置、模型下载与推理测试全流程。

DeepSeek-V3/R1是拥有671B参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用SGLang作为DeepSeek模型的推理框架,在一台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。阿小云分享阿里云官方文档关于GPU单机实例部署DeepSeek满血版教程:

核心工具介绍

  • NVIDIA GPU驱动:用来驱动NVIDIA GPU的程序,本文以Driver版本 550.127.08为例。
  • SGLang:是一个专为大型语言模型(LLM)和视觉语言模型(VLM)设计的高效服务框架,结合前端结构化编程语言与优化的后端推理引擎,能够实现复杂LLM工作负载的加速,本文以其v0.4.2.post1版本为例。

操作步骤

步骤一:准备环境

1、创建GPU云服务器:

创建GPU实例并正确安装驱动。GPU官方页面:https://www.aliyun.com/product/egs 如下图:

gpu.png

关键参数说明如下。

  • 镜像:选择公共镜像,本文以Alibaba Cloud Linux 3.2104 LTS 64位版本的镜像为例。
    在GPU实例上部署DeepSeek-V3/R1模型,需要提前在该实例上安装GPU驱动且驱动版本应为550及以上版本,建议您通过ECS控制台购买GPU实例时,同步选中安装GPU驱动。实例创建完成后,会自动安装Tesla驱动、CUDA、cuDNN库等,相比手动安装方式更快捷。

  • 系统盘:建议系统盘大小设置200 GiB以上。
  • 数据盘:由于模型体积较大,DeepSeek-R1模型和DeepSeek-V3模型的文件大小分别约为1.3 TiB。建议数据盘的大小预留为模型大小的1.5倍。因此,建议您单独购买用于存储下载模型的数据盘,推荐选择2 TiB以上的数据盘。
  • 公网IP:选中分配公网IPv4地址,带宽计费方式选择按使用流量,建议带宽峰值选择100 Mbps,以加快模型下载速度。
  • 安全组:开放22端口。


2、安装Docker

远程连接GPU实例,执行以下命令,安装Docker环境。此处以Alibaba Cloud Linux 3系统为例:

#添加Docker软件包源
sudo wget -O /etc/yum.repos.d/docker-ce.repo http://mirrors.cloud.aliyuncs.com/docker-ce/linux/centos/docker-ce.repo
sudo sed -i 's|https://mirrors.aliyun.com|http://mirrors.cloud.aliyuncs.com|g' /etc/yum.repos.d/docker-ce.repo
#Alibaba Cloud Linux3专用的dnf源兼容插件
sudo dnf -y install dnf-plugin-releasever-adapter --repo alinux3-plus
#安装Docker社区版本,容器运行时containerd.io,以及Docker构建和Compose插件
sudo dnf -y install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
#启动Docker
sudo systemctl start docker
#设置Docker守护进程在系统启动时自动启动
sudo systemctl enable docker

启动Docker并设置开机自启。

#启动Docker
sudo systemctl start docker
#设置Docker守护进程在系统启动时自动启动
sudo systemctl enable docker

3、安装NVIDIA容器工具包

Alibaba Cloud Linux/CentOS安装NVIDIA工具包:

#配置生产存储库
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
  sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
#安装 NVIDIA Container Toolkit 软件包
sudo yum install -y nvidia-container-toolkit
#重启docker
sudo systemctl restart docker

执行以下命令,查看Docker是否已启动。

sudo systemctl status docker

如下图回显所示,表示Docker已启动。


4、初始化及挂载数据盘

如果购买GPU实例时选择了添加数据盘,则您需要初始化数据盘,并将数据盘挂载到/mnt目录。

  1. 执行lsblk命令,查看数据盘的信息。

  2. 执行以下命令,创建并挂载文件系统至/mnt目录下。
sudo mkfs.ext4 /dev/vdb
sudo mount /dev/vdb /mnt


  1. 执行lsblk命令,查看数据盘已挂载至/mnt目录下。


注意:

如果购买GPU实例时未选择添加数据盘,您需要购买数据盘并完成挂载。
由于模型体积较大,DeepSeek-R1模型和DeepSeek-V3模型的文件大小分别约为1.3 TiB。建议数据盘的大小预留为模型大小的1.5倍。因此,建议您单独购买用于存储下载模型的数据盘,推荐选择2 TiB以上的数据盘,并以/mnt作为挂载点。


步骤二:部署和运行DeepSeek模型

1、执行以下命令,拉取推理镜像。

sudo docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:preview-25.02-vllm0.6.4.post1-sglang0.4.2.post1-pytorch2.5-cuda12.4-20250207

2、下载模型文件,您可以访问阿里云魔搭社区Modelscope选择模型,在模型详情页获取名称。

# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-V3为例
MODEL_NAME="DeepSeek-V3"
# 设置本地存储路径。确保该路径有足够的空间来存放模型文件(建议预留模型大小的1.5倍空间),此处以/mnt/V3为例
LOCAL_SAVE_PATH="/mnt/V3"

# 如果/mnt/V3目录不存在,则创建它
sudo mkdir -p ${LOCAL_SAVE_PATH}
# 确保当前用户对该目录有写权限,根据实际情况调整权限
sudo chmod ugo+rw ${LOCAL_SAVE_PATH}

# 启动下载,下载完成后自动销毁
sudo docker run -d -t --network=host --rm --name download \
-v ${LOCAL_SAVE_PATH}:/data \
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:preview-25.02-vllm0.6.4.post1-sglang0.4.2.post1-pytorch2.5-cuda12.4-20250207 \
/bin/bash -c "git-lfs clone https://www.modelscope.cn/models/deepseek-ai/${MODEL_NAME}.git /data"

3、执行以下命令,实时监控下载进度,等待下载结束。

sudo docker logs -f download

下载模型耗时较长,请您耐心等待。当下载任务完成后,会停止输出新的日志,您可以随时按下Ctrl+C退出,这不会影响容器的运行,即使退出终端也不会中断下载。


4、启动模型推理服务。

# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-V3为例
MODEL_NAME="DeepSeek-V3"
# 设置本地存储路径。确保该路径有足够的空间来存放模型文件,此处以/mnt/V3为例
LOCAL_SAVE_PATH="/mnt/V3"

# 定义服务运行时监听的端口号。可以根据实际需求进行调整,默认使用30000端口
PORT="30000"

# 定义使用的GPU数量。这取决于实例上可用的GPU数量,可以通过nvidia-smi -L命令查询
# 这里假设使用8个GPU
TENSOR_PARALLEL_SIZE="8"

# 确保当前用户对该目录有读写权限,根据实际情况调整权限
sudo chmod ugo+rw ${LOCAL_SAVE_PATH}

# 启动Docker容器并运行服务
sudo docker run -d -t --network=host --gpus all \
    --privileged \
    --ipc=host \
    --cap-add=SYS_PTRACE \
    --name ${MODEL_NAME} \
    --ulimit memlock=-1 \
    --ulimit stack=67108864 \
    -v ${LOCAL_SAVE_PATH}:/data \
    egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:preview-25.02-vllm0.6.4.post1-sglang0.4.2.post1-pytorch2.5-cuda12.4-20250207 \
    /bin/bash -c "python3 -m sglang.launch_server \
        --port ${PORT} \
        --model-path /data \
        --mem-fraction-static 0.8 \
        --tp ${TENSOR_PARALLEL_SIZE} \
        --trust-remote-code"

运行以下命令,检查服务是否正常启动。

sudo docker logs ${MODEL_NAME}

在日志输出中寻找类似以下的消息,表示服务已经成功启动并在端口30000上监听。

INFO:     Uvicorn running on http://0.0.0.0:30000 (Press CTRL+C to quit)

步骤三:推理测试验证

执行以下命令,发送推理请求并验证模型的推理结果。

curl http://localhost:30000/generate \
 -H "Content-Type: application/json" \
 -d '{
  "text": "deepseek中有几个e?",
  "sampling_params": {
  "max_new_tokens": 3000,
  "temperature": 0
 }
}'



相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
25天前
|
弹性计算 网络安全 异构计算
使用阿里云GPU服务器部署Qwen3-235B-A22B推理模型,基于ecs.ebmgn8v实例规格
本文介绍如何使用阿里云GPU服务器(ecs.ebmgn8v实例,8卡96GB显存)部署Qwen3-235B-A22B大模型,涵盖创建VPC、安全组、GPU实例、环境配置、模型下载、部署及推理测试全流程,费用约290元/小时。
|
19天前
|
云安全 安全 Cloud Native
阿里云智能云原生应用保护平台CNAPP(原安全中心)详解:费用价格、功能优势及问题解答FAQ
阿里云全新升级智能云原生应用保护平台(CNAPP),融合CWPP、CSPM、CIEM、CTDR四大能力,提供覆盖“事前-事中-事后”的全链路安全防护。支持多云纳管、自动威胁响应与合规检查,助力企业实现安全左移、风险可视、响应自动化。
|
1月前
|
人工智能 自然语言处理 API
数据合成篇|多轮ToolUse数据合成打造更可靠的AI导购助手
本文提出一种面向租赁导购场景的工具调用(Tool Use)训练数据合成方案,以支付宝芝麻租赁助理“小不懂”为例,通过“导演-演员”式多智能体框架生成拟真多轮对话。结合话题路径引导与动态角色交互,实现高质量、可扩展的合成数据生产,并构建“数据飞轮”推动模型持续优化。实验表明,该方法显著提升模型在复杂任务中的工具调用准确率与多轮理解能力。
298 43
数据合成篇|多轮ToolUse数据合成打造更可靠的AI导购助手
|
25天前
|
人工智能 安全 调度
AI工程vs传统工程 —「道法术」中的变与不变
本文从“道、法、术”三个层面对比AI工程与传统软件工程的异同,指出AI工程并非推倒重来,而是在传统工程坚实基础上,为应对大模型带来的不确定性(如概率性输出、幻觉、高延迟等)所进行的架构升级:在“道”上,从追求绝对正确转向管理概率预期;在“法”上,延续分层解耦、高可用等原则,但建模重心转向上下文工程与不确定性边界控制;在“术”上,融合传统工程基本功与AI新工具(如Context Engineering、轨迹可视化、多维评估体系),最终以确定性架构驾驭不确定性智能,实现可靠价值交付。
318 41
AI工程vs传统工程 —「道法术」中的变与不变
|
21天前
|
存储 运维 安全
阿里云目前活动内云服务器可以买3年吗?可选实例规格、配置及价格参考
在目前阿里云的活动中,经济型e实例支持3年购买,配置涵盖2核4G、4核8G等,例如2核4G 3年1499.40元起,4核8G 3年3249.00元起。采用Intel Xeon Platinum处理器,支持多种处理器内存配比,搭载ESSD Entry云盘,适配中小型网站、开发测试、轻量级应用等场景。
|
4天前
|
人工智能 自然语言处理 机器人
阿里云Clawdbot(OpenClaw)部署保姆级教程:接入微信/飞书/钉钉/QQ实现自动化运行
OpenClaw(前身为Clawdbot、Moltbot)是一款具备自然语言理解、任务自动化执行与多工具集成能力的开源AI代理工具,核心价值在于通过日常沟通式的指令,完成文件处理、日程管理、信息提取、团队协作同步等实操任务,彻底摆脱重复手工劳动。2026年,阿里云针对这款热门工具推出专属一键部署方案,通过预置优化镜像,将原本复杂的环境配置、依赖安装等步骤全部简化,无需专业编程基础,零基础用户也能在10分钟内完成部署,同时支持无缝接入微信、飞书、钉钉、QQ四大主流通讯工具,实现多场景自动化运行。
902 15
|
14天前
|
机器学习/深度学习 人工智能 计算机视觉
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
本文介绍了一种在YOLO26目标检测模型中引入高效解码器模块EMCAD的创新方法,以提升模型在资源受限场景下的性能与效率。EMCAD由多个模块构成,其中核心的EUCB(高效上卷积块)通过上采样、深度可分离卷积、激活归一化和通道调整等操作,兼顾了特征质量与计算成本。实验结果显示,该模块在显著减少参数与FLOPs的同时仍具备优异性能。文章还提供了完整的YOLO26模型集成流程、配置和训练实战。
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
|
14天前
|
机器学习/深度学习 计算机视觉 网络架构
YOLO26改进 - 注意力机制 |融合HCF-Net维度感知选择性整合模块DASI 增强小目标显著性
本文介绍将HCF-Net中的维度感知选择性融合(DASI)模块集成至YOLO26检测头,通过通道分区与Sigmoid自适应加权,融合高/低维及当前层特征,显著提升红外小目标检测精度,在SIRST数据集上超越主流方法。(239字)
|
27天前
|
人工智能 弹性计算 运维
探秘 AgentRun丨为什么应该把 LangChain 等框架部署到函数计算 AgentRun
阿里云函数计算 AgentRun,专为 AI Agent 打造的一站式 Serverless 基础设施。无缝集成 LangChain、AgentScope 等主流框架,零代码改造即可享受弹性伸缩、企业级沙箱、模型高可用与全链路可观测能力,助力 Agent 高效、安全、低成本地落地生产。
320 48