使用阿里云GPU服务器部署DeepSeek-R1模型图文教程,2026年最新新手AI大模型部署流程

简介: 本文介绍2026年最新阿里云GPU服务器部署DeepSeek-R1大模型的全流程,包含创建GPU实例、部署模型及启动Open WebUI三步。涵盖实例配置选择、Docker环境搭建、模型下载与推理服务启动,适合新手快速上手AI大模型部署。

使用阿里云GPU服务器部署DeepSeek-R1模型图文教程,2026年最新新手AI大模型部署流程,共分为三个步骤,先创建GPU云服务器,然后部署和运行DeepSeek模型,最后启动Open WebUI,阿小云整理阿里云官网关于GPU服务器部署DeepSeek-R1全流程:


一、创建GPU云服务器

1、在阿里云GPU服务器页面:https://www.aliyun.com/product/egs  先创建GPU云服务器,根据DeepSeek-R1模型参数选择GPU云服务器配置,参考下表选择GPU实例规格配置:

模型名称

模型版本

模型大小

vCPU

内存

GPU显存

系统盘

推荐实例规格

DeepSeek-R1-Distill-Qwen-1.5B

1.5B(15亿参数)

6.7 GB

4核或6核处理器

30 GB RAM

24 GB

至少50 GB空闲空间

ecs.gn7i-c8g1.2xlarge

DeepSeek-R1-Distill-Qwen-7B

7B(70亿参数)

29 GB

6核或8核处理器

32 GB RAM

24 GB

至少100 GB空闲空间

ecs.gn7i-c16g1.4xlarge

DeepSeek-R1-Distill-Llama-8B

8B(80亿参数)

30 GB

6核或8核处理器

32 GB RAM

24 GB

至少100 GB空闲空间

ecs.gn7i-c16g1.4xlarge

DeepSeek-R1-Distill-Qwen-14B

14B(140亿参数)

56 GB

8核以上处理器

64 GB RAM

2*24 GB

至少200 GB空闲空间

ecs.gn7i-2x.8xlarge

DeepSeek-R1-Distill-Qwen-32B

32B(320亿参数)

123 GB

8核以上处理器

128 GB RAM

4*24 GB

至少500 GB空闲空间

ecs.gn7i-4x.8xlarge

DeepSeek-R1-Distill-Llama-70B

70B(700亿参数)

263 GB

12核以上处理器

128 GB RAM

8*24 GB

至少1 TB空闲空间

ecs.gn7i-8x.16xlarge


  • 镜像:选择公共镜像,本文以Alibaba Cloud Linux 3.2104 LTS 64位版本的镜像为例,详细参考:https://www.aliyun.com/product/alinux
    在GPU实例上部署DeepSeek-V3/R1模型,需要提前在该实例上安装GPU驱动且驱动版本应为550及以上版本,建议您通过ECS控制台购买GPU实例时,同步选中安装GPU驱动。实例创建完成后,会自动安装Tesla驱动、CUDA、cuDNN库等,相比手动安装方式更快捷。
  • 系统盘:参考估算模型所需配置,设置满足对应模型版本的系统盘大小规格,建议系统盘大小设置1 TiB以上。
  • 公网IP:选中分配公网IPv4地址,带宽计费方式选择按使用流量,建议带宽峰值选择100 Mbps,以加快模型下载速度。
  • 安全组:开放228080端口。


2、安装Docker,具体教程参考:安装并使用Docker和Docker Compose

3、安装NVIDIA容器工具包。

Alibaba Cloud Linux/CentOS:

#配置生产存储库
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
  sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
#安装 NVIDIA Container Toolkit 软件包
sudo yum install -y nvidia-container-toolkit
#重启docker
sudo systemctl restart docker

Ubuntu/Debian:

#配置生产存储库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
#从存储库更新软件包列表
sudo apt-get update
#安装 NVIDIA Container Toolkit 软件包
sudo apt-get install -y nvidia-container-toolkit
#重启docker
sudo systemctl restart docker

4、(可选)购买数据盘并完成挂载。

由于模型较大,如果您的系统盘容量不足,建议您单独购买数据盘用于存储下载的模型。建议挂载点以/mnt为例。具体操作,请参见挂载数据盘


步骤二:部署和运行DeepSeek模型

1、执行以下命令,拉取推理镜像。

sudo docker pull egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04

2、下载模型文件

# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-R1-Distill-Qwen-7B为例
MODEL_NAME="DeepSeek-R1-Distill-Qwen-7B"
# 设置本地存储路径。确保该路径有足够的空间来存放模型文件(建议预留模型大小的1.5倍空间),此处以/mnt/7B为例
LOCAL_SAVE_PATH="/mnt/7B"

# 如果/mnt/7B目录不存在,则创建它
sudo mkdir -p ${LOCAL_SAVE_PATH}
# 确保当前用户对该目录有写权限,根据实际情况调整权限
sudo chmod ugo+rw ${LOCAL_SAVE_PATH}

# 启动下载,下载完成后自动销毁
sudo docker run -d -t --network=host --rm --name download \
-v ${LOCAL_SAVE_PATH}:/data \
egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04 \
/bin/bash -c "git-lfs clone https://www.modelscope.cn/models/deepseek-ai/${MODEL_NAME}.git /data"

3、执行以下命令,实时监控下载进度,等待下载结束。

sudo docker logs -f download

下载模型耗时较长,请您耐心等待。当下载任务完成后,会停止输出新的日志,您可以随时按下Ctrl+C退出,这不会影响容器的运行,即使退出终端也不会中断下载。


4、启动模型推理服务。

# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-R1-Distill-Qwen-7B为例
MODEL_NAME="DeepSeek-R1-Distill-Qwen-7B"
# 设置本地存储路径。确保该路径有足够的空间来存放模型文件(建议预留模型大小的1.5倍空间),此处以/mnt/7B为例
LOCAL_SAVE_PATH="/mnt/7B"

# 定义服务运行时监听的端口号。可以根据实际需求进行调整,默认使用30000端口
PORT="30000"

# 定义使用的GPU数量。这取决于实例上可用的GPU数量,可以通过nvidia-smi -L命令查询
# 这里假设使用4个GPU
TENSOR_PARALLEL_SIZE="4"

# 创建目录并设置权限。如果目录不存在,则创建它,并确保当前用户对该目录有读写权限。
sudo mkdir -p ${LOCAL_SAVE_PATH}
sudo chmod ugo+rw ${LOCAL_SAVE_PATH}

# 启动Docker容器并运行服务
sudo docker run -d -t --network=host --gpus all \
    --privileged \
    --ipc=host \
    --name ${MODEL_NAME} \
    -v ${LOCAL_SAVE_PATH}:/data \
    egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04 \
    /bin/bash -c "vllm serve /data \
        --port ${PORT} \
        --served-model-name ${MODEL_NAME} \
        --tensor-parallel-size ${TENSOR_PARALLEL_SIZE} \
        --max-model-len=16384 \
        --enforce-eager \
        --dtype=half"

5、运行以下命令,检查服务是否正常启动。

sudo docker logs ${MODEL_NAME}

在日志输出中寻找类似以下的消息:

INFO:     Uvicorn running on http://0.0.0.0:30000 (Press CTRL+C to quit)

步骤三:启动Open WebUI

1、执行以下命令,拉取基础环境镜像。

sudo docker pull alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1

2、执行以下命令,启动Open WebUI服务。

#设置模型服务地址
OPENAI_API_BASE_URL=http://127.0.0.1:30000/v1

# 创建数据目录,确保数据目录存在并位于/mnt下
sudo mkdir -p /mnt/open-webui-data

#启动open-webui服务
sudo docker run -d -t --network=host --name open-webui \
-e ENABLE_OLLAMA_API=False \
-e OPENAI_API_BASE_URL=${OPENAI_API_BASE_URL} \
-e DATA_DIR=/mnt/open-webui-data \
-e HF_HUB_OFFLINE=1 \
-v /mnt/open-webui-data:/mnt/open-webui-data \
alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1 \
/bin/bash -c "pip config set global.index-url http://mirrors.cloud.aliyuncs.com/pypi/simple/ && \
pip config set install.trusted-host mirrors.cloud.aliyuncs.com && \
pip install --upgrade pip && \
pip install open-webui==0.5.10 && \
mkdir -p /usr/local/lib/python3.11/site-packages/google/colab && \
open-webui serve"

3、执行以下命令,实时监控下载进度,等待下载结束。

sudo docker logs -f open-webui

在日志输出中寻找类似以下的消息:

INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

这表示服务已经成功启动并在端口8080上监听。


4、在本地物理机上使用浏览器访问http://<ECS公网IP地址>:8080,首次登录时,请根据提示创建管理员账号。

5、在Open WebUI界面中进行问答测试。



相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
13天前
|
Ubuntu Linux 算法框架/工具
超详细!OFA 视觉问答(VQA)模型部署教学(避坑完整版)
本文详解OFA视觉问答(VQA)模型在ModelScope平台的完整部署教程:涵盖Linux环境搭建、Miniconda虚拟环境配置、严格匹配依赖版本(transformers 4.48.3等)、禁用自动依赖覆盖、输入格式规范及避坑指南(含5类高频问题的现象+原因+解法),附可直接运行的Python脚本,新手友好,开箱即用。
210 15
|
25天前
|
数据采集 人工智能 IDE
告别碎片化日志:一套方案采集所有主流 AI 编程工具
本文介绍了一套基于MCP架构的轻量化、多AI工具代码采集方案,支持CLI、IDE等多类工具,实现用户无感、可扩展的数据采集,已对接Aone日志平台,助力AI代码采纳率分析与研发效能提升。
404 46
告别碎片化日志:一套方案采集所有主流 AI 编程工具
|
15天前
|
数据采集 人工智能 自动驾驶
烦透了AI焦虑?读懂智源2026报告,抓住3个真机会
写完这篇文章我思考了很久,当AI越来越强大,我们作为人类到底还有什么独特的价值? 我的答案是:不是计算能力,而是意义创造。
|
25天前
|
弹性计算 网络安全 异构计算
使用阿里云GPU服务器部署Qwen3-235B-A22B推理模型,基于ecs.ebmgn8v实例规格
本文介绍如何使用阿里云GPU服务器(ecs.ebmgn8v实例,8卡96GB显存)部署Qwen3-235B-A22B大模型,涵盖创建VPC、安全组、GPU实例、环境配置、模型下载、部署及推理测试全流程,费用约290元/小时。
|
27天前
|
移动开发 小程序 JavaScript
【RuoYi-SpringBoot3-UniApp】:一套代码,多端运行的移动端开发方案
RuoYi-SpringBoot3-UniApp 是基于 Vue3 与 UniApp 的跨平台移动端解决方案,支持一套代码编译到小程序、App、H5 和桌面端。集成 Pinia 状态管理、JWT 认证、权限路由、z-paging 分页、mp-html 富文本等主流功能,开箱即用,显著降低多端开发与维护成本,助力高效构建企业级应用。
264 6
|
5天前
|
人工智能 弹性计算 自然语言处理
2026年阿里云 OpenClaw(Clawdbot)一键部署教程(图文版)
2026年AI Agent爆发在即,OpenClaw(原Clawdbot/Moltbot)作为开源、本地优先的AI智能代理平台,支持7×24小时私人助理部署。它不止聊天,更能执行文件处理、日程管理、跨平台自动化等真实任务,兼容Qwen/GPT/Claude等多模型,是您的全能“数字员工”。
173 17
|
25天前
|
数据采集 人工智能 自然语言处理
一文读懂LLM微调:新手必知的原理、误区与场景化应用方案
本文深入浅出讲解LLM微调原理与实操,涵盖新手必知的核心概念、常见误区及场景化应用方案。通过类比“学霸特训”,解析微调与提示词区别,推荐轻量级LoRA方法,提供从数据准备、环境搭建到模型训练、效果评估的完整步骤,并附实用工具与避坑指南,助力AI初学者快速掌握定制化模型技能,实现个人或企业级AI应用落地。
|
11天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4953 22
|
27天前
|
弹性计算 人工智能 小程序
阿里云服务器多少钱一年?2026年最新曝光,包括轻量、ECS和GPU云服务器价格清单
阿里云2026年服务器价格揭晓:轻量应用服务器低至¥38/年,ECS云服务器新购续费同价,GPU服务器支持大模型训练。涵盖个人建站、企业应用与AI计算,三类机型全解析,助你选型不花冤枉钱。
207 3
|
27天前
|
人工智能 弹性计算 运维
探秘 AgentRun丨为什么应该把 LangChain 等框架部署到函数计算 AgentRun
阿里云函数计算 AgentRun,专为 AI Agent 打造的一站式 Serverless 基础设施。无缝集成 LangChain、AgentScope 等主流框架,零代码改造即可享受弹性伸缩、企业级沙箱、模型高可用与全链路可观测能力,助力 Agent 高效、安全、低成本地落地生产。
321 48