使用阿里云GPU服务器部署DeepSeek-R1模型图文教程,2026年最新新手AI大模型部署流程,共分为三个步骤,先创建GPU云服务器,然后部署和运行DeepSeek模型,最后启动Open WebUI,阿小云整理阿里云官网关于GPU服务器部署DeepSeek-R1全流程:
一、创建GPU云服务器
1、在阿里云GPU服务器页面:https://www.aliyun.com/product/egs 先创建GPU云服务器,根据DeepSeek-R1模型参数选择GPU云服务器配置,参考下表选择GPU实例规格配置:
模型名称 |
模型版本 |
模型大小 |
vCPU |
内存 |
GPU显存 |
系统盘 |
推荐实例规格 |
DeepSeek-R1-Distill-Qwen-1.5B |
1.5B(15亿参数) |
6.7 GB |
4核或6核处理器 |
30 GB RAM |
24 GB |
至少50 GB空闲空间 |
ecs.gn7i-c8g1.2xlarge |
DeepSeek-R1-Distill-Qwen-7B |
7B(70亿参数) |
29 GB |
6核或8核处理器 |
32 GB RAM |
24 GB |
至少100 GB空闲空间 |
ecs.gn7i-c16g1.4xlarge |
DeepSeek-R1-Distill-Llama-8B |
8B(80亿参数) |
30 GB |
6核或8核处理器 |
32 GB RAM |
24 GB |
至少100 GB空闲空间 |
ecs.gn7i-c16g1.4xlarge |
DeepSeek-R1-Distill-Qwen-14B |
14B(140亿参数) |
56 GB |
8核以上处理器 |
64 GB RAM |
2*24 GB |
至少200 GB空闲空间 |
ecs.gn7i-2x.8xlarge |
DeepSeek-R1-Distill-Qwen-32B |
32B(320亿参数) |
123 GB |
8核以上处理器 |
128 GB RAM |
4*24 GB |
至少500 GB空闲空间 |
ecs.gn7i-4x.8xlarge |
DeepSeek-R1-Distill-Llama-70B |
70B(700亿参数) |
263 GB |
12核以上处理器 |
128 GB RAM |
8*24 GB |
至少1 TB空闲空间 |
ecs.gn7i-8x.16xlarge |
- 镜像:选择公共镜像,本文以Alibaba Cloud Linux 3.2104 LTS 64位版本的镜像为例,详细参考:https://www.aliyun.com/product/alinux
在GPU实例上部署DeepSeek-V3/R1模型,需要提前在该实例上安装GPU驱动且驱动版本应为550及以上版本,建议您通过ECS控制台购买GPU实例时,同步选中安装GPU驱动。实例创建完成后,会自动安装Tesla驱动、CUDA、cuDNN库等,相比手动安装方式更快捷。
- 系统盘:参考估算模型所需配置,设置满足对应模型版本的系统盘大小规格,建议系统盘大小设置1 TiB以上。
- 公网IP:选中分配公网IPv4地址,带宽计费方式选择按使用流量,建议带宽峰值选择100 Mbps,以加快模型下载速度。
- 安全组:开放22和8080端口。
2、安装Docker,具体教程参考:安装并使用Docker和Docker Compose。
3、安装NVIDIA容器工具包。
Alibaba Cloud Linux/CentOS:
#配置生产存储库 curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \ sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo #安装 NVIDIA Container Toolkit 软件包 sudo yum install -y nvidia-container-toolkit #重启docker sudo systemctl restart docker
Ubuntu/Debian:
#配置生产存储库 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list #从存储库更新软件包列表 sudo apt-get update #安装 NVIDIA Container Toolkit 软件包 sudo apt-get install -y nvidia-container-toolkit #重启docker sudo systemctl restart docker
4、(可选)购买数据盘并完成挂载。
由于模型较大,如果您的系统盘容量不足,建议您单独购买数据盘用于存储下载的模型。建议挂载点以/mnt为例。具体操作,请参见挂载数据盘。
步骤二:部署和运行DeepSeek模型
1、执行以下命令,拉取推理镜像。
sudo docker pull egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04
2、下载模型文件
# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-R1-Distill-Qwen-7B为例 MODEL_NAME="DeepSeek-R1-Distill-Qwen-7B" # 设置本地存储路径。确保该路径有足够的空间来存放模型文件(建议预留模型大小的1.5倍空间),此处以/mnt/7B为例 LOCAL_SAVE_PATH="/mnt/7B" # 如果/mnt/7B目录不存在,则创建它 sudo mkdir -p ${LOCAL_SAVE_PATH} # 确保当前用户对该目录有写权限,根据实际情况调整权限 sudo chmod ugo+rw ${LOCAL_SAVE_PATH} # 启动下载,下载完成后自动销毁 sudo docker run -d -t --network=host --rm --name download \ -v ${LOCAL_SAVE_PATH}:/data \ egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04 \ /bin/bash -c "git-lfs clone https://www.modelscope.cn/models/deepseek-ai/${MODEL_NAME}.git /data"
3、执行以下命令,实时监控下载进度,等待下载结束。
sudo docker logs -f download
下载模型耗时较长,请您耐心等待。当下载任务完成后,会停止输出新的日志,您可以随时按下Ctrl+C退出,这不会影响容器的运行,即使退出终端也不会中断下载。
4、启动模型推理服务。
# 定义要下载的模型名称。MODEL_NAME需要访问Modelscope选择模型,在模型详情页获取名称,脚本以DeepSeek-R1-Distill-Qwen-7B为例 MODEL_NAME="DeepSeek-R1-Distill-Qwen-7B" # 设置本地存储路径。确保该路径有足够的空间来存放模型文件(建议预留模型大小的1.5倍空间),此处以/mnt/7B为例 LOCAL_SAVE_PATH="/mnt/7B" # 定义服务运行时监听的端口号。可以根据实际需求进行调整,默认使用30000端口 PORT="30000" # 定义使用的GPU数量。这取决于实例上可用的GPU数量,可以通过nvidia-smi -L命令查询 # 这里假设使用4个GPU TENSOR_PARALLEL_SIZE="4" # 创建目录并设置权限。如果目录不存在,则创建它,并确保当前用户对该目录有读写权限。 sudo mkdir -p ${LOCAL_SAVE_PATH} sudo chmod ugo+rw ${LOCAL_SAVE_PATH} # 启动Docker容器并运行服务 sudo docker run -d -t --network=host --gpus all \ --privileged \ --ipc=host \ --name ${MODEL_NAME} \ -v ${LOCAL_SAVE_PATH}:/data \ egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.6.4.post1-pytorch2.5.1-cuda12.4-ubuntu22.04 \ /bin/bash -c "vllm serve /data \ --port ${PORT} \ --served-model-name ${MODEL_NAME} \ --tensor-parallel-size ${TENSOR_PARALLEL_SIZE} \ --max-model-len=16384 \ --enforce-eager \ --dtype=half"
5、运行以下命令,检查服务是否正常启动。
sudo docker logs ${MODEL_NAME}
在日志输出中寻找类似以下的消息:
INFO: Uvicorn running on http://0.0.0.0:30000 (Press CTRL+C to quit)
步骤三:启动Open WebUI
1、执行以下命令,拉取基础环境镜像。
sudo docker pull alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1
2、执行以下命令,启动Open WebUI服务。
#设置模型服务地址 OPENAI_API_BASE_URL=http://127.0.0.1:30000/v1 # 创建数据目录,确保数据目录存在并位于/mnt下 sudo mkdir -p /mnt/open-webui-data #启动open-webui服务 sudo docker run -d -t --network=host --name open-webui \ -e ENABLE_OLLAMA_API=False \ -e OPENAI_API_BASE_URL=${OPENAI_API_BASE_URL} \ -e DATA_DIR=/mnt/open-webui-data \ -e HF_HUB_OFFLINE=1 \ -v /mnt/open-webui-data:/mnt/open-webui-data \ alibaba-cloud-linux-3-registry.cn-hangzhou.cr.aliyuncs.com/alinux3/python:3.11.1 \ /bin/bash -c "pip config set global.index-url http://mirrors.cloud.aliyuncs.com/pypi/simple/ && \ pip config set install.trusted-host mirrors.cloud.aliyuncs.com && \ pip install --upgrade pip && \ pip install open-webui==0.5.10 && \ mkdir -p /usr/local/lib/python3.11/site-packages/google/colab && \ open-webui serve"
3、执行以下命令,实时监控下载进度,等待下载结束。
sudo docker logs -f open-webui
在日志输出中寻找类似以下的消息:
INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)
这表示服务已经成功启动并在端口8080上监听。
4、在本地物理机上使用浏览器访问http://<ECS公网IP地址>:8080,首次登录时,请根据提示创建管理员账号。
5、在Open WebUI界面中进行问答测试。