显卡驱动、CUDA、NVIDIA Container Toolkit 内网离线安装教程

简介: 本文详解无网络环境下私有化AI部署的离线环境搭建:涵盖NVIDIA驱动(550.142)、CUDA 12.4、NVIDIA Container Toolkit及Docker的全流程离线安装与配置,适配双RTX 3090服务器,含依赖处理、冲突解决与完整验证步骤。

本文详细介绍在无法联网的服务器上,为私有化部署AI应用完成基础环境搭建的完整流程,包括显卡驱动、CUDA工具包、NVIDIA Container Toolkit及Docker的离线安装。

环境说明

  • 操作系统:
  • 内存: 64GB
  • Python版本: 3.10.12 (推荐) 或 3.12.3
  • 目标CUDA版本: 12.4
  • 目标显卡驱动: NVIDIA-Linux-x86_64-550.142
  • GPU: NVIDIA GeForce RTX 3090 24GB * 2

重要提示: 由于服务器无法访问互联网,所有安装包均需在可联网机器上下载后,传输至内网服务器进行离线安装。

一、NVIDIA 显卡驱动安装

步骤概览

  1. 查看显卡硬件信息
  2. 下载对应版本的驱动安装包
  3. 安装驱动并验证

详细步骤

1. 查看显卡信息

lspci | grep -i nvidia

该命令将输出显卡的PCI设备ID(如24c9),可通过该ID在NVIDIA官网或咨询AI助手查询具体显卡型号。

2. 下载驱动安装包

3. 安装驱动

sudo bash ./NVIDIA-Linux-x86_64-580.119.02.run

4. 验证安装

nvidia-smi

若命令成功执行并显示GPU状态信息,则表明驱动安装成功。

常见问题与解决方案

问题一:缺少系统依赖包
系统安装后需补充基础编译环境依赖。

解决方案(在可联网机器上操作):

# 下载g++及其依赖包
sudo apt-get --download-only install g++
# 下载的包位于 /var/cache/apt/archives/ 目录
cp -r /var/cache/apt/archives/ /data/g++/
#压缩成g++.tar
tar -cvf g++.tar /data/g++
# 将g++.tar传输至内网服务器后解压安装
cd /data/g++
sudo dpkg -i *.deb

gccmake的下载安装方法同上。

问题二:冲突驱动导致安装失败
需卸载系统原有驱动并禁用开源驱动nouveau

解决方案:

# 卸载原有NVIDIA驱动
sudo apt-get remove --purge nvidia*
# 禁用nouveau驱动
sudo vi /etc/modprobe.d/blacklist.conf

在文件末尾添加:
blacklist nouveau
options nouveau modeset=0

更新初始化ramfs并重启:
sudo update-initramfs -u
sudo reboot

二、CUDA 工具包安装

CUDA是NVIDIA推出的并行计算平台和编程模型,允许开发者利用GPU进行通用计算。

安装步骤

1. 下载安装包

2. 安装CUDA

wget https://developer.download.nvidia.com/compute/cuda/12.4.1/local_installers/cuda_12.4.1_550.54.15_linux.run
sudo sh cuda_12.4.1_550.54.15_linux.run

注意: 安装过程中若提示是否安装驱动,若已完成驱动安装,请选择不安装。

3. 配置环境变量

sudo vi ~/.bashrc

在文件末尾添加:

export PATH="/usr/local/cuda-12.4/bin:$PATH"
export LD_LIBRARY_PATH="/usr/local/cuda-12.4/lib64:$LD_LIBRARY_PATH"

使配置生效:

source ~/.bashrc

4. 验证安装

nvcc -V

命令成功输出CUDA编译器版本信息即表示安装成功。


三、NVIDIA Container Toolkit 安装

NVIDIA Container Toolkit是使Docker容器能够使用GPU资源的关键组件。

安装步骤

安装步骤参考官网:https://docs.nvidia.com/datacenter/cloudnative/container-toolkit/latest/install-guide.html

1. 下载安装包

wget https://github.com/NVIDIA/nvidia-container-toolkit/releases/download/v1.17.3/nvidia-container-toolkit_1.17.3_deb_amd64.tar.gz

2. 安装

# 解压安装包
tar -zxvf nvidia-container-toolkit_1.17.3_deb_amd64.tar.gz
# 安装所有deb包
sudo dpkg -i *.deb

至此,GPU相关的基础环境配置已全部完成。


四、Docker 引擎安装

安装步骤

1. 离线下载Docker安装包
在可联网机器上操作:

sudo apt-get --download-only install docker.io
cp -r /var/cache/apt/archives/ /data/docker/
tar -cvf docker-io.tar /data/docker

2. 安装Docker
在内网服务器上操作:

# 解压安装包
tar xvf docker-io.tar
cd /data/docker
# 安装所有deb包
sudo dpkg -i *.deb
# 验证安装
docker version

3. (可选)配置Docker数据目录
如果默认磁盘空间不足,可修改Docker数据存储路径:

sudo mkdir -p /etc/docker
sudo vi /etc/docker/daemon.json

添加以下内容(将/data/docker替换为您的目标路径):

{
   
  "data-root": "/data/docker"
}

重新加载配置:

sudo systemctl daemon-reload

4. 设置Docker服务

# 启动Docker服务并设置开机自启
sudo systemctl enable docker --now

安装验证

完成以上所有步骤后,请依次执行以下命令进行最终验证:

  1. nvidia-smi - 验证显卡驱动
  2. nvcc -V - 验证CUDA工具包
  3. docker version - 验证Docker引擎
  4. docker run --rm --gpus all nvidia/cuda:12.4-base nvidia-smi - 验证Docker容器能否调用GPU

若所有命令均能正常执行,则说明您的内网服务器已具备运行AI应用的完整基础环境。

目录
相关文章
|
8天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
6天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
6514 13
|
4天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
3794 11
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
4天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
4075 5
|
6天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4209 21
|
12天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
7792 12
|
3天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
2544 5
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
4天前
|
人工智能 JavaScript API
零门槛部署本地AI助手:2026年Windows系统OpenClaw(原Clawdbot/Moltbot)保姆级教程
OpenClaw(原Clawdbot/Moltbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
2995 5
|
7天前
|
人工智能 安全 Shell
在 Moltbot (Clawdbot) 里配置调用阿里云百炼 API 完整教程
Moltbot(原Clawdbot)是一款开源AI个人助手,支持通过自然语言控制设备、处理自动化任务,兼容Qwen、Claude、GPT等主流大语言模型。若需在Moltbot中调用阿里云百炼提供的模型能力(如通义千问3系列),需完成API配置、环境变量设置、配置文件编辑等步骤。本文将严格遵循原教程逻辑,用通俗易懂的语言拆解完整流程,涵盖前置条件、安装部署、API获取、配置验证等核心环节,确保不改变原意且无营销表述。
2361 6