一、前言
在本地私有化部署AI智能体,已成为隐私敏感、低成本、稳定运行的主流方案。OpenClaw作为轻量化可扩展Agent框架,搭配Ollama本地大模型运行工具,可实现完全离线、无API依赖、无流量费用的个人数字助理。但很多用户在实践中面临三大难题:不知道自己硬件能跑什么模型、显存/内存频繁爆仓、Skills功能因模型不支持工具调用而失效。
本文基于2026年最新硬件适配与模型数据,完整覆盖:硬件与显存匹配规则、工具调用模型白名单、Ollama全平台安装、OpenClaw阿里云/Windows11/macOS/Linux部署、阿里云百炼通义千问API与免费Coding Plan配置、高频问题一站式排查。所有命令可直接复制,零基础也能搭建稳定可用的本地AI系统。目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
二、核心基础:显存/内存与工具调用(决定能否跑起来)
2.1 显存 vs 内存:运行效率的关键
- 显存(VRAM):显卡专属内存,模型优先加载,速度最快,推理流畅。
- 内存(RAM):系统共享内存,显存不足时兜底,速度极慢。
结论:有独立显卡必用GPU,纯CPU仅适合小模型体验。
2.2 工具调用(Function Calling):OpenClaw技能必备能力
Skills是OpenClaw的核心扩展能力,必须依赖支持工具调用的模型,否则技能无法触发、任务无法执行。
本文会给出明确的支持/不支持清单,避免无效配置。
三、硬件支持与显存估算(2026最新)
3.1 NVIDIA显卡支持列表
所有RTX/GTX系列均完整支持,运行nvidia-smi可查看型号。
- RTX 40xx/30xx/20xx:完全支持,性能最优
- GTX 10xx/9xx:支持,可运行小模型
3.2 显存占用估算公式(4-bit量化)
模型显存占用 ≈ 参数量(B) × 0.6 ~ 0.7
3.3 常见模型显存占用表
| 模型 | 参数量 | 4-bit量化显存 | 适合显存 |
|---|---|---|---|
| gemma3:1b | 1B | ~0.8GB | 2GB+ |
| phi4-mini | 3.8B | ~2.5GB | 4GB+ |
| llama3.2:3b | 3B | ~2GB | 4GB+ |
| qwen2.5:7b | 7B | ~5GB | 8GB+ |
| llama3.1:8b | 8B | ~5.5GB | 8GB+ |
| mistral:7b | 7B | ~4.5GB | 8GB+ |
| qwen2.5:14b | 14B | ~9GB | 16GB+ |
| qwen2.5:32b | 32B | ~20GB | 24GB+ |
3.4 按显存选模型(直接照抄)
- 4GB显存:phi4-mini、qwen2.5:1.5b、llama3.2:1b
- 8GB显存:qwen2.5:7b、llama3.1:8b、mistral:7b(首选)
- 16GB显存:qwen2.5:14b、mistral-nemo:12b
- 24GB+显存:qwen2.5:32b、qwq:32b
- 纯CPU:1.5B-3B小模型,内存≥16GB
四、支持工具调用的模型清单(OpenClaw技能必备)
4.1 顶级推荐(稳定+强技能)
- qwen2.5 全系列:0.5B-72B,工具调用质量最高
- qwen3 全系列:新一代模型,MoE架构更省显存
- llama3.1/3.2 系列:8B/70B/1B/3B,官方支持完善
- mistral:7b:经典稳定
- gemma3 系列:1B/4B/12B,新版已支持
- phi4-mini:4GB显存神器,微软官方支持
4.2 不支持工具调用(千万别用)
- codellama、llama2、phi4 14B原版、deepseek-r1
五、Ollama全平台安装(2026最新)
5.1 macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
5.2 Windows
前往 ollama.com/download 下载安装包,双击安装。
5.3 拉取模型(直接复制)
# 8GB显存首选
ollama pull qwen2.5:7b
# 4GB显存首选
ollama pull phi4-mini
# 16GB显存首选
ollama pull qwen2.5:14b
# 纯CPU
ollama pull qwen2.5:1.5b
5.4 验证运行
ollama run qwen2.5:7b
输入对话,退出输入/bye。
六、2026全平台OpenClaw标准化部署
6.1 阿里云轻量服务器部署(长期运行)
适用:Alibaba Cloud Linux 3,开放端口18789
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选择阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


sudo yum update -y
sudo yum install -y curl git wget
# 安装Node.js 22.x
curl -fsSL https://nodejs.org/dist/v22.0.0/node-v22.0.0-linux-x64.tar.xz -o node.tar.xz
sudo tar -xf node.tar.xz -C /usr/local/
sudo ln -sf /usr/local/node-v22.0.0-linux-x64/bin/node /usr/bin/node
sudo ln -sf /usr/local/node-v22.0.0-linux-x64/bin/npm /usr/bin/npm
# 镜像加速
npm config set registry https://registry.npmmirror.com
# 安装OpenClaw
npm install -g openclaw
# 初始化
openclaw onboard
# 公网访问
openclaw config set gateway.host 0.0.0.0
openclaw config set gateway.port 18789
# 启动
openclaw gateway start
# 开机自启
echo "openclaw gateway start &" | sudo tee -a /etc/rc.d/rc.local
sudo chmod +x /etc/rc.d/rc.local
6.2 macOS本地部署
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install node
npm config set registry https://registry.npmmirror.com
npm install -g openclaw
openclaw onboard
openclaw gateway start
6.3 Linux(Ubuntu/Debian)部署
sudo apt update
sudo apt install -y curl git nodejs npm
sudo npm install -g n
sudo n stable
npm config set registry https://registry.npmmirror.com
npm install -g openclaw
openclaw onboard
openclaw gateway start
6.4 Windows11部署(管理员PowerShell)
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
winget install OpenJS.NodeJS --version 22.0.0
npm config set registry https://registry.npmmirror.com
npm install -g openclaw
openclaw onboard
openclaw gateway start
七、OpenClaw对接Ollama配置(核心)
7.1 配置文件路径
- macOS/Linux:
~/.openclaw/config.json - Windows:
C:\Users\用户名\.openclaw\config.json
7.2 Ollama配置(直接复制)
"model": {
"type": "ollama",
"baseUrl": "http://127.0.0.1:11434",
"model_name": "qwen2.5:7b",
"max_tokens": 2048,
"temperature": 0.6,
"timeout": 60
}
7.3 重启生效
openclaw gateway restart
八、阿里云百炼通义千问API配置(可选增强)
"model": {
"type": "aliyun-bailian",
"api_key": "你的APIKey",
"secret": "你的AccessKeySecret",
"model_name": "qwen-turbo",
"max_tokens": 2048,
"temperature": 0.6,
"timeout": 60
}
九、免费大模型Coding Plan配置
"model": {
"type": "openai",
"api_key": "免费密钥",
"base_url": "https://api.coding-plan.com/v1",
"model_name": "general-v1",
"max_tokens": 2048,
"temperature": 0.6
}
十、OpenClaw常用命令
# 服务管理
openclaw gateway start
openclaw gateway restart
openclaw gateway stop
# 状态与日志
openclaw status
openclaw logs --follow
# 技能管理
openclaw skills list
openclaw skills check
# 会话管理
/clear
/compact
/status
十一、高频问题一站式解答
11.1 模型不跑在GPU上
检查ollama ps,无GPU信息则重启电脑,更新显卡驱动。
11.2 推理速度极慢
- 显存不足,自动切CPU
- 换更小模型
- 关闭其他占显存软件
11.3 Skills不工作
- 模型必须支持工具调用
- 检查config.json中model_name正确
- 重启服务
11.4 显存不足报错
- 换小模型
- 使用4-bit量化
- 关闭其他应用
11.5 无法访问Web控制台
- 阿里云放行18789端口
- gateway.host设为0.0.0.0
11.6 Windows权限不足
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
11.7 Ollama端口被占用
# macOS/Linux
lsof -i:11434
kill -9 进程ID
# Windows
netstat -ano | findstr "11434"
taskkill /F /PID 进程ID
11.8 模型加载失败
ollama rm 模型名
ollama pull 模型名
十二、最佳实践总结
- 有GPU必用GPU,纯CPU仅体验
- 技能必选工具调用模型,优先qwen2.5/llama3.1
- 按显存选模型,不强行上大模型
- Ollama+OpenClaw本地部署,隐私安全
- 定期重启服务,保持稳定
十三、总结
OpenClaw+Ollama是2026年最具性价比的本地私有化AI方案,核心成功要素只有三点:硬件匹配、模型支持工具调用、配置正确。本文提供完整可复制的流程:从硬件选型、模型拉取、全平台部署、模型对接,到问题排查,零基础用户也能一次成功。
本地部署不仅零成本、无泄露风险,更能稳定运行Skills自动化任务,真正实现属于自己的离线数字员工。