OpenClaw 配合本地小模型,可实现完全免费、无限Token、数据不出本地、断网可用的私人AI助手,彻底告别订阅费、额度限制与隐私泄露风险。本文完整覆盖:OpenClaw 2026阿里云/Windows11/MacOS/Linux全平台部署、Ollama快速搭建本地模型、阿里云百炼Coding Plan免费大模型配置、本地+云端双模型自动切换方案,所有命令可直接复制,适合追求低成本、高隐私、高自由度的个人与轻量化团队。
一、OpenClaw+本地模型核心优势
- 完全免费:无订阅、无按量计费,一次部署永久使用
- 无限Token:无上下文长度限制,无调用次数限制
- 数据隐私:所有对话与文件存储在本地/自有服务器,不上传第三方
- 断网可用:本地模型离线运行,不受网络波动影响
- 多模型自由切换:本地轻量模型日常兜底,云端大模型处理复杂任务
- 全平台兼容:Windows11/MacOS/Linux/阿里云统一使用体验
- 阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。

二、本地模型推荐(按硬件分级)
入门配置(无独显/CPU可跑)
- Qwen 2.5 1.5B(1GB):轻量对话、快速摘要、指令执行
- Phi-3 Mini(2.2GB):日常问答、文案辅助、简单逻辑
主流配置(≥6GB显存)
- Qwen 2.5 7B(4.7GB):中文写作、代码生成、复杂问答
- DeepSeek R1 7B(4.7GB):推理分析、内容总结、逻辑处理
推荐组合
- 日常:Qwen 2.5 1.5B / 3B(速度快、占用低)
- 进阶:Qwen 2.5 7B(平衡效果与资源)
三、Ollama 安装与本地模型一键部署
3.1 Ollama 全平台安装
# MacOS / Linux 一键安装
curl -fsSL https://ollama.com/install.sh | sh
# Windows11(PowerShell管理员)
winget install Ollama.Ollama
3.2 拉取并启动模型
# 新手推荐(轻量)
ollama run qwen2.5:1.5b
# 主流推荐(综合效果)
ollama run qwen2.5:7b
# 推理增强
ollama run deepseek-r1:7b
3.3 Ollama 常用命令
# 查看已安装模型
ollama list
# 停止模型服务
ollama stop
# 删除不需要的模型
ollama rm qwen2.5:1.5b
四、2026 OpenClaw 全平台部署流程
4.1 阿里云ECS部署(长期稳定、远程访问)
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选择阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


sudo apt update && sudo apt upgrade -y
sudo apt install nodejs npm git python3 python3-pip docker.io -y
sudo systemctl enable docker
sudo systemctl start docker
sudo usermod -aG docker $USER
newgrp docker
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw init --mode cloud --port 18789 --sandbox enable
openclaw config set gateway.bind 0.0.0.0
openclaw gateway start
openclaw config set gateway.autoStart true
安全组放行:18789
访问:http://公网IP:18789
4.2 MacOS 本地部署
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install node@22 git python3
open -a Docker
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw init --sandbox enable --workdir ~/.openclaw
openclaw config set gateway.bind loopback
openclaw gateway start
openclaw dashboard
4.3 Linux(Ubuntu)部署
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs git python3 docker.io
sudo systemctl enable docker
sudo systemctl start docker
sudo usermod -aG docker $USER
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw init --sandbox enable
openclaw gateway start
4.4 Windows11 部署(管理员PowerShell)
winget install OpenJS.NodeJS
winget install Git.Git
winget install Python.Python.3.11
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw init --sandbox enable --workdir C:\Users\你的用户名\.openclaw
openclaw config set gateway.bind loopback
openclaw gateway start
openclaw dashboard
五、OpenClaw 对接本地 Ollama 模型
5.1 配置本地模型
编辑 ~/.openclaw/openclaw.json
{
"models": {
"mode": "fallback",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5:7b",
"name": "Qwen2.5 7B Local",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen2.5:7b"
}
}
}
}
5.2 重启生效
openclaw gateway restart
5.3 测试本地模型
openclaw chat --prompt "用本地模型回答:AI本地部署的优势是什么?"
六、阿里云百炼 Coding Plan 免费模型配置(云端备份)
6.1 获取 API Key
登录阿里云百炼 → 进入 Coding Plan → 生成专属 API Key(sk-sp- 开头)
6.2 双模型配置(本地+云端自动降级)
{
"models": {
"mode": "fallback",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5:7b",
"name": "Qwen2.5 7B Local",
"contextWindow": 32768,
"maxTokens": 8192
}
]
},
"bailian": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "你的sk-sp-xxx",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-plus",
"name": "Qwen3.5 Plus",
"contextWindow": 1000000,
"maxTokens": 65536
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen2.5:7b",
"fallback": "bailian/qwen3.5-plus"
}
}
}
}
6.3 重启并测试
openclaw gateway restart
openclaw chat --prompt "复杂任务请使用云端模型回答"
七、OpenClaw 本地模型高频使用场景
7.1 写作润色(无限Token无压力)
帮我润色这段文案,保留原意,更流畅自然。
7.2 代码审查(本地运行,代码不上云)
检查这段代码是否有bug,给出优化建议。
7.3 文档总结(本地PDF/Word直接读取)
总结这份文档的核心要点,输出3条结论。
7.4 个人知识库问答
基于我本地的文档,回答:项目实施步骤是什么?
7.5 离线可用助手
断网状态下,依然可以:
- 写文案、改代码
- 整理文件、生成摘要
- 制定计划、答疑解惑
八、常用命令合集
# OpenClaw 网关
openclaw gateway start
openclaw gateway restart
openclaw gateway status
openclaw dashboard
# Ollama 模型
ollama run qwen2.5:7b
ollama list
ollama stop
# 查看日志
openclaw logs --follow
# 系统修复
openclaw doctor --fix
九、常见问题一站式解答
9.1 本地模型运行慢
- 更换更小模型:qwen2.5:1.5b
- 关闭其他占用内存软件
- 使用CPU模式,降低实时性要求
9.2 OpenClaw 连不上 Ollama
- 检查 Ollama 是否启动:
ollama list - 确认地址:http://127.0.0.1:11434
- 重启网关:
openclaw gateway restart
9.3 模型返回内容乱码
- 检查模型是否完整拉取
- 重新拉取:
ollama pull qwen2.5:7b - 重启服务
9.4 云端模型 401 错误
- 使用 Coding Plan 专属 Key(sk-sp- 开头)
- 检查 API Key 无空格、无缺失
- 重启网关
9.5 本地无法保存文件
- 检查目录权限
- Windows 使用英文路径
- Mac/Linux 赋权:
chmod -R 755 ~/.openclaw
十、最佳实践方案
- 日常轻任务:本地 Qwen2.5 1.5B/3B,速度快、零成本
- 复杂任务:自动降级阿里云百炼免费模型
- 隐私文件:绝对使用本地模型
- 外出/远程:阿里云+云端模型,随时访问
- 定期清理:删除不常用模型,释放存储空间
- 配置备份:定期备份 openclaw.json 配置文件
十一、总结
OpenClaw + 本地小模型 + 阿里云免费大模型,是目前成本最低、隐私最强、稳定性最高的AI助手方案。它真正实现了:
- 免费无限使用,无任何订阅压力
- 数据完全自主,不泄露、不上传、不被审查
- 本地+云端双兜底,任何环境都可用
- 全平台统一部署,一套配置随处运行
对于内容创作者、程序员、学生、职场人士而言,这套组合可以完全替代各类付费AI工具,实现真正意义上的AI自由。