前言
OpenClaw(龙虾)作为轻量化AI Agent工具,在自动化任务、文件处理、代码生成、信息检索等场景中表现突出,但云端API高额Token费用与数据隐私问题,一直是个人与企业使用的阻碍。通过本地部署Ollama运行千问等开源大模型,可实现OpenClaw完全离线使用,达成Token自由与数据安全双重目标。本文基于2026年最新实践,完整覆盖本地Windows11/MacOS/Linux部署、阿里云云端部署、Ollama本地模型对接、阿里云千问API与免费Coding Plan配置,同时提供全流程代码命令与高频问题解决方案,打造可直接落地的私有化AI Agent体系。
目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
一、OpenClaw核心优化规则(可直接写入MEMORY.md)
OpenClaw的稳定性依赖明确规则约束,以下为经过实测验证的最佳实践,可直接复制使用:
1. 错误自动处理机制
遇到错误 → 判断能否自动修复 → 能修复则立即执行
→ 不能修复则判断有无备用方案 → 有则切换
→ 无备用方案则列出选项请求确认
工具调用失败、文件读写异常、网络请求超时,无需用户指令直接自动修复
修复失败后简明上报类型、位置与解决方案
2. 长任务时间片管理
长时间任务自动切分为子任务,单任务执行≤30秒
每完成一段输出进度,避免超时无响应
执行完成后汇总结果,保证流程可追溯
3. Git自动备份规则
工作区路径:~/.openclaw/workspace
远程分支:origin main
内容更新即执行commit+push,配置用户信息:
user.name="OpenClaw-Agent",user.email="bot@openclaw.local"
4. 必备工具清单
web_search:网络检索
web_fetch:网页抓取
message:消息推送
sessions_send:跨会话通信
exec:命令执行
5. 分级记忆体系
- 长期记忆:
MEMORY.md(根目录),存储核心规则、模型配置、固定路径 - 日志记忆:
memory/YYYY-MM-DD.md,存储每日操作、临时变量、异常记录 - 规则:重要信息实时写入长期记忆,临时信息写入当日日志,定期清理冗余
二、Ollama本地大模型安装与模型部署(内网离线核心)
Ollama是本地运行大模型的极简工具,支持Windows/Mac/Linux,无需复杂环境配置,一键拉取支持工具调用的开源模型,为OpenClaw提供离线推理能力。
(一)全平台Ollama安装
Windows11安装
访问官网下载安装包:https://ollama.com/download
自定义安装目录:OllamaSetup.exe /DIR="D:\mySoftWare\ollama"设置模型存储环境变量:
变量名:OLLAMA_MODELS
变量值:D:\mySoftWare\ollama\AI_Models
重启Ollama生效。MacOS安装
curl -fsSL https://ollama.com/install.sh | sh设置模型目录:
echo 'export OLLAMA_MODELS=~/.ollama/models' >> ~/.zshrc source ~/.zshrcLinux(Ubuntu)安装
curl -fsSL https://ollama.com/install.sh | sh系统服务管理:
sudo systemctl enable ollama sudo systemctl start ollama
(二)拉取支持工具调用的千问3.5模型
OpenClaw对接要求模型必须支持tools工具调用,优先选择千问3.5系列:
# 轻量版(低配电脑推荐)
ollama pull qwen3.5:0.8b
# 标准版(性能均衡)
ollama pull qwen3.5:7b
# 专业版(高性能设备)
ollama pull qwen3.5:14b
查看已安装模型:
ollama list
启动模型验证:
ollama run qwen3.5:0.8b
(三)Ollama API接口验证
Ollama默认端口11434,提供OpenAI兼容接口,直接供OpenClaw调用:
# 生成接口(测试用)
http://localhost:11434/api/generate
# OpenAI标准接口(OpenClaw对接用)
http://localhost:11434/v1/chat/completions
接口测试命令:
curl http://localhost:11434/v1/models
返回模型列表即服务正常。
三、2026本地全平台OpenClaw完整部署流程
(一)通用环境要求
- 系统:Windows11 22H2+/MacOS 12+/Ubuntu20.04+/CentOS7+
- 内存:≥4GB(推荐8GB)
- 依赖:Node.js≥22.x、Git
- 网络:本地部署支持纯内网,云端需外网访问
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(二)Windows11部署OpenClaw
- 管理员身份打开PowerShell
- 安装NVM与Node.js
iwr -useb https://raw.githubusercontent.com/coreybutler/nvm-windows/master/nvm-setup.exe | iex nvm install 22 nvm use 22 - 一键部署OpenClaw
iwr -useb https://openclaw.ai/install.ps1 | iex - 初始化配置
openclaw onboard --install-daemon - 启动网关
openclaw gateway start - 打开Web控制台
openclaw dashboard
(三)MacOS部署OpenClaw
- 安装Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" - 安装依赖
brew install node git npm config set registry https://registry.npmmirror.com - 一键部署
curl -fsSL https://openclaw.ai/install.sh | bash - 初始化与启动
openclaw onboard --install-daemon openclaw gateway start
(四)Linux(Ubuntu)部署OpenClaw
- 更新系统与依赖
sudo apt update && sudo apt upgrade -y curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash sudo apt install -y nodejs git - 一键安装
curl -fsSL https://openclaw.ai/install.sh | bash - 系统服务配置
openclaw onboard --install-daemon sudo systemctl enable openclaw sudo systemctl start openclaw - 状态检查
openclaw gateway status
四、OpenClaw对接Ollama本地模型配置(核心步骤)
(一)找到配置文件
Windows路径:C:\Users\用户名\.openclaw\openclaw.json
Mac/Linux路径:~/.openclaw/openclaw.json
(二)完整配置代码(直接替换)
- auth认证配置
"auth": { "profiles": { "ollama:default": { "provider": "ollama", "mode": "oauth" } } } - models模型配置
"models": { "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434/v1", "apiKey": "ollama", "api": "openai-completions", "models": [ { "id": "qwen3.5:0.8b", "name": "Qwen3.5 0.8b Local", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 8192 } ] } } } - agents代理配置
"agents": { "defaults": { "model": { "primary": "ollama/qwen3.5:0.8b" }, "workspace": "C:\\Users\\用户名\\.openclaw\\workspace", "timeoutSeconds": 30000 } } - plugins插件配置
"plugins": { "entries": { "qwen3.5:0.8b": { "enabled": true } } }
(三)调整超时时间并重启
本地模型推理较慢,延长响应超时:
openclaw config set agents.defaults.timeoutSeconds 3000
重启网关生效:
openclaw gateway restart
启动Web控制台测试:
openclaw dashboard
断开网络仍可正常使用,证明对接成功。
五、2026阿里云OpenClaw部署流程
适合7×24小时在线、团队协作、公网访问场景,支持轻量应用服务器与ECS部署。
(一)前期准备
- 阿里云账号完成实名认证
- 开通轻量应用服务器/ECS
- 安全组放行端口:18789(Web)、11434(Ollama)、22(SSH)
(二)轻量应用服务器一键部署
- 控制台创建实例,选择OpenClaw专属应用镜像
- 配置2核4GB,选择国内节点
- 实例初始化完成后,远程连接
- 启动服务并设置开机自启
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
openclaw gateway start
systemctl enable openclaw
- 访问Web控制台:
http://公网IP:18789
(三)ECS手动部署
- 创建Ubuntu22.04实例,2核4GB
- 安全组放行18789、22端口
- SSH连接执行Linux部署命令
- 配置数据盘挂载
~/.openclaw,保证数据持久化 - 创建管理员Token
openclaw token create --admin
六、阿里云大模型API配置(千问+免费Coding Plan)
(一)阿里云千问大模型API配置
- 开通阿里云百炼,创建API Key
- 命令行配置
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


openclaw config set model.provider aliyun_bailian
openclaw config set model.aliyun_bailian.api_key "你的API Key"
openclaw config set agents.defaults.model.primary "bailian/qwen3-max-2026-01-23"
openclaw config set model.aliyun_bailian.base_url "https://dashscope.aliyuncs.com/compatible-mode/v1"
- 连接测试
openclaw model test
(二)阿里云Coding Plan免费API配置
新用户享有免费额度,适合编码场景:
- 百炼控制台开通Coding Plan,领取免费额度
- 创建API Key
- 配置命令
openclaw config set model.provider coding_plan openclaw config set model.coding_plan.api_key "你的Coding Plan API Key" openclaw config set model.coding_plan.base_url "https://coding.dashscope.aliyuncs.com/v1" openclaw config set agents.defaults.model.primary "coding-plan/qwen3-mini" - 测试连接
openclaw model test
七、高频问题与解决方案(2026实测)
(一)Ollama相关问题
- Ollama服务无法启动
# 强制重启 ollama stop ollama serve # 检查端口占用 lsof -i :11434(Mac/Linux) netstat -ano | findstr :11434(Windows) - 模型拉取失败
切换网络,使用国内镜像,或手动下载模型文件 - OpenClaw提示连接Ollama失败
确认baseUrl为http://127.0.0.1:11434/v1,必须带/v1后缀
(二)部署安装问题
- Node.js版本过低
卸载旧版,安装v22.x,配置npm镜像 - Windows脚本无法执行
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser - Linux权限不足
sudo chmod -R 755 ~/.openclaw
(三)模型调用问题
- API Key无效
核对密钥,重新配置,检查百炼权限 - 本地模型响应慢
降低模型参数,关闭后台程序,延长超时时间 - 工具调用失败
openclaw tool enable web_search openclaw tool enable exec
(四)云端部署问题
- 公网IP无法访问
检查安全组18789端口是否放行 - 服务重启配置丢失
将~/.openclaw挂载数据盘,设置开机自动加载
八、长期优化最佳实践
- 规则迭代:新增功能同步更新MEMORY.md
- 缓存管理:定期清理缓存,提升响应速度
openclaw cache clean - 备份机制:开启Git自动提交,防止数据丢失
- 通信选择:优先使用钉钉、飞书,避免QQ Bot导致Token浪费
- 性能调优:根据硬件调整时间片,关闭不常用工具
总结
OpenClaw结合Ollama本地大模型,彻底解决Token成本与数据隐私问题,实现完全离线的私有化AI Agent。本文覆盖Windows11/MacOS/Linux本地部署、阿里云云端部署、Ollama对接、阿里云千问/Coding Plan配置全流程,提供可直接复制的代码命令与实测问题解决方案。2026年私有化部署成为AI工具主流趋势,无论是个人日常使用、开发辅助,还是企业内网办公,这套方案都能稳定落地,让OpenClaw真正成为高效、安全、低成本的智能自动化助手。