OpenClaw作为轻量化AI Agent框架,在自动化任务、文件处理、代码生成、信息检索等场景中效率突出,但商用API高额Token消耗、网络限制与数据隐私问题,长期制约个人与团队规模化使用。通过魔塔ModelScope国内源加速部署Ollama,搭配支持工具调用的千问3.5系列本地模型,可实现OpenClaw完全离线运行、无限量调用、数据不出内网,彻底告别Token焦虑。本文基于2026年最新实践,完整覆盖Windows11/MacOS/Linux本地部署、阿里云云端部署、魔塔Ollama安装优化、局域网开放、OpenClaw配置对接、阿里云千问API与免费Coding Plan接入,提供全流程可复制命令与实测问题解决方案,打造稳定、安全、低成本的私有化AI Agent体系。
一、OpenClaw核心规则体系(直接写入MEMORY.md)
OpenClaw的稳定性依赖明确规则约束,以下规则经过长期验证,可直接写入根目录MEMORY.md长期记忆:
1. 错误自动修复机制
遇到错误→判断能否自动修复→能则立即执行
→不能则判断有无备用方案→有则切换
→无则列出选项请求用户确认
工具调用失败、文件读写异常、网络请求超时,无需指令直接自动修复
修复失败后简明上报类型、位置与建议方案
2. 长任务时间片管理
长时间任务自动切分为子任务,单任务执行≤30秒
每段完成输出进度提示,避免超时无响应
执行完毕汇总结果,保证流程可追溯
3. Git自动备份规则
工作区路径:~/.openclaw/workspace
远程分支:origin main
内容更新即执行commit+push
配置信息:user.name="OpenClaw-Agent",user.email="bot@openclaw.local"
4. 必备工具清单
web_search:网络检索
web_fetch:网页抓取
message:消息推送
sessions_send:跨会话通信
exec:命令执行
5. 分级记忆管理
- 长期记忆:MEMORY.md(根目录),存储核心规则、模型配置、固定路径
- 日志记忆:memory/YYYY-MM-DD.md,存储每日操作、临时变量、异常日志
- 规则:重要信息实时写入长期记忆,临时信息写入当日日志,定期清理冗余
阿里云部署最简易 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
二、国内环境魔塔源安装Ollama(解决GitHub下载卡顿)
国内网络直接从Ollama官网下载易中断,通过魔塔ModelScope获取安装包更稳定。
1. 安装魔塔工具
pip install modelscope -i https://mirrors.aliyun.com/pypi/simple/
2. 从魔塔下载Ollama安装包
modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux --revision v0.17.3
3. 执行安装脚本
cd ollama-linux
sudo chmod 777 ./ollama-modelscope-install.sh
./ollama-modelscope-install.sh
安装过程中pkg_resources相关提示为正常兼容信息,不影响使用。
三、Ollama模型部署与局域网开放
1. 拉取支持工具调用的千问3.5模型
OpenClaw对接要求模型必须带tools标签,优先选择千问3.5系列:
# 轻量版(低配设备)
ollama pull qwen3.5:0.8b
# 标准版(综合性能)
ollama pull qwen3.5:7b
# 专业版(高性能GPU)
ollama pull qwen3.5:35b
查看已安装模型:
ollama list
启动模型验证:
ollama run qwen3.5:0.8b
2. 配置Ollama支持局域网访问(Linux系统)
修改系统服务配置,开放0.0.0.0监听,实现内网互通:
sudo vim /etc/systemd/system/ollama.service
写入完整配置:
[Unit]
Description=Ollama Service
After=network.target
[Service]
Type=simple
User=root
Group=root
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_KEEP_ALIVE=1h"
Environment="OLLAMA_NUM_CTX=24576"
Environment="OLLAMA_FLASH_ATTENTION=1"
Environment="OLLAMA_KV_CACHE_TYPE=q8_0"
Environment="OLLAMA_NUM_PARALLEL=2"
Environment="NVIDIA_VISIBLE_DEVICES=all"
Environment="CUDA_VISIBLE_DEVICES=0"
ExecStart=/usr/local/bin/ollama start
ExecStop=/usr/local/bin/ollama stop
Restart=always
RestartSec=5
[Install]
WantedBy=multi-user.target
重载服务并启动:
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl restart ollama
3. 接口测试(Python脚本)
import requests
import json
url = "http://你的服务器IP:11434/api/generate"
data = {
"model": "qwen3.5:35b",
"prompt": "写一首关于科技的诗",
"stream": True
}
response = requests.post(url, json=data, stream=True)
for line in response.iter_lines():
if line:
res = json.loads(line)
if "response" in res:
print(res["response"], end="", flush=True)
if res.get("done"):
break
返回流式内容即服务正常。
四、2026全平台OpenClaw本地部署流程(Windows11/MacOS/Linux)
通用环境要求
- 系统:Windows11 22H2+/MacOS 12+/Ubuntu20.04+/CentOS7+
- 内存:≥4GB(推荐8GB)
- 依赖:Node.js≥22.x、Git
- 网络:本地部署支持纯内网,云端需外网访问
(一)Windows11部署OpenClaw
- 管理员身份打开PowerShell
- 安装NVM与Node.js
iwr -useb https://raw.githubusercontent.com/coreybutler/nvm-windows/master/nvm-setup.exe | iex nvm install 22 nvm use 22 - 配置国内镜像
npm config set registry https://registry.npmmirror.com - 一键部署
iwr -useb https://openclaw.ai/install.ps1 | iex - 初始化与启动
openclaw onboard --install-daemon openclaw gateway start - 打开Web控制台
openclaw dashboard
(二)MacOS部署OpenClaw
- 安装Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" - 安装依赖
brew install node git npm config set registry https://registry.npmmirror.com - 一键部署
curl -fsSL https://openclaw.ai/install.sh | bash - 初始化与启动
openclaw onboard --install-daemon openclaw gateway start
(三)Linux(Ubuntu)部署OpenClaw
- 更新系统与依赖
sudo apt update && sudo apt upgrade -y curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash sudo apt install -y nodejs git - 一键安装
curl -fsSL https://openclaw.ai/install.sh | bash - 系统服务配置
openclaw onboard --install-daemon sudo systemctl enable openclaw sudo systemctl start openclaw - 状态检查
openclaw gateway status
五、OpenClaw对接Ollama本地模型完整配置
1. 定位配置文件
- Windows:C:\Users\用户名.openclaw\openclaw.json
- Mac/Linux:~/.openclaw/openclaw.json
2. 核心配置代码(直接替换)
auth认证配置
"auth": {
"profiles": {
"ollama:default": {
"provider": "ollama",
"mode": "oauth"
}
}
}
models模型配置
"models": {
"providers": {
"ollama": {
"baseUrl": "http://你的服务器IP:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{
"id": "qwen3.5:35b",
"name": "Qwen3.5 35B Local",
"reasoning": false,
"input": ["text", "image"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
agents代理配置
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:35b"
},
"workspace": "C:\\Users\\用户名\\.openclaw\\workspace",
"timeoutSeconds": 30000
}
}
plugins插件配置
"plugins": {
"entries": {
"qwen3.5:35b": {
"enabled": true
}
}
}
3. 调整超时并重启
本地模型推理较慢,延长响应超时:
openclaw config set agents.defaults.timeoutSeconds 3000
重启网关生效:
openclaw gateway restart
断开网络仍可正常使用,证明对接成功。
六、2026阿里云OpenClaw部署流程
适合7×24小时在线、团队协作、公网访问场景,支持轻量应用服务器与ECS部署。
1. 前期准备
- 阿里云账号完成实名认证
- 开通轻量应用服务器/ECS
- 安全组放行端口:18789(Web)、11434(Ollama)、22(SSH)
2. 轻量应用服务器一键部署
- 控制台创建实例,选择OpenClaw专属应用镜像
- 配置2核4GB,选择国内节点
- 实例初始化完成后远程连接
- 启动服务并设置开机自启
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


openclaw gateway start
systemctl enable openclaw
- 访问Web控制台:http://公网IP:18789
3. ECS手动部署
- 创建Ubuntu22.04实例,2核4GB
- 安全组放行18789、22端口
- SSH连接执行Linux部署命令
- 数据盘挂载~/.openclaw,保证数据持久化
- 创建管理员Token
openclaw token create --admin
七、阿里云大模型API配置(千问+免费Coding Plan)
(一)阿里云千问大模型API配置
- 开通阿里云百炼,创建API Key
- 命令行配置
openclaw config set model.provider aliyun_bailian openclaw config set model.aliyun_bailian.api_key "你的API Key" openclaw config set agents.defaults.model.primary "bailian/qwen3-max-2026-01-23" openclaw config set model.aliyun_bailian.base_url "https://dashscope.aliyuncs.com/compatible-mode/v1" - 连接测试
openclaw model test
(二)阿里云Coding Plan免费API配置
新用户享有免费额度,适合编码场景:
- 百炼控制台开通Coding Plan,领取免费额度
- 创建API Key
- 配置命令
openclaw config set model.provider coding_plan openclaw config set model.coding_plan.api_key "你的Coding Plan API Key" openclaw config set model.coding_plan.base_url "https://coding.dashscope.aliyuncs.com/v1" openclaw config set agents.defaults.model.primary "coding-plan/qwen3-mini" - 测试连接
openclaw model test
八、2026实测高频问题与解决方案
(一)Ollama相关问题
- Ollama服务无法启动
# 强制重启 ollama stop ollama serve # 检查端口占用 # Mac/Linux lsof -i :11434 # Windows netstat -ano | findstr :11434 taskkill /F /PID 进程ID - 模型拉取失败
切换魔塔源,或手动下载模型文件 - OpenClaw无法连接Ollama
确认baseUrl正确,开放0.0.0.0监听,防火墙放行11434端口
(二)部署安装问题
- Node.js版本过低
卸载旧版,安装v22.x,配置npm镜像 - Windows脚本无法执行
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser - Linux权限不足
sudo chmod -R 755 ~/.openclaw
(三)模型调用问题
- API Key无效
核对密钥,重新配置,检查百炼权限 - 本地模型响应慢
降低模型参数,关闭后台程序,延长超时时间 - 工具调用失败
openclaw tool enable web_search openclaw tool enable exec
(四)云端部署问题
- 公网IP无法访问
检查安全组18789端口是否放行 - 服务重启配置丢失
将~/.openclaw挂载数据盘,设置开机自动加载
九、长期优化最佳实践
- 规则迭代:新增功能同步更新MEMORY.md
- 缓存管理:定期清理缓存,提升响应速度
openclaw cache clean - 备份机制:开启Git自动提交,防止数据丢失
- 通信选择:优先使用钉钉、飞书,避免QQ Bot导致Token浪费
- 性能调优:根据硬件调整时间片,关闭不常用工具
- 资源监控:qwen3.5:35b显存占用约25GB,确保GPU/CPU资源充足
总结
OpenClaw结合魔塔Ollama本地大模型,彻底解决Token成本、网络限制与数据隐私三大痛点,实现完全离线的私有化AI Agent。本文覆盖Windows11/MacOS/Linux本地部署、阿里云云端部署、魔塔Ollama安装优化、局域网开放、OpenClaw配置对接、阿里云千问/Coding Plan全流程,提供可直接复制的命令与实测解决方案。2026年私有化部署成为AI工具主流趋势,无论是个人日常使用、开发辅助,还是企业内网办公,这套方案都能稳定落地,让OpenClaw真正成为高效、安全、低成本的智能自动化助手。