2026年,OpenClaw的生态适配持续完善,核心突破在于“双模型部署方案”——既支持阿里云百炼等云端API,也能对接Ollama本地大模型,彻底摆脱商用模型的Token额度限制。对于显存仅512M、只能依赖CPU运行的设备(如老旧笔记本、办公电脑),Ollama+Qwen3.5:9B的组合成为最优解:模型体积小(约10GB)、无硬件门槛、调用无限制,完美适配低配置设备;而阿里云百炼则凭借高推理速度,满足复杂任务需求。
本文基于实测经验与官方文档,整合四大核心内容:一是2026年OpenClaw零基础全平台部署流程(阿里云+MacOS+Linux+Windows11);二是Ollama本地大模型安装、局域网服务配置及OpenClaw对接(适配CPU/低显存场景);三是阿里云百炼免费API配置步骤;四是新手高频问题解答,所有代码可直接复制执行,助力不同硬件配置的用户1-2小时内完成部署,实现无限制智能调用。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

一、核心认知:双模型方案选型逻辑
(一)两种部署方案对比(2026最新适配)
| 方案 | 核心优势 | 硬件要求 | 适用场景 | 调用限制 | 推理速度 |
|---|---|---|---|---|---|
| OpenClaw+Ollama(本地) | 无Token限制、数据本地存储、隐私安全 | CPU≥4核、内存≥16GB(推荐32GB)、显存≥512M(无需独显) | 低配置设备、隐私敏感场景、离线使用 | 无限制 | 中等(CPU运行约5-10字/秒) |
| OpenClaw+阿里云百炼(云端) | 推理速度快、支持多模态、免费额度充足 | 无强制硬件要求,网络通畅即可 | 复杂任务、多模态交互、高频调用 | 免费额度内无限制(超量计费) | 快速(约20-30字/秒) |
(二)核心价值定位
- Ollama方案:解决“Token不够用”“隐私泄露顾虑”“低配置设备无法部署”三大痛点,适合个人日常使用、离线场景、敏感数据处理;
- 阿里云百炼方案:满足高并发、复杂推理、多模态需求,免费额度(90天)足够新手使用,适合办公自动化、专业场景应用;
- 双方案互补:用户可根据场景切换,低配置设备用Ollama,复杂任务用百炼,实现“无限制+高效率”的双重保障。
(三)前置准备(分方案说明)
1. Ollama方案前置准备(CPU/低显存适配)
- 系统要求:Windows10/11 64位、MacOS 12+、Linux(Ubuntu 22.04+);
- 硬件要求:CPU≥4核(推荐8核+)、内存≥16GB(32GB最佳,CPU运行更吃内存)、显存≥512M(无需核显/独显)、可用空间≥20GB(Qwen3.5:9B模型约10GB);
- 权限要求:管理员权限(配置环境变量、防火墙需用);
- 优化准备:关闭后台冗余程序,释放CPU/内存资源,提升推理速度。
2. 阿里云百炼方案前置准备
- 账号要求:注册阿里云账号(完成实名认证);
- 设备要求:无强制硬件限制,网络通畅即可;
- 凭证准备:阿里云百炼API密钥,访问登录阿里云百炼大模型服务平台(Access Key ID/Access Key Secret)。
3. 基础工具安装(全系统通用)
# 1. 安装Node.js(推荐v22+,确保兼容性)
# Windows11(PowerShell)
winget install OpenJS.NodeJS.LTS --version 22.2.0
# MacOS
brew install node@22
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc
# Linux/Ubuntu
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
# 2. 验证Node.js版本(显示v22+即为成功)
node -v
# 3. 安装核心工具(Git、ClawHub)
npm install -g clawhub@latest
# 安装Git
# Windows11
winget install Git.Git
# MacOS
brew install git
# Linux
sudo apt install git -y
# 4. 配置npm国内镜像,加速安装
npm config set registry https://registry.npmmirror.com
# 5. 验证工具安装
clawhub -V && git --version
二、2026年OpenClaw全平台部署流程(零基础友好)
(一)阿里云部署(高并发/复杂任务首选)
适合需要7×24小时运行、多设备访问的场景,依托云服务器稳定性,支持OpenClaw+百炼API高效协同,新手30分钟可完成。
新手零基础阿里云上部署OpenClaw喂饭级步骤流程
第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
1. 服务器选购与基础配置
服务器选购:
- 访问阿里云轻量应用服务器控制台,选择“Ubuntu 22.04 LTS”系统镜像;
- 核心配置:2vCPU+4GiB内存+40GiB ESSD+200Mbps带宽,地域选择中国香港(免备案),付费类型选“包年包月”;
- 提交订单后,等待实例状态变为“运行中”,记录公网IP、登录账号(默认root)与密码。
端口放行与环境准备:
# 1. SSH登录服务器(替换为你的公网IP)
ssh root@你的服务器公网IP
# 2. 一键放行核心端口
sudo apt install ufw -y
sudo ufw allow 22/tcp # SSH连接端口
sudo ufw allow 18789/tcp # OpenClaw核心端口
sudo ufw allow 443/tcp # API调用端口
sudo ufw enable
sudo ufw status # 显示“ALLOW”即为成功
# 3. 更新系统依赖并安装核心工具
sudo apt update && sudo apt upgrade -y
sudo apt install curl git python3-pip -y
2. OpenClaw安装与初始化
# 1. 全局安装最新版OpenClaw
npm install -g openclaw@latest
# 2. 验证安装版本
openclaw --version
# 3. 运行交互式配置向导
openclaw config wizard
# 交互配置步骤(新手直接按提示选择)
# 1. 接受风险提示:输入Yes
# 2. 选择模型提供商:暂时选择“Custom Provider”(后续配置百炼API)
# 3. 网关绑定:选择lan(监听所有网络接口)
# 4. 频道配置:输入Skip(后续按需添加)
# 5. 技能配置:输入Skip(后续按需安装)
# 6. 孵化方式:选择Open the Web UI
# 4. 启动网关服务
openclaw gateway start
# 5. 生成访问令牌(登录控制台需用,复制保存)
openclaw token generate --admin
3. 部署验证
- 浏览器输入
http://服务器公网IP:18789,粘贴访问令牌,能正常进入Web控制台即为部署成功; - 命令行验证:
openclaw gateway status,显示“running”即为服务正常。
(二)本地部署(Windows11+MacOS+Linux)
1. Windows11部署(低配置设备适配)
系统要求:Windows11/10 64位、CPU≥4核、内存≥16GB、显存≥512M
# 1. 以管理员身份打开PowerShell(右键开始菜单选择)
# 2. 解决执行策略限制(避免脚本无法运行)
Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force
# 3. 安装核心依赖(Git)
winget install Git.Git
# 4. 全局安装OpenClaw
npm install -g openclaw@latest
# 5. 运行交互式配置向导
openclaw config wizard
# 交互步骤(参考阿里云部署的选择)
# 1. 接受风险提示:输入Yes
# 2. 模型提供商:选择Custom Provider(后续对接Ollama)
# 3. 网关绑定:选择lan
# 4. 其余步骤:均按默认选择
# 6. 启动网关服务
openclaw gateway start
# 7. 获取访问令牌
openclaw token generate --admin
关键配置(必做):
- 将
C:\Users\你的用户名\.openclaw添加到Windows Defender排除列表,避免被误判为病毒; - 访问方式:浏览器输入
http://localhost:18789,粘贴令牌即可登录。
2. MacOS部署(体验最佳)
系统要求:MacOS 12+(M系列/Intel芯片)、CPU≥4核、内存≥16GB、显存≥512M
# 1. 打开终端(Cmd + Space输入“Terminal”)
# 2. 安装Homebrew(国内用户用镜像加速)
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
# 3. 安装核心依赖(Git)
brew install git
# 4. 安装Node.js 22+并配置环境变量
brew install node@22
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc
# 5. 全局安装OpenClaw
npm install -g openclaw@latest
# 6. 运行交互式配置向导
openclaw config wizard
# 交互步骤(参考阿里云部署)
# 1. 接受风险提示:输入Yes
# 2. 模型提供商:选择Custom Provider
# 3. 网关绑定:选择lan
# 4. 其余步骤:均按默认选择
# 7. 启动网关服务(后台运行)
nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &
# 8. 获取访问令牌
openclaw token generate --admin
M系列芯片避坑:若安装失败,执行arch -arm64 brew install node@22,指定ARM架构安装依赖;
- 访问方式:浏览器输入
http://localhost:18789,粘贴令牌登录。
3. Linux部署(Ubuntu 22.04 LTS,稳定性强)
系统要求:Ubuntu 22.04 LTS、CPU≥4核、内存≥16GB、显存≥512M
# 1. 更新系统依赖
sudo apt update && sudo apt upgrade -y
# 2. 安装核心工具与依赖
sudo apt install curl git python3-pip -y
# 3. 安装Node.js 22+
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
# 4. 配置npm国内镜像
npm config set registry https://registry.npmmirror.com
# 5. 全局安装OpenClaw
npm install -g openclaw@latest
# 6. 运行交互式配置向导
openclaw config wizard
# 交互步骤(参考阿里云部署)
# 1. 接受风险提示:输入Yes
# 2. 模型提供商:选择Custom Provider
# 3. 网关绑定:选择lan
# 4. 其余步骤:均按默认选择
# 7. 启动网关服务并设置开机自启
sudo systemctl enable --now openclaw
openclaw gateway start
# 8. 获取访问令牌
openclaw token generate --admin
访问方式:浏览器输入 http://localhost:18789,粘贴令牌登录。
三、Ollama本地大模型部署与OpenClaw对接(无Token限制)
(一)步骤1:Ollama全平台安装(CPU/低显存适配)
1. Windows11安装(推荐低配置设备)
# 1. 管理员打开PowerShell,一键下载安装Ollama
irm https://ollama.com/install.ps1 | iex
# 2. 验证安装(显示版本号即为成功)
ollama --version
# 3. 确认服务启动(系统托盘出现羊驼图标)
# 若未启动,执行以下命令手动启动
Start-Service -Name Ollama
2. MacOS安装
# 1. 终端执行安装命令
brew install ollama
# 2. 启动Ollama服务
ollama serve &
# 3. 验证安装
ollama --version
3. Linux(Ubuntu 22.04 LTS)安装
# 1. 下载安装脚本并执行
curl -fsSL https://ollama.com/install.sh | sh
# 2. 启动服务并设置开机自启
sudo systemctl enable ollama
sudo systemctl start ollama
# 3. 验证安装
ollama --version
(二)步骤2:加载Qwen3.5:9B模型(CPU运行最优选择)
Qwen3.5:9B模型体积小、推理效率高,无需独显,显存512M即可正常运行,是CPU设备的首选:
# 全系统通用命令,自动下载+加载模型
ollama run qwen3.5:9b
# 首次运行会自动下载模型(约10GB,下载速度取决于网络)
# 下载完成后,命令行显示“>>> Send a message”,表示模型可交互
# 本地测试:输入问题验证运行状态
>>> 帮我写一段Python简单爬虫脚本
# 模型返回结果即为运行正常
模型替换说明:若想尝试其他轻量模型(如7B/13B级),可访问Ollama官网(https://ollama.com/search)挑选,替换命令中的模型名即可(如`ollama run llama3:8b`)。
(三)步骤3:配置局域网服务(多设备访问)
默认Ollama仅本地(127.0.0.1)可访问,配置后支持同一局域网内的手机、平板、其他电脑调用:
1. Windows11配置
# 1. 设置系统环境变量(允许局域网访问)
[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "Machine")
# 2. 重启Ollama服务生效
Stop-Service -Name Ollama
Start-Service -Name Ollama
# 3. 放行防火墙端口(11434)
New-NetFirewallRule -DisplayName "Ollama-LAN" -Direction Inbound -Protocol TCP -Port 11434 -Action Allow
2. MacOS配置
# 1. 临时配置(当前终端生效)
export OLLAMA_HOST=0.0.0.0:11434
# 2. 永久配置(所有终端生效)
echo 'export OLLAMA_HOST=0.0.0.0:11434' >> ~/.zshrc
source ~/.zshrc
# 3. 重启Ollama服务
pkill -f ollama
ollama serve &
# 4. 放行防火墙端口
sudo ufw allow 11434/tcp
sudo ufw reload
3. Linux配置
# 1. 设置系统环境变量
echo 'OLLAMA_HOST=0.0.0.0:11434' | sudo tee /etc/environment
source /etc/environment
# 2. 重启Ollama服务
sudo systemctl restart ollama
# 3. 放行防火墙端口
sudo ufw allow 11434/tcp
sudo ufw reload
(四)步骤4:局域网服务连通性测试
# 创建test_ollama.py文件,复制以下代码
import requests
import json
# 替换为你的设备局域网IP(如192.168.3.10)
url = "http://你的局域网IP:11434/api/generate"
data = {
"model": "qwen3.5:9b",
"prompt": "写一首关于办公的小诗",
"stream": True
}
response = requests.post(url, json=data, stream=True)
for line in response.iter_lines():
if line:
res = json.loads(line)
if "response" in res:
print(res["response"], end="", flush=True)
if res.get("done"):
break
- 本地测试:运行脚本,实时打印出诗句即为本地服务正常;
- 跨设备测试:在同一局域网的其他设备运行脚本(替换IP),能正常返回结果即为配置成功。
(五)步骤5:OpenClaw对接Ollama(无Token无限调用)
# 1. 编辑OpenClaw配置文件
# Windows11(PowerShell)
notepad $env:USERPROFILE\.openclaw\openclaw.json
# MacOS/Linux/阿里云
nano ~/.openclaw/openclaw.json
# 2. 添加Ollama节点配置(替换为你的局域网IP或127.0.0.1)
{
"ollama": {
"baseUrl": "http://你的IP:11434",
"apiKey": "ollama-local", // Ollama无实际API Key验证,任意填写
"api": "ollama",
"models": [
{
"id": "qwen3.5:9b",
"name": "Qwen3.5 9B",
"reasoning": false,
"input": ["text", "image"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 100000,
"maxTokens": 4096
}
]
},
"models": {
"default": "ollama/qwen3.5:9b" // 设置Ollama为默认模型
}
}
# 3. 保存文件后重启OpenClaw网关
# 阿里云/Linux
openclaw gateway restart
# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &
# Windows11(PowerShell)
openclaw gateway stop
openclaw gateway start
(六)对接验证
登录OpenClaw Web控制台,输入测试指令(如“帮我总结OpenClaw的核心功能”),返回结构化结果即为对接成功,后续调用无Token限制。


四、阿里云百炼免费API配置(高速度方案)
(一)API密钥获取步骤
- 登录阿里云官网,访问登录阿里云百炼大模型服务平台;
- 点击“开通服务”,阅读并同意服务协议,新用户自动领取90天免费额度;
- 进入“密钥管理”页面,点击“创建Access Key”,完成身份验证(短信/扫码)后,生成Access Key ID和Access Key Secret;
- 复制并保存密钥(仅创建时可完整查看Access Key Secret,丢失需重新创建);
- 开启“消费限额”(推荐):进入“费用管理”→“消费限额”,设置每月最大消费额度,避免超额计费。
(二)OpenClaw对接百炼API(全环境通用)
# 1. 配置百炼API密钥(替换为你的凭证)
openclaw config set models.providers.bailian.accessKeyId "你的Access Key ID"
openclaw config set models.providers.bailian.accessKeySecret "你的Access Key Secret"
# 2. 配置国内接口地址(降低延迟)
openclaw config set models.providers.bailian.baseUrl "https://dashscope.aliyuncs.com/compatible-mode/v1"
# 3. 设置默认模型(推荐qwen3.5,免费额度足够使用)
openclaw config set models.default "qwen3.5"
# 4. 配置优化参数
openclaw config set models.providers.bailian.contextWindow 32768
openclaw config set models.providers.bailian.multiModalSupport true
# 5. 重启网关生效
# 阿里云/Linux
openclaw gateway restart
# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &
# Windows11(PowerShell)
openclaw gateway stop
openclaw gateway start
(三)API配置验证与避坑要点
- 验证方法:在OpenClaw控制台输入“帮我分析2026年AI行业趋势,生成结构化报告”,返回精准结果即为配置成功;
- 避坑要点:
- 密钥复制错误→逐字符核对,避免多余空格或换行;
- 接口地址错误→国内部署必须使用指定地址,否则调用超时;
- 免费额度耗尽→登录百炼控制台查看,及时调整调用频率;
- 服务未重启→配置后必须重启网关,否则参数不生效。
五、新手高频问题解答
(一)部署与Ollama类问题
问题1:Ollama启动提示“端口被占用”?
- 原因:11434端口被其他程序占用;
- 解决方案:① 查找占用进程(Windows:
netstat -ano | findstr 11434;Linux/MacOS:lsof -i:11434);② 终止占用进程(kill -9 进程ID);③ 或修改OLLAMA_HOST端口(如0.0.0.0:11435),同步更新OpenClaw配置文件中的端口。
问题2:CPU运行Ollama时卡顿严重,推理速度极慢?
- 原因:内存不足或CPU核心数不够;
- 解决方案:① 关闭后台所有冗余程序(如浏览器、视频软件);② 增加虚拟内存(Windows:此电脑→属性→高级系统设置→性能→设置→高级→虚拟内存);③ 更换更小参数模型(如
ollama run qwen3.5:7b);④ 升级硬件(优先增加内存至32GB)。
问题3:OpenClaw对接Ollama提示“无法连接到模型”?
- 解决方案:① 验证Ollama服务是否正常运行(
ollama --version);② 检查配置文件中的IP和端口是否正确(本地用127.0.0.1,局域网用设备IP);③ 关闭防火墙或放行11434端口;④ 重启Ollama与OpenClaw服务。
- 解决方案:① 验证Ollama服务是否正常运行(
(二)阿里云百炼类问题
问题1:API调用提示“密钥无效”?
- 解决方案:① 登录百炼控制台,确认密钥未过期、未被禁用;② 重新配置API参数(
openclaw config set models.providers.bailian.accessKeyId "新密钥");③ 检查是否误将Access Key ID与Secret混淆。
- 解决方案:① 登录百炼控制台,确认密钥未过期、未被禁用;② 重新配置API参数(
问题2:调用百炼API时提示“免费额度耗尽”?
- 解决方案:① 登录百炼控制台查看剩余额度;② 切换至Ollama本地模型继续使用;③ 按需购买百炼Token资源包。
(三)双方案切换类问题
问题1:如何在Ollama与百炼API之间切换?
- 解决方案:① 修改OpenClaw配置文件中的
models.default字段;② 切换为Ollama:"default": "ollama/qwen3.5:9b";③ 切换为百炼:"default": "qwen3.5";④ 重启网关生效。
- 解决方案:① 修改OpenClaw配置文件中的
问题2:低配置设备(内存≤16GB)能否使用Ollama?
- 解决方案:① 可以,但需选择更小模型(如7B级);② 关闭所有后台程序,释放内存;③ 降低模型推理参数(需手动编辑Ollama配置,新手不推荐);④ 优先使用阿里云百炼API,避免设备卡顿。
(四)硬件适配类问题
问题1:显存不足512M能否使用Ollama?
- 原因:Ollama依赖CPU运行时,显存仅需满足基础系统需求,512M已足够;
- 解决方案:直接按流程安装,无需额外配置,模型会自动适配CPU推理。
问题2:Mac M系列芯片使用Ollama时出现架构不兼容?
- 解决方案:① 执行
arch -arm64 brew install ollama,指定ARM架构安装;② 启动Ollama时执行arch -arm64 ollama serve;③ 确保模型支持ARM架构(优先选择Qwen、Llama3等主流模型)。
- 解决方案:① 执行
六、总结
2026年OpenClaw的双模型部署方案,彻底打破了硬件与Token的双重限制——低配置设备可通过Ollama实现无限制本地调用,追求效率的用户可选择阿里云百炼API,两种方案互补覆盖全场景需求。本文的全平台部署流程、Ollama对接步骤与百炼API配置,助力新手快速上手,无需复杂操作即可解锁OpenClaw的核心价值。
核心要点总结:
- 选型逻辑:低配置设备、隐私敏感场景选Ollama,复杂任务、高频调用选阿里云百炼;
- 部署关键:Ollama安装无需依赖,模型加载一键完成,局域网配置需注意端口放行;
- 避坑核心:确保Node.js版本≥22.0.0,Ollama服务正常运行,API密钥与IP配置正确;
- 优化建议:CPU运行Ollama时关闭后台程序,增加内存可显著提升推理速度;百炼API用户需合理设置消费限额,避免超额。
通过本文的流程与技巧,你可根据自身硬件条件选择合适方案,实现OpenClaw的无限制智能调用,真正发挥AI的生产力价值。