2026年,OpenClaw(昵称“小龙虾”)凭借开源灵活、功能强大的特性,成为AI爱好者与开发者的首选工具。但很多用户都遭遇过参考文章中作者的困境:只是偶尔测试,500万Token就悄悄耗尽,高频使用的话,Token消耗速度堪比“流水”,还没靠AI赚到钱,反而要先投入一笔不小的成本。
核心诉求——“接入自部署大模型,摆脱Token依赖”,正是无数OpenClaw用户的痛点。事实上,OpenClaw不仅支持接入公司/个人自部署的大模型(如GLM、Qwen、Llama等),还能搭配阿里云百炼Coding Plan免费API(新用户领90天额度),形成“自部署模型为主,免费API为辅”的双保险方案,彻底告别Token焦虑。
本文基于核心诉求与2026年OpenClaw最新稳定版(v2026.3.8),整合全流程资源:详解2026年阿里云及本地(Windows11/MacOS/Linux)部署步骤,重点拆解自部署大模型接入流程(以主流的Qwen、GLM为例),补充阿里云百炼Coding Plan免费API配置,整理Token节省技巧与常见问题解答,所有代码可直接复制执行,助力用户搭建低成本、无上限的OpenClaw使用环境,真正实现“永久免费用AI”。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

一、核心认知:为什么要接入自部署大模型?双方案的优势
(一)Token消耗过快的核心原因
参考文章中作者仅偶尔测试就耗尽500万Token,并非个例,核心原因有三点:
- 模型默认参数过高:OpenClaw默认调用的大模型(如GPT-4、GLM-4)单次响应Token上限高,即便简单对话也会消耗较多Token;
- 隐性消耗不可见:技能加载、工具调用、上下文记忆等后台操作,都会产生隐性Token消耗,积少成多;
- 高频使用需求:随着对OpenClaw的依赖加深,从偶尔测试到日常办公、开发辅助,使用频率提升必然导致Token消耗激增。
(二)自部署大模型+百炼API:双方案的核心优势
- 自部署大模型:一次部署,永久免费,无Token限制,可根据需求调整模型参数,适合高频使用、大文件处理、长对话等场景;
- 阿里云百炼Coding Plan API:新用户领90天免费额度,国内节点稳定,无需复杂部署,适合临时补充、轻量任务处理,作为自部署模型的备份;
- 双方案协同:日常使用优先自部署模型,避免Token消耗;自部署模型维护或故障时,自动切换至百炼API,确保服务不中断,兼顾成本与稳定性。
(三)自部署大模型的选型建议(新手友好)
并非所有大模型都适合自部署,新手需选择“部署简单、资源要求低、OpenAI兼容”的模型,推荐以下3款:
- Qwen-7B/14B(阿里通义千问):开源免费,支持中文优化,部署简单,对硬件要求适中(7B模型最低8GB内存即可运行);
- GLM-4-9B(智谱):参考文章作者提到的模型系列,中文能力强,支持OpenAI兼容API,适合有一定技术基础的用户;
- Llama 3-8B(Meta):生态成熟,社区资源丰富,优化后支持中文,适合追求模型性能的用户。
二、部署前必做准备(所有方案通用)
(一)设备与环境要求
除了OpenClaw本身的部署要求,自部署大模型对硬件资源有额外要求,各部署方式的具体要求如下(含自部署模型):
| 部署方式 | 最低配置(仅OpenClaw) | 推荐配置(OpenClaw+自部署模型) | 系统要求 | 核心依赖 |
|---|---|---|---|---|
| 阿里云ECS服务器 | 2vCPU+4GiB内存+40GiB ESSD | 4vCPU+16GiB内存+80GiB ESSD(7B模型);8vCPU+32GiB内存+100GiB ESSD(14B模型) | Ubuntu 22.04 LTS、Alibaba Cloud Linux 3.2104 LTS | 阿里云百炼API凭证、Docker、Ollama(模型部署工具) |
| Windows11本地 | 4GiB内存+30GiB磁盘空间 | 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) | Windows11 64位(开启WSL2) | Node.js≥v22.0.0、Python≥3.9、Git、Docker Desktop、Ollama |
| MacOS本地 | 4GiB内存+30GiB磁盘空间 | 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) | MacOS 12及以上(M系列/Intel芯片) | Homebrew、Node.js≥v22.0.0、Git、Docker、Ollama |
| Linux本地 | 4GiB内存+30GiB磁盘空间 | 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) | Ubuntu 22.04+ 64位 | curl、Git、Python≥3.9、Node.js≥v22.0.0、Docker、Ollama |
(二)必备凭证与工具
- 核心凭证:阿里云账号(完成实名认证)、阿里云百炼Coding Plan API Key(格式为sk-sp-xxxxx)、自部署模型API地址与密钥(若有);
- 辅助工具:SSH远程工具(FinalShell,阿里云部署用)、系统终端、文本编辑器(VS Code)、Ollama(模型部署工具,新手首选)、Docker(容器化部署模型);
- 基础工具:Node.js、Git、ClawHub CLI(OpenClaw技能管理)。
(三)基础工具安装(全系统通用)
# 1. 安装Node.js(OpenClaw核心依赖,必须v22.x版本)
# Windows11(PowerShell,管理员模式)
winget install OpenJS.NodeJS.LTS --version 22.2.0 -y
# MacOS(终端)
brew install node@22
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc
# Linux/Ubuntu/阿里云
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
# 2. 验证Node.js版本(显示v22.x.x即为成功)
node -v
# 3. 安装核心工具(Git、ClawHub CLI、Docker)
# Windows11
winget install Git.Git -y
npm install -g clawhub@latest
# Docker需手动下载安装:https://www.docker.com/products/docker-desktop/
# MacOS
brew install git docker --cask
npm install -g clawhub@latest
open -a Docker
# Linux/Ubuntu/阿里云
sudo apt install git -y
npm install -g clawhub@latest
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
sudo systemctl start docker
sudo systemctl enable docker
# 4. 安装Ollama(自部署模型必备,新手友好)
# Windows11/MacOS:官网下载安装(https://ollama.com/download)
# Linux/Ubuntu/阿里云
curl -fsSL https://ollama.com/install.sh | sh
# 5. 配置国内镜像,解决下载超时问题(国内用户必做)
npm config set registry https://registry.npmmirror.com
clawhub config set registry https://clawhub-mirror.aliyuncs.com
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://docker.mirrors.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
# 6. 验证工具安装
git --version && clawhub -V && docker --version && ollama --version
三、2026年OpenClaw全平台部署流程
(一)方案一:阿里云部署(长期运行+自部署模型首选)
阿里云部署适合需要7×24小时稳定运行、多设备访问的场景,同时能满足自部署模型的硬件资源需求,步骤如下:
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan 配置教程:创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


步骤1:服务器选购与基础配置
- 访问阿里云ECS云服务器控制台,选择“Ubuntu 22.04 LTS”系统镜像;
- 核心配置:若仅部署OpenClaw,选择2vCPU+4GiB内存+40GiB ESSD;若需同时部署7B自部署模型,选择4vCPU+16GiB内存+80GiB ESSD;14B模型选择8vCPU+32GiB内存+100GiB ESSD;
- 地域选择:优先选择中国香港(免备案)或华东1(杭州),镜像拉取速度快,网络延迟低;
- 安全组配置:放行22(SSH)、18789(OpenClaw核心端口)、443(API调用端口)、11434(Ollama模型部署端口),确保多端口协同。
步骤2:OpenClaw一键脚本部署(新手推荐)
- 使用FinalShell远程连接服务器(输入公网IP、用户名root、密码);
- 执行阿里云专属一键部署脚本:
# 国内优化版脚本,避免下载超时
curl -fsSL https://openclaw.ai/aliyun-install.sh | bash
- 按向导完成配置(新手直接默认选择):
- 风险提示:输入Yes;
- 网关模式:选择remote(支持远程访问);
- 绑定地址:0.0.0.0:18789;
- 模型选择:暂时选择Custom Provider(后续配置自部署模型与百炼API);
- 认证设置:记录生成的访问Token(登录WebUI用);
- 验证部署:
# 查看服务状态(显示active(running)即为成功) systemctl status openclaw # 设置开机自启 systemctl enable openclaw - 远程访问:浏览器输入
http://服务器公网IP:18789,粘贴Token登录,即可进入OpenClaw控制台。
(二)方案二:本地部署(Windows11/MacOS/Linux,测试与轻量使用)
1. Windows11本地部署(WSL2,推荐)
# 1. 管理员模式打开PowerShell,启用WSL2(若未启用)
wsl --install
wsl # 进入WSL2终端
# 2. 在WSL2中安装核心依赖
sudo apt update && sudo apt upgrade -y
sudo apt install git -y
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
npm install -g clawhub@latest
# 3. 安装OpenClaw
npm install -g openclaw@latest
# 4. 启动配置向导
openclaw
# 5. 按向导完成配置,记录访问Token
# 6. 启动服务
openclaw gateway start
访问方式:浏览器输入http://localhost:18789,粘贴Token登录。
2. MacOS本地部署(原生适配)
# 1. 安装Homebrew(国内镜像加速)
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
# 2. 安装核心依赖
brew install git node@22 docker --cask
open -a Docker
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc
npm install -g clawhub@latest
# 3. 安装OpenClaw
npm install -g openclaw@latest
# 4. 启动配置向导
openclaw
# 5. 按向导完成配置,记录访问Token
# 6. 后台启动服务
nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &
3. Linux本地部署(稳定性强)
# 1. 更新系统依赖
sudo apt update && sudo apt upgrade -y
# 2. 安装核心工具与依赖
sudo apt install curl git -y
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
npm install -g clawhub@latest
# 3. 配置Swap空间(解决内存不足)
sudo fallocate -l 8G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab
# 4. 安装OpenClaw
npm install -g openclaw@latest
# 5. 启动配置向导
openclaw
# 6. 启动服务并设置开机自启
sudo systemctl enable --now openclaw
openclaw gateway restart
(三)方案三:自部署模型部署(Ollama,新手友好)
无论选择哪种OpenClaw部署方案,自部署模型都可通过Ollama快速部署,步骤如下(以Qwen-7B为例):
1. 启动Ollama服务:
# 所有系统通用(Windows11/MacOS需先打开Ollama客户端)
ollama serve
2. 拉取并部署Qwen-7B模型:
# 拉取模型(国内用户可配置Ollama镜像加速)
ollama pull qwen:7b
# 验证模型部署(测试模型响应)
ollama run qwen:7b "你好,请介绍一下自己"
3. 配置Ollama OpenAI兼容API(OpenClaw接入必需):
# 启动Ollama时启用OpenAI兼容模式(后台运行)
nohup ollama serve --host 0.0.0.0 --port 11434 > ~/.ollama/logs/serve.log 2>&1 &
4. 验证API可用性:
curl http://localhost:11434/v1/models
# 返回模型列表即为部署成功
四、核心配置:自部署模型接入+百炼API配置(双保险)
(一)配置1:OpenClaw接入自部署模型(Qwen/GLM为例)
1. 接入Ollama部署的Qwen-7B模型
# 1. 编辑OpenClaw配置文件
# 阿里云/Linux
nano ~/.openclaw/openclaw.json
# Windows11(PowerShell)
notepad $env:USERPROFILE\.openclaw\openclaw.json
# MacOS
nano ~/.openclaw/openclaw.json
# 2. 添加自部署模型配置
{
"models": {
"providers": {
"local-ollama": {
"baseUrl": "http://localhost:11434/v1", // Ollama API地址
"apiKey": "ollama", // Ollama默认密钥,可自定义修改
"api": "openai-completions",
"models": [
{
"id": "qwen-7b",
"name": "自部署Qwen-7B",
"contextWindow": 8192,
"maxTokens": 2048, // 降低单次响应Token,节省资源
"reasoning": false,
"codeSupport": true
}
]
}
},
"default": "local-ollama/qwen-7b" // 默认使用自部署模型
},
"agents": {
"defaultWorkspace": "~/OpenClaw/Workspaces",
"allowCrossAgentCommunication": true
}
}
# 3. 保存配置并重启OpenClaw
# 阿里云/Linux
openclaw gateway restart
# Windows11
openclaw gateway stop && openclaw gateway start
# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &
2. 接入自部署的GLM-4模型(参考文章作者提及模型)
若已部署GLM-4自部署版本(支持OpenAI兼容API),配置如下:
{
"models": {
"providers": {
"local-glm": {
"baseUrl": "你的GLM-4 API地址", // 如http://localhost:8000/v1
"apiKey": "你的GLM-4 API密钥", // 若未设置则留空
"api": "openai-completions",
"models": [
{
"id": "glm-4-9b",
"name": "自部署GLM-4-9B",
"contextWindow": 16384,
"maxTokens": 2048,
"reasoning": false
}
]
}
},
"default": "local-glm/glm-4-9b"
}
}
(二)配置2:阿里云百炼Coding Plan API配置(备份方案)
自部署模型维护或故障时,可切换至百炼API,新用户可领90天免费额度,配置步骤如下:
步骤1:API凭证获取
- 登录阿里云官网,访问订阅阿里云百炼Coding Plan,订阅免费套餐;
- 访问登录阿里云百炼大模型服务平台,进入百炼控制台“密钥管理”,创建API Key(格式为
sk-sp-xxxxx),记录专属Base URL:https://coding.dashscope.aliyuncs.com/v1。
步骤2:OpenClaw对接百炼API
# 1. 编辑OpenClaw配置文件,添加百炼API配置
{
"models": {
"providers": {
"bailian-coding": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "你的百炼Coding Plan API Key",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-coding",
"name": "百炼Qwen3.5",
"contextWindow": 32768,
"maxTokens": 2048,
"reasoning": false
}
]
},
"local-ollama": {
// 自部署模型配置(同上)
}
},
"default": "local-ollama/qwen-7b",
"fallback": "bailian-coding/qwen3.5-coding" // 自部署模型故障时自动切换
}
}
# 2. 重启OpenClaw生效
openclaw gateway restart
(三)配置验证与Token节省技巧
1. 配置验证
- 自部署模型验证:登录OpenClaw控制台,输入指令“帮我写一段Python简单代码”,若返回正常响应,且Ollama日志显示调用记录,即为接入成功;
- 百炼API验证:手动切换默认模型为百炼(
openclaw config set models.default "bailian-coding/qwen3.5-coding"),发送指令测试响应。
2. Token节省技巧(自部署模型同样适用,减少资源占用)
- 降低
maxTokens:将单次响应Token上限设为2048,避免冗余输出; - 缩短上下文窗口:根据需求调整
contextWindow,无需盲目追求高参数; - 关闭不必要的技能:卸载不常用的技能,减少隐性Token/资源消耗:
# 查看已安装技能 clawhub list # 卸载无用技能 clawhub uninstall 技能名称 - 启用会话超时:闲置30分钟自动清空上下文,避免长期占用资源:
openclaw config set agents.sessionTimeout 1800
五、常见问题解答(告别Token焦虑+部署避坑)
(一)自部署模型类问题
问题1:部署Qwen-7B模型后,OpenClaw提示“模型调用失败”?
- 解决方案:① 确认Ollama服务已启动(
ps aux | grep ollama serve);② 检查API地址是否正确(默认http://localhost:11434/v1);③ 验证Ollama API可用性(curl http://localhost:11434/v1/models);④ 重启Ollama与OpenClaw。
- 解决方案:① 确认Ollama服务已启动(
问题2:自部署模型运行时,服务器/本地设备卡顿严重?
- 原因:模型占用内存过高,超出硬件承载能力;
- 解决方案:① 更换更小参数的模型(如7B→3B);② 关闭其他占用资源的程序;③ 增加Swap空间(Linux/阿里云已配置);④ 升级硬件配置。
问题3:国内用户拉取Ollama模型速度慢?
- 解决方案:① 配置Ollama国内镜像(参考Ollama中文社区教程);② 手动下载模型文件,放置到Ollama模型目录(Windows:
C:\Users\你的用户名\.ollama\models;MacOS/Linux:~/.ollama/models)。
- 解决方案:① 配置Ollama国内镜像(参考Ollama中文社区教程);② 手动下载模型文件,放置到Ollama模型目录(Windows:
(二)API与部署类问题
问题1:百炼API调用提示“鉴权失败”?
- 解决方案:① 核对API Key格式(sk-sp-xxxxx),确保无多余空格;② 确认Base URL为
https://coding.dashscope.aliyuncs.com/v1;③ 检查API Key状态为“启用”,若已过期,重新创建。
- 解决方案:① 核对API Key格式(sk-sp-xxxxx),确保无多余空格;② 确认Base URL为
问题2:阿里云部署后,无法访问OpenClaw控制台?
- 解决方案:① 确认服务器公网IP正确;② 检查安全组已放行18789端口;③ 验证服务状态(
systemctl status openclaw),确保服务正常运行。
- 解决方案:① 确认服务器公网IP正确;② 检查安全组已放行18789端口;③ 验证服务状态(
问题3:Windows11部署OpenClaw提示“command not found”?
- 解决方案:① 确认Node.js已添加到系统环境变量;② 重启PowerShell;③ 重新安装OpenClaw(
npm install -g openclaw@latest)。
- 解决方案:① 确认Node.js已添加到系统环境变量;② 重启PowerShell;③ 重新安装OpenClaw(
(三)Token与资源类问题
问题1:自部署模型是否完全免费?有没有隐藏成本?
- 解答:自部署模型本身开源免费,无Token成本,但需要硬件资源支持(本地设备或云服务器),云服务器会产生月租费用,适合高频使用用户(相比Token购买,长期更划算)。
问题2:如何切换自部署模型与百炼API?
- 解决方案:① 手动切换:
openclaw config set models.default "local-ollama/qwen-7b"(自部署)或openclaw config set models.default "bailian-coding/qwen3.5-coding"(百炼API);② 启用自动切换:配置fallback参数,自部署模型故障时自动切换至百炼API。
- 解决方案:① 手动切换:
问题3:参考文章中500万Token很快用完,接入自部署模型后如何避免资源浪费?
- 解决方案:① 配置模型参数(降低
maxTokens、缩短上下文窗口);② 启用会话超时与自动休眠;③ 定期清理无用技能与上下文;④ 监控模型资源占用(htop命令),及时关闭异常进程。
- 解决方案:① 配置模型参数(降低
六、总结
Token告急并非OpenClaw的“硬伤”,而是用户未找到低成本使用方案。通过“自部署模型+百炼API”的双保险配置,再搭配全平台灵活部署,既能摆脱Token依赖,实现永久免费使用,又能通过百炼API作为备份,确保服务不中断,完美解决参考文章作者的核心诉求。
本文核心要点总结,新手必记:
- 部署选择:高频使用、需自部署模型,优先选择阿里云部署(硬件资源充足);个人测试、轻量使用,选择本地部署(Windows11推荐WSL2);
- 模型选择:新手推荐Ollama部署Qwen-7B(简单易操作、资源要求低);有技术基础可选择GLM-4、Llama 3;
- 配置核心:自部署模型作为主力,百炼API作为备份,启用
fallback参数实现自动切换; - 资源优化:降低模型参数、关闭无用技能、启用会话超时,减少资源占用;
- 避坑关键:国内用户配置镜像加速,阿里云部署放行必要端口,自部署模型根据硬件选择合适参数。
通过本文的指南,你可搭建低成本、无上限的OpenClaw使用环境,彻底告别Token焦虑,无论是日常办公、开发辅助,还是高频测试,都能自由使用,真正让AI成为“不花钱的助手”。