使用OpenClaw时,Token消耗过高是很多用户的核心痛点——收费模型效果好但成本高,免费模型成本低却能力有限。其实通过“收费模型调教+免费模型执行”的组合玩法,就能实现“Token自由”:先用收费模型打磨成熟任务流程并生成本地脚本,再切换到免费模型执行重复任务,既保证效果又节省成本,真正让免费Token玩出收费API的体验。
2026年OpenClaw已完美支持阿里云云端部署与本地私有化部署,本文将详细拆解双部署全流程,同步分享Token省成本的核心玩法、收费模型调教技巧与免费模型切换配置,所有代码命令可直接复制执行,助力用户低成本高效使用OpenClaw。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。
一、核心认知:部署方案对比与Token省成本逻辑
(一)双部署方案核心差异
| 部署方式 | 核心优势 | Token优化重点 | 适用场景 |
|---|---|---|---|
| 阿里云部署 | 7×24小时稳定运行、多设备远程访问、算力弹性扩展 | 云端脚本存储、收费/免费模型按需切换、批量任务自动化执行 | 团队协作、长期重复任务、多设备协同场景 |
| 本地部署 | 数据隐私可控、操作便捷、无服务器成本 | 本地脚本生成与执行、免费模型优先加载、缓存优化 | 个人日常使用、敏感任务处理、快速调试场景 |
(二)Token省成本核心逻辑
- 收费模型“调教期”:用收费模型(如Claude 4.6、Qwen3 Max)处理复杂任务,打磨流程、优化逻辑,最终生成本地可执行脚本(如Python脚本);
- 免费模型“执行期”:切换至免费模型(如cherry-aihubmix/coding-glm-4.7-free),直接调用已生成的成熟脚本执行重复任务,避免重复消耗收费Token;
- 关键优势:脚本保留了收费模型的优化逻辑,免费模型仅负责执行,既保证任务效果,又将Token消耗降至最低(免费模型 Token 成本近乎为0)。
二、2026年阿里云部署OpenClaw流程(适配批量省成本场景)
(一)部署前准备
- 阿里云账号:注册阿里云账号,完成实名认证,优先选择中国香港、美国弗吉尼亚等免备案地域;
- 服务器配置:推荐轻量应用服务器,基础配置2vCPU+4GiB内存+40GiB ESSD云盘,系统选择Ubuntu 22.04 LTS;
- 核心凭证:阿里云百炼API-Key【访问订阅阿里云百炼Coding Plan】(收费模型)、免费模型API-Key(如cherry-aihubmix);
- 工具准备:SSH工具(FinalShell/Xshell)、Chrome浏览器,记录服务器公网IP。
(二)分步部署流程
新手零基础阿里云上部署OpenClaw喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
步骤1:服务器环境初始化
# 1. 远程连接服务器(替换为实际公网IP)
ssh root@你的服务器公网IP
# 2. 更新系统依赖并安装核心工具
sudo apt update -y && sudo apt upgrade -y
sudo apt install -y git curl docker.io python3 python3-pip
systemctl start docker
systemctl enable docker
# 3. 配置国内Docker镜像源(提升拉取速度)
sudo mkdir -p /etc/docker
cat << EOF | sudo tee /etc/docker/daemon.json
{
"registry-mirrors": ["https://mirror.iscas.ac.cn", "https://docker.m.daocloud.io"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
# 4. 安装Python脚本执行依赖
pip3 install requests beautifulsoup4 python-dotenv
步骤2:部署OpenClaw并配置双模型
# 1. 拉取2026年OpenClaw最新镜像
docker pull openclaw/openclaw:2026-latest
# 2. 创建数据持久化目录(含脚本、配置、缓存)
mkdir -p /opt/openclaw/{
config,scripts,cache,models}
sudo chmod 755 /opt/openclaw/*
# 3. 启动容器(配置双模型凭证)
docker run -d \
--name openclaw-token-saver \
--restart always \
-p 18789:18789 \
-v /opt/openclaw/config:/app/config \
-v /opt/openclaw/scripts:/app/scripts \
-v /opt/openclaw/cache:/app/cache \
-v /opt/openclaw/models:/app/models \
-e TZ=Asia/Shanghai \
# 收费模型配置(阿里云百炼)
-e PAID_MODEL_PROVIDER=aliyun_bailian \
-e ALIYUN_BAILIAN_API_KEY="你的百炼API-Key" \
# 免费模型配置(cherry-aihubmix)
-e FREE_MODEL_PROVIDER=cherry-aihubmix \
-e CHERRY_API_KEY="你的cherry-aihubmix API-Key" \
openclaw/openclaw:2026-latest
# 4. 验证容器启动成功
docker ps | grep openclaw-token-saver
步骤3:收费模型调教与脚本生成
# 1. 进入容器内部
docker exec -it openclaw-token-saver bash
# 2. 切换至收费模型
openclaw config set models.default "aliyun_bailian/qwen3-max"
openclaw config set model.provider "aliyun_bailian"
openclaw restart
# 3. 调教收费模型生成任务脚本(以“旅游攻略生成+WordPress发布”为例)
openclaw prompt execute --content "帮我制定阿根廷布宜诺斯艾利斯旅游攻略,生成可直接执行的Python脚本,要求:1. 抓取网络配图;2. 生成结构化攻略;3. 支持发布到WordPress;4. 脚本需包含详细注释" --output /app/scripts/travel-guide-generator.py
# 4. 验证脚本生成
ls /app/scripts/ | grep travel-guide-generator.py
步骤4:切换免费模型执行脚本
# 1. 切换至免费模型
openclaw config set models.default "cherry-aihubmix/coding-glm-4.7-free"
openclaw config set model.provider "cherry-aihubmix"
openclaw restart
# 2. 配置免费模型调用本地脚本
openclaw config set tools.scriptExecutor.enabled true --json
openclaw config set tools.scriptExecutor.path "/app/scripts" --json
# 3. 执行脚本(免费模型仅负责调用,不消耗收费Token)
openclaw script run travel-guide-generator.py --params "wordpress_url=你的WP地址,username=WP用户名,password=WP密码"
# 4. 查看执行结果
cat /app/scripts/execution-logs/travel-guide-generator.log
步骤5:云端访问验证
- 生成管理员Token:
docker exec -it openclaw-token-saver openclaw token generate --admin - 浏览器输入
http://服务器公网IP:18789/?token=你的管理员Token,登录Web控制台; - 验证模型切换与脚本执行状态,确认免费模型正常调用脚本。
三、2026年OpenClaw本地部署流程(适配个人省成本场景)
(一)部署前准备
- 硬件要求:CPU≥Intel i5/Ryzen 5,内存≥8GB,磁盘预留≥20GB SSD;
- 软件要求:Node.js ≥22.0.0、pnpm、Git、Python 3.8+;
- 核心凭证:免费模型API-Key(如cherry-aihubmix)、可选收费模型API-Key;
- 网络要求:需联网下载源码与依赖,脚本执行时支持离线(若无需抓取网络资源)。
(二)分步部署流程
步骤1:基础依赖安装
# Windows(管理员PowerShell执行)
npm install -g pnpm git
pip3 install requests beautifulsoup4 python-dotenv
pnpm config set registry https://registry.npmmirror.com/
# macOS(终端执行)
brew install node@22 git python3
pip3 install requests beautifulsoup4 python-dotenv
pnpm config set registry https://registry.npmmirror.com/
# Linux(Ubuntu/Debian)
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs git python3-pip
pip3 install requests beautifulsoup4 python-dotenv
npm install -g pnpm
pnpm config set registry https://registry.npmmirror.com/
# 验证依赖版本
node --version # 需≥22.0.0
python3 --version
步骤2:安装OpenClaw并配置双模型
# 1. 全局安装OpenClaw最新版本
npm install -g openclaw@latest
# 2. 创建本地目录(脚本、配置、缓存)
mkdir -p ~/.openclaw/{
scripts,config,cache}
# 3. 配置收费模型(可选,用于调教)
openclaw config set models.providers.aliyun_bailian.apiKey "你的百炼API-Key" --json
openclaw config set models.providers.aliyun_bailian.baseUrl "https://dashscope.aliyuncs.com/compatible-mode/v1" --json
# 4. 配置免费模型(cherry-aihubmix)
openclaw config set models.providers.cherry-aihubmix.apiKey "你的cherry API-Key" --json
openclaw config set models.providers.cherry-aihubmix.baseUrl "https://api.cherryaihub.com/v1" --json
步骤3:收费模型调教与脚本生成
# 1. 切换至收费模型
openclaw config set models.default "aliyun_bailian/qwen3-max"
openclaw config set model.provider "aliyun_bailian"
# 2. 生成任务脚本(以“数据统计+Excel导出”为例)
openclaw prompt execute --content "帮我生成Python脚本,要求:1. 统计指定目录下的文件类型与数量;2. 生成可视化图表;3. 导出为Excel文件;4. 支持自定义目录参数" --output ~/.openclaw/scripts/file-statistics.py
# 3. 验证脚本可执行性
python3 ~/.openclaw/scripts/file-statistics.py --dir ~/Documents
步骤4:切换免费模型执行脚本
# 1. 切换至免费模型
openclaw config set models.default "cherry-aihubmix/coding-glm-4.7-free"
openclaw config set model.provider "cherry-aihubmix"
# 2. 启动OpenClaw服务并加载脚本工具
openclaw gateway start --port 18789 --enable-script-executor
# 3. 调用免费模型执行脚本
openclaw script run file-statistics.py --params "dir=~/Pictures"
# 4. 查看执行结果(Excel文件与图表)
ls ~/.openclaw/scripts/output/
步骤5:本地访问验证
- 生成管理员Token:
openclaw token generate --admin --allow-ip 127.0.0.1 - 浏览器输入
http://127.0.0.1:18789,粘贴Token登录; - 发送指令“用免费模型执行file-statistics.py脚本,统计~/Downloads目录”,验证脚本执行与Token消耗情况。
四、Token省成本进阶优化技巧
(一)脚本缓存与批量执行
# 1. 启用脚本执行缓存(避免重复加载)
openclaw config set tools.scriptExecutor.cache.enabled true --json
openclaw config set tools.scriptExecutor.cache.ttl 86400 --json # 缓存1天
# 2. 批量执行脚本(阿里云部署)
cat > /app/scripts/batch-execute.sh << 'EOF'
#!/bin/bash
scripts=("travel-guide-generator.py" "file-statistics.py")
for script in "${scripts[@]}"; do
openclaw script run $script
echo "$script 执行完成"
done
EOF
chmod +x /app/scripts/batch-execute.sh
./app/scripts/batch-execute.sh
(二)免费模型性能优化
# 1. 配置免费模型优先使用本地资源
openclaw config set model.cherry-aihubmix.useLocalResources true --json
openclaw config set model.cherry-aihubmix.cachePath "~/.openclaw/cache/models" --json
# 2. 限制免费模型上下文长度(减少Token消耗)
openclaw config set models.defaults.maxTokens 4096 --json
(三)常见问题排查
脚本生成失败:
- 解决方案:优化提示词,明确脚本需求与输出格式,切换收费模型重试:
openclaw config set models.default "aliyun_bailian/qwen3-max" openclaw prompt execute --content "更详细的脚本需求描述" --output 目标路径
- 解决方案:优化提示词,明确脚本需求与输出格式,切换收费模型重试:
免费模型无法调用脚本:
- 解决方案:检查脚本执行工具是否启用,验证脚本路径配置:
openclaw config get tools.scriptExecutor.enabled openclaw config get tools.scriptExecutor.path
- 解决方案:检查脚本执行工具是否启用,验证脚本路径配置:
Token消耗仍过高:
- 解决方案:确认已切换至免费模型,关闭收费模型自动加载:
openclaw config set model.autoSwitchPaidModel false --json
- 解决方案:确认已切换至免费模型,关闭收费模型自动加载:
五、总结
2026年OpenClaw的“收费模型调教+免费模型执行”玩法,彻底解决了Token消耗过高的核心痛点。阿里云部署适合团队批量执行重复任务,本地部署适配个人日常使用,双方案均能实现“效果不打折、成本大降低”。
核心优化逻辑在于“分工明确”:收费模型负责复杂逻辑打磨与脚本生成,发挥其推理优势;免费模型负责成熟脚本的重复执行,规避其逻辑短板。通过这种组合,既能用收费模型的能力保证任务质量,又能让免费Token发挥最大价值,真正实现Token自由。
无论是个人用户还是团队协作,这套省成本方案都能显著降低使用门槛,让OpenClaw的强大功能不再受限于Token预算,真正成为高效、经济的AI工具。