在使用OpenClaw(别名“大龙虾”)时,很多用户会遇到Token消耗过快的问题。2026年,智谱AI开放平台推出的GLM-4.7-Flash模型提供完全免费调用服务,该模型作为30B级SOTA模型,强化了编码能力、长程任务规划与工具协同,上下文窗口达200K,最大输出Tokens为128K,适配OpenClaw的复杂智能体任务执行需求。
本文将完整拆解2026年OpenClaw的阿里云与本地双部署流程,详细讲解智谱GLM-4.7-Flash免费模型的接入步骤,所有代码可直接复制执行,帮助用户零成本解锁高效AI算力。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

一、核心认知:GLM-4.7-Flash免费模型优势
GLM-4.7-Flash是智谱AI推出的免费语言模型,具备三大核心优势,完美适配OpenClaw使用场景:
- 完全免费:无调用额度限制,支持长期稳定使用,无需担心Token消耗过快;
- 能力强劲:在编码、任务规划、工具协同等场景表现出色,适配OpenClaw Skills生态;
- 兼容性高:支持OpenAI兼容格式,可通过自定义提供商方式快速接入OpenClaw,无需复杂开发。
除GLM-4.7-Flash外,智谱平台还提供GLM-4.6V-Flash(视觉推理)、CogView-3-Flash(文生图)、CogVideoX-Flash(视频生成)等免费模型,用户可按需选择接入。
二、2026年OpenClaw双部署流程
方案一:阿里云部署(稳定运行首选)
阿里云提供OpenClaw专属镜像部署方案,无需手动配置环境,15分钟即可完成,适合长期运行与多设备访问。
(一)部署前置准备
- 阿里云账号:注册阿里云账号与实名认证,确保账号无欠费;
- 核心凭证:阿里云百炼API-Key(访问订阅阿里云百炼Coding Plan,可选,用于默认模型激活)、智谱AI API-Key(后续免费模型接入使用);
- 工具准备:Chrome/Edge浏览器,可选SSH工具(FinalShell/Xshell)。
新手零基础阿里云上部署OpenClaw喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(二)详细部署步骤
- 访问专属部署页面:登录阿里云账号,访问阿里云OpenClaw一键部署专题页面,点击【一键购买并部署】;
- 配置服务器参数:
- 地域:优先选择中国香港/美国弗吉尼亚(免备案,支持外网访问);
- 镜像:选择“OpenClaw(Moltbot)2026官方镜像”;
- 实例规格:推荐2vCPU+2GiB内存+40GiB ESSD,满足基础运行需求;
- 时长:根据需求选择包年包月或按需付费,完成支付;
- 服务器初始化配置:
- 通过SSH连接服务器(替换为实际公网IP):
ssh root@你的服务器公网IP - 放行核心端口(18789为OpenClaw服务端口):
firewall-cmd --add-port=18789/tcp --permanent firewall-cmd --reload # 验证端口放行状态 firewall-cmd --list-ports | grep 18789 - 查看OpenClaw服务状态(输出active(running)即为正常):
systemctl status openclaw
- 通过SSH连接服务器(替换为实际公网IP):
- 访问可视化控制台:
- 浏览器输入
http://你的服务器公网IP:18789,首次访问设置管理员密码,进入控制台即完成部署。
- 浏览器输入
方案二:Windows本地部署(零成本测试)
适合个人用户快速测试功能,无需服务器费用,30分钟内完成。
(一)基础环境配置
- 安装依赖工具:
- Node.js:访问https://nodejs.org/zh-CN/download/current/,下载22.x及以上版本,安装时勾选“Add to PATH”;
- 执行安装命令(PowerShell管理员模式):
iwr -useb https://openclaw.ai/install.ps1 | iex
- 初始化服务:
# 安装守护进程 openclaw onboard --install-daemon # 验证安装状态 openclaw doctor # 启动OpenClaw服务 openclaw gateway start # 查看服务状态 openclaw status - 访问本地控制台:
- 执行命令打开仪表盘:
openclaw dashboard - 浏览器自动跳转至本地控制台,完成初始化设置即可。
- 执行命令打开仪表盘:
三、智谱GLM-4.7-Flash免费模型接入步骤
(一)获取智谱API-Key与基础URL
- 注册并登录智谱AI开放平台(https://bigmodel.cn/);
- 创建API-Key:进入个人中心→API Keys,点击“创建API-Key”,生成后复制保存(切勿泄露);
- 获取基础URL:访问GLM-4.7-Flash模型文档页,找到API调用地址,核心地址为
https://open.bigmodel.cn/api/paas/v4,完整调用路径为https://open.bigmodel.cn/api/paas/v4/chat/completions。
(二)通过ClawX添加自定义提供商
- 打开ClawX工具(OpenClaw可视化控制台的配套工具),进入“设置”页面;
- 添加AI提供商:
- 点击“添加AI提供商”,选择“自定义”选项;
- 配置核心参数:
- 显示名称:自定义(如“智谱GLM-4.7-Flash”);
- API密钥:粘贴步骤1获取的智谱API-Key;
- 基础URL:输入
https://open.bigmodel.cn/api/paas/v4; - 模型ID:填写
glm-4.7-flash;
- 点击“添加供应商”,完成配置后返回聊天页面。
(三)命令行配置方式(备选,适配无ClawX场景)
若未使用ClawX,可通过命令行直接配置OpenClaw的模型提供商,阿里云与本地部署通用:
# 进入OpenClaw配置界面
openclaw config edit
在配置文件中添加以下内容(替换为你的API-Key):
{
"models": {
"providers": {
"zhipu": {
"apiKey": "你的智谱API-Key",
"baseUrl": "https://open.bigmodel.cn/api/paas/v4",
"models": {
"glm-4.7-flash": {
"id": "glm-4.7-flash",
"contextWindow": 200000,
"maxTokens": 128000
}
}
}
},
"defaults": {
"primary": "zhipu/glm-4.7-flash"
}
}
}
保存配置后重启服务:
# 阿里云部署
systemctl restart openclaw
# 本地部署
openclaw gateway restart
(四)接入验证
在OpenClaw聊天界面发送指令你使用的模型名称是什么?,若返回“我使用的模型是glm-4.7-flash(custom/glm-4.7-flash)”,即表示接入成功,可开始免费调用。
四、GLM-4.7-Flash实战调用示例
接入成功后,可直接通过自然语言指令调用模型,结合OpenClaw Skills实现各类任务:
- 编码任务:
用Python编写一个批量处理Excel数据的脚本,支持数据去重与格式转换; - 内容创作:
撰写一篇关于AI自动化工具的博客文章,重点介绍OpenClaw的使用场景; - 技能协同:
用agent-browser技能抓取某科技网站的最新资讯,再用GLM-4.7-Flash总结核心要点; - 命令行直接调用(进阶):
# 发送聊天请求 curl -X POST "https://open.bigmodel.cn/api/paas/v4/chat/completions" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer 你的智谱API-Key" \ -d '{ "model": "glm-4.7-flash", "messages": [ {"role": "user", "content": "解释一下OpenClaw多Agent架构的优势"} ], "thinking": {"type": "enabled"}, "max_tokens": 65536, "temperature": 1.0 }'
五、常见问题排查
1. 接入后提示“API-Key无效”
- 原因:API-Key复制错误、未保存或泄露;
- 解决方案:重新生成智谱API-Key,确保无空格或多余字符,重新配置后重启服务。
2. 模型调用超时/失败
- 原因:服务器网络无法访问智谱API地址,或地域限制;
- 解决方案:阿里云部署切换海外地域,本地部署检查网络连通性,执行
ping open.bigmodel.cn测试。
3. ClawX中找不到“自定义”提供商选项
- 原因:ClawX版本过低;
- 解决方案:更新ClawX至最新版本,或使用命令行配置方式替代。
4. 阿里云部署后无法访问控制台
- 原因:18789端口未放行,或服务器未正常启动;
- 解决方案:重新执行端口放行命令,重启OpenClaw服务:
systemctl restart openclaw。
六、总结:零成本解锁AI生产力
2026年,OpenClaw的双部署方案满足了不同用户的使用需求——阿里云部署适合长期稳定运行,本地部署适合零成本测试。而智谱GLM-4.7-Flash免费模型的接入,彻底解决了Token消耗过快的问题,该模型不仅完全免费,还具备强劲的任务处理能力,与OpenClaw的Skills生态完美适配。
通过本文的部署与接入步骤,用户可快速实现“部署-接入-使用”全流程,无需额外付费即可享受高效AI算力。无论是编码、内容创作还是自动化任务处理,OpenClaw+GLM-4.7-Flash的组合都能大幅提升效率,让AI真正成为“专属数字助手”。