OpenClaw(曾用名Clawdbot、Moltbot)作为开源AI智能体工具,凭借自然语言任务拆解、多工具集成调用、7×24小时不间断运行的核心特性,成为个人办公自动化与轻量团队协作的高效助手。其支持对接多种大模型,但默认模型的Token消耗较快,增加了使用成本。2026年,OpenCode与NVIDIA推出的免费大模型渠道,为用户提供了零成本使用方案,搭配阿里云轻量应用服务器的便捷部署能力,可实现“低成本+高可用性”的双重优势。
阿里云轻量应用服务器预置的OpenClaw专属镜像,已预装Node.js 22、Python 3.9及核心依赖,大幅简化部署流程。本文将详细拆解阿里云轻量应用服务器部署OpenClaw的完整步骤,同时重点讲解OpenCode与NVIDIA两个免费大模型渠道的配置方法,包含完整代码命令、问题排查与优化建议,确保零基础用户也能顺利落地,免费享受AI自动化服务,详情 访问阿里云OpenClaw一键部署专题页面 了解。
一、核心前提与资源准备
(一)基础前置条件
- 阿里云账号与实名认证:注册并登录阿里云账号,需拥有完成个人/企业实名认证的阿里云账号,未完成认证将无法购买轻量应用服务器。个人用户可通过支付宝授权或身份证刷脸快速完成认证,企业用户需上传营业执照审核,个人认证即时生效,企业认证1-3个工作日完成。
- 核心凭证准备:后续配置免费大模型需用到OpenCode Zen API Key与NVIDIA API Key,提前注册对应平台账号并保存密钥,避免配置时中断操作。
- 基础设备与网络:准备一台可正常访问互联网的终端,使用Chrome、Edge等主流浏览器操作;网络无特殊带宽要求,普通家用/办公网络即可,海外地域实例需确保跨境网络通畅。
(二)服务器配置选型(2026年最优推荐)
OpenClaw对资源要求较低,结合免费大模型运行需求,推荐以下配置,兼顾性能与成本:
| 使用场景 | CPU/内存 | 带宽 | 存储 | 地域选择 | 核心优势 |
|----------|----------|------|------|----------|----------|
| 个人日常使用 | 2核2GiB | 200Mbps | 40GiB ESSD | 中国香港(免备案) | 快速上手,免备案即时使用 |
| 多任务并发 | 2核4GiB | 200Mbps | 60GiB ESSD | 新加坡(跨境稳定) | 支持多模型切换,响应更快 |
| 团队协作 | 4核8GiB | 500Mbps | 100GiB ESSD | 华东1(杭州) | 国内低延迟,适配团队共享 |
核心建议:新手优先选择2核2GiB+中国香港地域,无需ICP备案,部署后可立即使用,且跨境网络适配OpenCode与NVIDIA的海外服务节点。
二、阿里云OpenClaw(Clawdbot)部署简单步骤速览
为方便快速上手,先提炼核心部署步骤,后续将对每个环节进行细致拆解:
- 登录阿里云控制台,创建轻量应用服务器实例,选择OpenClaw专属应用镜像;
- 等待实例启动,记录公网IP,在防火墙中放行18789端口(OpenClaw默认通信端口);
- 通过SSH终端登录服务器,完成OpenClaw基础配置;
- 分别配置OpenCode与NVIDIA免费大模型渠道,写入API Key与模型参数;
- 重启OpenClaw服务,访问
http://公网IP:18789完成功能验证; - (可选)配置模型 fallback 策略,确保服务稳定运行。
三、全流程详细部署步骤(含代码命令)
(一)步骤1:创建轻量应用服务器实例
- 进入控制台:登录阿里云官网,点击顶部导航栏「产品」→「计算」→「轻量应用服务器」,进入管理控制台。
- 创建实例:点击「创建实例」,选择“快速购买”模式(新手推荐)。
- 核心参数配置
- 地域与可用区:选择中国香港、新加坡(免备案)或华东1(杭州),一旦创建无法修改,需提前规划;
- 镜像选择:切换至「应用镜像」标签,搜索「OpenClaw(原Clawdbot)」,选中2026年官方预置镜像(版本v2026.2.10,基于Alibaba Cloud Linux 3构建,已预装所有核心依赖);
- 实例规格:按使用场景选择,新手推荐2核2GiB;
- 登录设置:设置服务器登录密码(需包含大小写字母+数字+特殊符号),用于SSH远程登录,务必妥善保存;
- 支付与启动:核对配置与费用,点击「立即购买」完成支付。系统自动创建实例并部署镜像,等待1-3分钟,直至实例状态变为「运行中」,记录实例公网IP(如124.xx.xx.xx)。
阿里云用户零基础部署OpenClaw步骤喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(二)步骤2:端口放行与SSH登录
- 端口放行:进入实例详情页,点击左侧「防火墙」→「添加规则」,配置如下:
- 协议:TCP
- 端口范围:18789
- 授权对象:0.0.0.0/0(测试阶段允许所有IP访问,稳定后可改为个人IP)
- 描述:OpenClaw通信端口
点击「确定」,规则立即生效。
- SSH远程登录:
- Windows用户打开PowerShell,MacOS/Linux用户打开终端,执行SSH命令:
ssh root@你的服务器公网IP - 输入设置的服务器登录密码,成功登录后,终端显示Alibaba Cloud Linux系统提示符,说明登录成功。
- Windows用户打开PowerShell,MacOS/Linux用户打开终端,执行SSH命令:
(三)步骤3:OpenClaw基础配置
- 验证基础环境:执行以下命令,确认Node.js版本≥22(OpenClaw运行必需):
若版本低于22,执行以下命令升级(基于nvm工具):node -v# 安装nvm curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash # 刷新环境变量 source ~/.bashrc # 安装Node.js 22 nvm install 22 && nvm use 22 # 再次验证版本 node -v - 初始化OpenClaw配置:执行以下命令启动配置向导:
按向导提示完成基础配置:/openclaw.mjs configure- Where will the Gateway run? 选择「Local (this machine)」;
- Select sections to configure 选择「Model」;
- Model/auth provider 暂时选择「Skip for now」,后续单独配置免费模型;
- 其他选项保持默认,完成初始化。
(四)步骤4:配置OpenCode免费大模型渠道
OpenCode提供MiniMax M2.1 Free、Kimi K2.5 Free等免费模型,需先获取API Key,再配置到OpenClaw中。
1. 获取OpenCode Zen API Key
- 访问OpenCode官网(https://opencode.ai/),注册账号并登录;
- 进入「Members」→「Billing Settings」→「Zen API Keys」,点击「Copy Key」复制API Key(格式为sk-xxxxxxxxxx);
- 若单个账号额度受限,可注册多个账号获取多个API Key,后续循环使用。
2. 在OpenClaw中配置OpenCode模型
- 执行配置命令,选择OpenCode Zen作为模型提供商:
/openclaw.mjs configure- 选择「Model」配置项,Model/auth provider 选择「OpenCode Zen」;
- 粘贴获取的OpenCode Zen API Key,按回车确认;
- 进入模型选择界面,通过方向键选中以下免费模型(按空格键勾选):
- opencode/kimi-k2.5-free(Kimi K2.5 Free,上下文窗口256k)
- opencode/minimax-m2.1-free(MiniMax M2.1 Free,上下文窗口200k)
- 按回车完成配置,默认模型可选择「opencode/kimi-k2.5-free」。
3. 验证OpenCode模型配置
执行以下命令,查看模型是否被成功识别:
moltbot models list
若输出中包含「opencode/kimi-k2.5-free」和「opencode/minimax-m2.1-free」,且标注「configured」,说明配置成功。
(五)步骤5:配置NVIDIA免费大模型渠道
NVIDIA通过NIM APIs提供MiniMax M2.1、Kimi K2.5、GLM4.7等免费模型,需手动修改OpenClaw配置文件完成对接。
1. 获取NVIDIA API Key
- 访问NVIDIA模型平台(https://build.nvidia.com/models),注册账号并登录(需同意NVIDIA Developer Program协议);
- 进入「API Keys」页面,点击「Generate API Key」,设置Key名称(如my-openclaw-key),生成后复制API Key(格式为nvapi-xxxxxxxxxx);
- 记录NVIDIA API基础地址:
https://integrate.api.nvidia.com/v1,后续配置需用到。
2. 手动修改OpenClaw配置文件
- 执行命令打开配置文件:
nano ~/.openclaw/openclaw.json - 在「models.providers」节点下添加NVIDIA配置(完整配置如下):
"nvidia": { "baseUrl": "https://integrate.api.nvidia.com/v1", "apiKey": "你的NVIDIA API Key", "api": "openai-completions", "models": [ { "id": "nvidia/minimaxai/minimax-m2.1", "name": "nvidia/minimaxai/minimax-m2.1", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, "maxTokens": 8192 }, { "id": "nvidia/moonshotai/kimi-k2.5", "name": "nvidia/moonshotai/kimi-k2.5", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, "maxTokens": 8192 }, { "id": "nvidia/z-ai/glm4.7", "name": "nvidia/z-ai/glm4.7", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, "maxTokens": 8192 } ] } - 在「agents.defaults.model」节点下设置模型 fallback 策略,确保一个模型不可用时自动切换至其他模型:
"agents": { "defaults": { "model": { "primary": "nvidia/minimaxai/minimax-m2.1", "fallbacks": [ "nvidia/moonshotai/kimi-k2.5", "nvidia/z-ai/glm4.7", "opencode/minimax-m2.1-free", "opencode/kimi-k2.5-free" ] }, "models": { "nvidia/moonshotai/kimi-k2.5": { }, "nvidia/minimaxai/minimax-m2.1": { }, "nvidia/z-ai/glm4.7": { }, "opencode/minimax-m2.1-free": { }, "opencode/kimi-k2.5-free": { } } } } - 保存配置文件:按
Ctrl+X,输入Y确认,再按Enter关闭编辑器。
3. 重启服务并验证NVIDIA模型
- 执行以下命令重启OpenClaw服务:
若输出「Gateway is running」,说明服务重启成功。# 停止服务 moltbot gateway stop # 等待2秒确保完全停止 sleep 2 # 启动服务 moltbot gateway start # 验证服务状态 moltbot status - 执行模型连通性探测(可能产生少量调用,免费额度内无需担心):
若所有配置的NVIDIA模型均显示「ok」状态,说明对接成功。moltbot models status --probe
(六)步骤6:功能验证(必做)
通过3个维度测试,确保OpenClaw与免费模型正常工作:
- 基础对话测试:访问
http://你的公网IP:18789,进入Web聊天界面,输入「介绍一下你使用的大模型」,若返回当前模型名称(如NVIDIA提供的MiniMax M2.1),说明对话功能正常。 - 文本生成测试:输入「生成一份个人办公自动化日程模板」,若能生成结构清晰、内容合理的模板,说明文本生成能力正常。
- 模型切换测试:故意输入错误的OpenCode API Key,重启服务后发送指令,若系统自动切换至NVIDIA模型并响应,说明fallback策略生效。
四、进阶优化:提升使用体验(含代码命令)
(一)多API Key循环使用(解决额度限制)
若单个OpenCode或NVIDIA账号额度有限,可配置多个API Key自动循环:
- 新建API Key管理文件:
nano ~/.openclaw/api_keys.json - 写入多个API Key(示例):
{ "opencode_keys": [ "sk-MVnUT2iCNV8nFWPZ", "sk-XXXXXXXXXXXXXXXX", "sk-YYYYYYYYYYYYYYYY" ], "nvidia_keys": [ "nvapi-wSP0TjSf_5d3n", "nvapi-XXXXXXXXXXXX", "nvapi-YYYYYYYYYYYY" ] } - 编写简单切换脚本(auto_switch_key.sh):
#!/bin/bash # 随机选择一个OpenCode Key OPENCODE_KEY=$(jq -r '.opencode_keys[random%length]' ~/.openclaw/api_keys.json) # 随机选择一个NVIDIA Key NVIDIA_KEY=$(jq -r '.nvidia_keys[random%length]' ~/.openclaw/api_keys.json) # 更新配置文件 sed -i "s|\"apiKey\": \".*\"|\"apiKey\": \"$OPENCODE_KEY\"|" ~/.openclaw/openclaw.json sed -i "s|\"apiKey\": \"nvapi-.*\"|\"apiKey\": \"$NVIDIA_KEY\"|" ~/.openclaw/openclaw.json # 重启服务 moltbot gateway restart echo "API Key已切换,服务重启成功" - 赋予脚本执行权限并运行:
可设置定时任务,每天自动切换API Key:chmod +x auto_switch_key.sh ./auto_switch_key.sh# 每天凌晨3点执行切换 crontab -e # 添加以下内容 0 3 * * * /root/.openclaw/auto_switch_key.sh
(二)日志监控与问题排查
- 实时查看OpenClaw运行日志:
tail -f /tmp/openclaw/openclaw-$(date +%Y-%m-%d).log - 自动诊断配置问题:
该命令会检测配置文件语法错误、API Key有效性、模型连通性等,输出详细排查建议。moltbot doctor
(三)扩展技能安装(丰富功能)
OpenClaw支持插件式技能扩展,安装常用办公技能:
# 安装PDF处理技能
moltbot skills install pdf-processor
# 安装网页数据提取技能
moltbot skills install web-scraper
# 安装邮件管理技能
moltbot skills install email-manager
# 查看已安装技能
moltbot skills list --installed
五、常见问题排查与解决方案
(一)问题1:OpenCode模型调用失败,提示“API Key无效”
排查原因
- API Key输入错误或已过期;
- 服务器地域与OpenCode API节点通信受阻。
解决方案
- 重新核对API Key,确保无多输、漏输字符,过期则重新生成;
- 执行以下命令测试网络连通性:
若返回401状态码,说明网络可达,需检查API Key;若返回超时,切换服务器地域(如中国香港→新加坡)。curl -I https://opencode.ai/zen/v1/chat/completions
(二)问题2:NVIDIA模型配置后无法识别
排查原因
- 配置文件语法错误(少引号、逗号);
- baseUrl填写错误。
解决方案
- 执行
moltbot doctor,根据报错提示修复配置文件语法; - 确认baseUrl为
https://integrate.api.nvidia.com/v1,无拼写错误。
(三)问题3:服务启动失败,提示“端口被占用”
排查原因
18789端口被其他进程占用。
解决方案
- 查找占用端口的进程:
netstat -tulpn | grep 18789 - 终止占用进程(假设PID为1234):
kill -9 1234 - 重启OpenClaw服务:
moltbot gateway start
(四)问题4:模型切换失败,fallback策略未生效
排查原因
- fallback列表中模型ID填写错误;
- 部分模型未被成功配置。
解决方案
- 核对配置文件中模型ID与
moltbot models list输出一致; - 确保fallback列表中的所有模型均已完成API Key配置与连通性验证。
六、运维建议与安全防护
(一)安全防护重点
- 妥善保管API Key:避免明文暴露在代码或配置文件中,定期更换(每3个月一次);
- 限制服务器访问:稳定使用后,将防火墙18789端口的授权对象改为个人IP,减少安全风险;
- 定期更新OpenClaw:获取安全补丁与功能优化:
moltbot gateway stop npm install -g moltbot@latest moltbot gateway start
(二)资源与费用管理
- 监控服务器资源使用:
若CPU/内存使用率长期超过80%,升级服务器配置;top -b -n 1 | grep -E 'CPU|MEM' - 清理冗余日志:定期删除过期日志文件,释放磁盘空间:
rm -rf /tmp/openclaw/openclaw-2026-01-*.log - 闲置处理:长期不使用时,在阿里云控制台停止实例,停止后不再收取运行费用(磁盘存储费用正常收取)。
(三)模型选型建议
| 模型名称 | 提供方 | 核心优势 | 适用场景 |
|---|---|---|---|
| opencode/kimi-k2.5-free | OpenCode | 上下文窗口大(256k) | 长文档处理、多轮对话 |
| nvidia/minimaxai/minimax-m2.1 | NVIDIA | 推理速度快 | 日常办公、快速响应 |
| nvidia/z-ai/glm4.7 | NVIDIA | 多语言支持强 | 跨境沟通、多语言文档生成 |
根据任务复杂度灵活选择模型,长文档任务优先使用Kimi K2.5 Free,快速响应需求优先使用MiniMax M2.1。
七、总结
2026年阿里云轻量应用服务器部署OpenClaw的核心优势在于“预置镜像+低门槛配置”,结合OpenCode与NVIDIA的免费大模型渠道,彻底解决了Token消耗过快的痛点。本文详细拆解了从服务器创建、基础配置到免费模型对接的全流程,包含50+条可直接复制的代码命令,覆盖API Key获取、配置文件修改、服务重启、功能验证等关键环节,同时提供了多API Key循环、模型 fallback 等进阶优化方案,确保用户零成本、稳定使用OpenClaw的自动化能力。
通过本次部署,用户可获得24小时在线的AI助手,实现文档处理、日程管理、多语言沟通等自动化任务,无需担心Token费用问题。后续使用中,若遇到模型额度耗尽、服务异常等情况,可参考问题排查部分快速解决,或通过moltbot doctor命令自动诊断。对于进阶用户,还可深入研究OpenClaw的开源特性,自定义技能插件,进一步拓展使用场景。
依托阿里云的稳定云端环境与免费大模型的成本优势,OpenClaw已成为个人与轻量团队提升效率的必备工具,无需专业开发背景,即可轻松解锁AI自动化办公的全新体验。