2026年,英伟达NIM模型推理平台迎来重要更新——免费开放智谱GLM-5与月之暗面Kimi K2.5两款国产顶级模型的调用权限。这两款模型均位列WebDev Leaderboard第一梯队,在推理、编码、长文本处理等场景表现优异,且无需付费即可通过API接入使用,为OpenClaw用户提供了零成本的高阶模型选择。
本文将完整拆解2026年OpenClaw的阿里云与本地双部署流程,详细讲解NVIDIA NIM平台的账号注册、API Key获取,以及GLM-5、Kimi K2.5在OpenClaw中的配置步骤,包含可直接复制的代码命令,帮助用户快速解锁免费顶级模型的强大能力。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。
一、核心认知:NVIDIA NIM与免费模型亮点
(一)NVIDIA NIM平台简介
NIM是英伟达推出的模型推理平台,相当于“AI模型超市”,整合了国内外主流开源与商业模型。此前平台以Llama、Mistral等国外模型为主,2026年新增GLM-5与Kimi K2.5后,填补了国产顶级模型的空白,且支持免费调用,适合个人用户轻量使用。
(二)两款免费模型核心优势
| 模型ID | 开发方 | 核心特性 | 适用场景 |
|---|---|---|---|
| z-ai/glm5 | 智谱AI | 推理能力强(Humanity's Last Exam得分50.4)、中文适配优 | 文本生成、逻辑推理、复杂问答 |
| moonshotai/kimi-k2.5 | 月之暗面 | 长文本处理高效、多轮对话流畅 | 文档分析、多轮交互、内容创作 |
注:免费调用存在速率限制(最高40次/分钟),高峰期可能出现排队现象,适合个人测试与轻度使用;商业场景建议选择官方付费版。
二、2026年OpenClaw双部署流程
方案一:阿里云服务器部署(稳定运行首选)
依托阿里云轻量应用服务器,支持7×24小时运行与多设备访问,适合长期使用与模型协同。
(一)部署前置准备
- 阿里云账号:注册阿里云账号,完成实名认证,无欠费记录;
- 服务器配置:推荐2vCPU+4GiB内存+40GiB ESSD,支持CentOS 8+/Ubuntu 20.04+系统;
- 工具准备:SSH工具(FinalShell/Xshell)或阿里云Web终端;
- 前置凭证:NVIDIA NIM平台的API Key(后续步骤获取),或阿里云百炼(访问订阅阿里云百炼Coding Plan)。
新手零基础阿里云上部署OpenClaw喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(二)详细部署步骤
- 服务器初始化:
- 登录阿里云控制台,创建轻量应用服务器,选择合适地域(推荐中国香港/美国弗吉尼亚)与系统镜像;
- 记录服务器公网IP,通过SSH连接:
ssh root@你的服务器公网IP
- 安装依赖与OpenClaw:
# 更新系统依赖 yum update -y # CentOS系统 # 或 apt update -y && apt upgrade -y # Ubuntu系统 # 安装Node.js(需22.x版本) curl -fsSL https://deb.nodesource.com/setup_22.x | bash - apt install -y nodejs # Ubuntu系统 # 安装OpenClaw curl -fsSL https://openclaw.ai/install.sh | bash - 初始化OpenClaw配置:
运行初始化命令,按以下推荐选项配置:openclaw onboard
| 配置项 | 推荐选择 | 说明 |
|---|---|---|
| I understand this is powerful and inherently risky. Continue? | Yes | 确认风险并继续 |
| Onboarding mode | QuickStart | 快速初始化模式 |
| Model/auth provider | Skip for now | 后续单独配置NVIDIA NIM |
| Filter models by provider | All providers | 支持所有模型提供商 |
| Default model | 保持默认 | 后续通过配置修改 |
| Select channel (QuickStart) | Skip for now | 暂不配置频道 |
| Configure skills now? (recommended) | No | 后续按需配置技能 |
| Enable hooks? | 按空格选中 | 启用钩子功能 |
| How do you want to hatch your bot? | Hatch in TUI | 基于TUI模式启动 |
- 启动服务并设置开机自启:
# 启动OpenClaw服务 systemctl start openclaw # 设置开机自启 systemctl enable openclaw # 验证服务状态(返回active(running)即为成功) systemctl status openclaw - 端口放行:
# 放行18789端口(OpenClaw控制台访问) firewall-cmd --add-port=18789/tcp --permanent firewall-cmd --reload
方案二:本地部署(Windows/Mac,零成本测试)
适合个人用户快速验证功能,无需服务器费用,30分钟内完成。
(一)Windows系统部署
- 安装依赖与OpenClaw:
- 安装Node.js:访问https://nodejs.org/zh-CN/download/current/,下载22.x版本,安装时勾选“Add to PATH”;
- 打开PowerShell(管理员模式),执行安装命令:
# 一键安装OpenClaw iwr -useb https://openclaw.ai/install.ps1 | iex
- 初始化配置:
运行openclaw onboard,按方案一的配置选项完成初始化,选择“Hatch in TUI”启动。 - 启动服务:
# 启动OpenClaw网关 openclaw gateway start # 验证服务状态 openclaw status
(二)Mac系统部署
- 安装Homebrew(若未安装):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" - 安装Node.js与OpenClaw:
# 安装Node.js 22.x brew install node@22 # 安装OpenClaw curl -fsSL https://openclaw.ai/install.sh | bash - 初始化配置与启动:
# 初始化 openclaw onboard # 启动服务 openclaw gateway start
三、NVIDIA NIM平台配置(获取免费模型API Key)
(一)注册NVIDIA账号
- 访问NVIDIA NIM官网:https://build.nvidia.com/;
- 点击右上角“Login”,输入邮箱、设置密码,创建账号;
- 邮箱接收6位验证码,完成验证后设置账户名;
- 关键步骤:点击页面右上角“Verify”,输入国内+86手机号完成验证(必填,否则无法生成API Key)。
(二)生成API Key
- 登录后,点击右上角头像 → 选择“API Keys”;
- 点击“Generate API Key”,设置Key名称(如“OpenClaw-NIM”),过期时间选择“Never”(永久有效);
- 点击“Generate Key”,获取以“nvapi-”开头的API Key,立即复制保存(仅显示一次,丢失需重新生成)。
四、OpenClaw接入NVIDIA NIM模型(GLM-5/Kimi K2.5)
(一)配置方式:终端编辑配置文件
- 打开OpenClaw配置文件:
# 阿里云/Mac nano ~/.openclaw/openclaw.json # Windows PowerShell notepad $HOME/.openclaw/openclaw.json - 添加NVIDIA NIM模型配置:
在models.providers节点下新增nvidia配置,替换YOUR_NVAPI_KEY为实际API Key:"models": { "mode": "merge", "providers": { "nvidia": { "baseUrl": "https://integrate.api.nvidia.com/v1/chat/completions", "apiKey": "YOUR_NVAPI_KEY", "api": "openai-completions", "models": [ { "id": "z-ai/glm5", "name": "GLM-5", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 202752, "maxTokens": 16384 }, { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 262144, "maxTokens": 32768 }, { "id": "minimaxai/minimax-m2.1", "name": "MiniMax M2.1", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 1000000, "maxTokens": 65536 } ] } } } - 配置默认模型(可选):
在agents.defaults节点中设置默认使用的NIM模型:"agents": { "defaults": { "model": { "primary": "nvidia/z-ai/glm5" }, "models": { "nvidia/z-ai/glm5": { }, "nvidia/moonshotai/kimi-k2.5": { }, "nvidia/minimaxai/minimax-m2.1": { } } } } - 保存配置并重启服务:
# 阿里云/Mac openclaw gateway restart # Windows PowerShell openclaw gateway restart
(二)验证模型接入
- 启动OpenClaw控制台:
openclaw dashboard - 在对话框中切换模型,测试调用:
- 切换至GLM-5:
/model nvidia/z-ai/glm5; - 发送测试指令:
用Python实现斐波那契数列的递归算法; - 若模型返回正确代码,说明接入成功。
- 切换至GLM-5:
五、使用技巧与注意事项
(一)多模型对比使用
OpenClaw支持同时调用多个NIM模型,可通过指令快速切换对比结果:
/model nvidia/z-ai/glm5 # 切换至GLM-5
/model nvidia/moonshotai/kimi-k2.5 # 切换至Kimi K2.5
(二)常见问题排查
API Key无效(401错误):
- 原因:API Key未复制完整、手机号未验证或账号未激活;
- 解决方案:重新生成API Key并完整复制,确认手机号已验证。
模型调用超时(504错误):
- 原因:NIM平台资源紧张,高峰期排队;
- 解决方案:避开高峰时段(如晚间),或减少单次请求的文本长度。
模型ID不存在(404错误):
- 原因:配置文件中模型ID与NIM平台不一致;
- 解决方案:确认模型ID为
z-ai/glm5、moonshotai/kimi-k2.5,区分大小写。
(三)使用限制
- 速率限制:免费API Key最高支持40次/分钟调用,超出会被限流;
- 场景限制:仅限个人测试与非商业使用,商业场景需联系模型官方购买授权;
- 稳定性:免费资源优先级较低,可能出现间歇性不可用,不建议用于核心业务。
六、总结:零成本解锁顶级模型能力
通过阿里云部署实现稳定运行,或本地部署快速测试,再搭配NVIDIA NIM平台的免费模型,OpenClaw用户可零成本体验GLM-5、Kimi K2.5等顶级国产模型的强大能力。该方案适合个人用户进行技术验证、内容创作、代码开发等轻量场景,无需投入资金即可享受高阶AI服务。
需注意,免费调用存在速率与稳定性限制,商业场景建议选择智谱、月之暗面官方的Coding Plan付费版。遵循本文步骤,即可快速完成部署与配置,充分利用免费资源提升工作效率。