OpenClaw安装部署指南:阿里云百炼API-Key接入及配置全流程,新手Moltbot傻瓜式教程

简介: OpenClaw(原Clawdbot/Moltbot)是一款开源AI个人助手,支持MacOS/Windows/Linux本地部署,可接入Qwen、Claude等大模型及阿里云百炼API,实现邮件处理、日程管理、设备控制等自动化任务。本指南详解一键安装、百炼API-Key配置与模型调优全流程。

OpenClaw安装部署指南:阿里云百炼API-Key接入及配置全流程,新手Moltbot傻瓜式教程,OpenClaw部署指南:安装Clawdbot、配置百炼API-Key以及AI大模型推荐,Clawdbot介绍、安装OpenClaw与配置百炼API全流程,阿小云整理OpenClaw安装部署指南:


🦞 OpenClaw 是什么?

OpenClaw (原 Clawdbot/Moltbot) 是一款开源的 AI 个人助手,支持本地部署,兼容 MacOS、Windows 及 Linux 等多种系统,支持接入常用聊天工具,让用户能够通过自然语言来控制各种设备和服务。

它是一个功能强大的自动化工具,支持 Qwen、Claude、GPT等主流大语言模型,能够帮助用户处理邮件、日程安排、市场调研等多种自动化任务。阿里云OpenClaw一键部署入口:https://www.aliyun.com/activity/ecs/clawdbot 如下图:

111.png

使用场景举例

  • 24小时在线的 AI 助手服务
  • 自动化处理日常任务(邮件、日程、提醒等)
  • 连接各种 API 和服务,实现自定义自动化流程
  • 作为个人知识库,随时回答你的问题

💻 安装 OpenClaw 与配置百炼 API

2026.01.29 又更名为 OpenClaw。

Clawdbot 于 2026.01.27 正式更名 Moltbot。

在此时间后安装的用户,如使用出现报错如 zsh: command not found,可能需要将本教程中原 clawdbot/moltbot 的指令部分替换成 openclaw 使用。
如项目有其他更名或变更,请按照官方项目文档操作,后续本文档不再对应更新

1)安装与配置 OpenClaw

安装前置条件

确认 Node.js 版本,clawdbot 要求 Node >=22。如果不是 22+,需要先升级 Node (你用 nvm / fnm / brew 都行)

node -v

一键安装

根据 Moltbot 的安装指引,可以选择不同的安装方式。对于 MacOS/Linux 用户,这里比较推荐官方一键安装的脚本:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows (PowerShell):

iwr -useb https://openclaw.ai/install.ps1 | iex

或者你也可以通过全局安装的方式:

npm install -g openclaw@latest
pnpm add -g openclaw@latest

脚本跑完,你会看到如下的 openclaw的 onboarding 指引,说明你安装成功了👇🏻

完成 OpenClaw (Moltbot/Clawdbot) 配置

配置项

参考配置

I understand this is powerful and inherently risky. Continue?

选择 “Yes”

Onboarding mode

选择 “QuickStart”

Model/auth provider

选择 "Skip for now",后续可以配置。

Filter models by provider

选择 "All providers"

Default model

使用默认配置

Select channel (QuickStart)

选择 “Skip for now”,后续可以配置。

Configure skills now? (recommended)

选择 “No”,后续可以配置。

2)开通获取阿里云百炼 API Key

OpenClaw 支持使用 models.providers(或 models.json)来添加自定义模型提供商或与 OpenAI/Anthropic 兼容的代理服务。

阿里云百炼的模型 API 调用支持 OpenAI-compatible 接口,你只需要登录 阿里云百炼大模型服务平台 准备好:

  • 阿里云百炼 API key:获取百炼 API Key
  • 模型调用地址 base_url: https://dashscope.aliyuncs.com/compatible-mode/v1
  • 模型名称 model code:如 qwen-plus, qwen3-max 等

如何获取 API key?

登录 阿里云百炼大模型服务平台,点击密钥管理(北京或新加坡)页面,单击创建 API-KEY,复制即可通过API KEY调用大模型。

如果你使用的是百炼 Coding Plan,记得替换 API key 和模型调用地址:

如何获取 Coding Plan API Key?

3)配置 API Key 到环境变量

建议把 API Key 配置到环境变量,避免在代码里显式地配置API Key,降低泄露风险。

  1. 在终端中执行以下命令,查看默认Shell类型。
echo $SHELL
  1. 根据默认Shell类型,选择 zsh 或者 bash 其一进行操作。

zsh

bash

1

执行以下命令来将环境变量设置追加到 ~/.zshrc 文件中。

# 用您的阿里云百炼API Key代替YOUR_DASHSCOPE_API_KEY
echo "export DASHSCOPE_API_KEY='YOUR_DASHSCOPE_API_KEY'" >> ~/.zshrc

执行以下命令来将环境变量设置追加到 ~/.bash_profile 文件中。

# 用您的阿里云百炼API Key代替YOUR_DASHSCOPE_API_KEY
echo "export DASHSCOPE_API_KEY='YOUR_DASHSCOPE_API_KEY'" >> ~/.bash_profile

2

执行以下命令,使变更生效。

source ~/.zshrc

执行以下命令,使变更生效。

source ~/.bash_profile

3

重新打开一个终端窗口,运行以下命令检查环境变量是否生效。

echo $DASHSCOPE_API_KEY

重新打开一个终端窗口,运行以下命令检查环境变量是否生效。

echo $DASHSCOPE_API_KEY

4)修改 OpenClaw 配置文件

注:OpenClaw 配置是严格校验的,字段写错/多写,Gateway 可能直接跑不起来;如果出问题报错,可以先跑 moltbot doctorclawdbot doctor) 看报错。

OpenClaw 模型引用是 provider/model 的格式,我们需要按照 Moltbot 可解析的方式把模型信息放到配置里。你可以选择 Web UI 方式,或手动编辑配置文件,进行配置。

Web UI 方式

# 2026.01.27 之前,安装的是 clawdbot,使用以下命令
clawdbot dashboard
# 2026.01.27 之后,安装的是 moltbot,使用以下命令
moltbot dashboard
# 2026.01.29 之后,安装的是 openclaw,使用以下命令
openclaw dashboard

手动编辑

或者手动编辑配置信息到~/.openclaw/openclaw.json~/.clawdbot/clawdbot.json)里。这里以阿里云百炼于 2026.01.26 刚发布的 qwen3-max-2026-01-23 模型举例,你可以直接复制粘贴这段配置说明👇🏻

{
  agents: {
    defaults: {
      model: { primary: "bailian/qwen3-max-2026-01-23" },
      models: {
        "bailian/qwen3-max-2026-01-23": { alias: "通义千问 Max Thinking 版" }
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      bailian: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "${DASHSCOPE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "qwen3-max-2026-01-23",
            name: "通义千问 Max Thinking 版",
            reasoning: false,
            input: ["text"],
            cost: { input: 0.0025, output: 0.01, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 262144,
            maxTokens: 32768
          }
        ]
      }
    }
  }
}

如果你是用 nano 来编辑,可以执行以下命令打开配置文件,然后将内容粘贴进去。

# 2026.01.27 之前,安装的是 clawdbot,使用以下命令
nano ~/.clawdbot/clawdbot.json
# 2026.01.27 之后,安装的是 moltbot,使用以下命令
nano ~/.moltbot/moltbot.json

粘贴完配置内容后,在 nano 编辑器中,按 Ctrl + X,接着按Y,再按 Enter 以保存并关闭文件。

当然,如果你使用的场景较为简单,不涉及到复杂的 agent 工具调用,也可以使用阿里云百炼提供的 qwen-plus 模型:

{
  agents: {
    defaults: {
      model: { primary: "bailian/qwen-plus" },
      models: {
        "bailian/qwen-plus": { alias: "通义千问 Plus" }
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      bailian: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "${DASHSCOPE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "qwen-plus",
            name: "通义千问 Plus",
            reasoning: false,
            input: ["text"],
            cost: { input: 0.008, output: 0.008, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 262144,
            maxTokens: 32000
          }
        ]
      }
    }
  }
}

5)配置生效 + 验证模型状态

在终端运行以下指令,保证配置能够生效:

# 方式一:停止服务后,再启动服务
clawdbot gateway stop
# 等待 2-3 秒后启动服务
clawdbot gateway start
# 方式二:直接使用重启命令
clawdbot gateway restart

你还可以通过以下指令看刚刚设置的模型是否被 Clawdbot 识别:

clawdbot models list

你还可以通过以下指令进行一次真实连通探测(会发真实请求,可能产生费用~)

clawdbot models status --probe


💬 简单对话场景验证模型调用

如果你想在连通 discord、telegram 等聊天软件工具之前,先简单验证模型的调用返回,你可以直接唤起 WebUI 界面开始聊天👇🏻

# 2026.01.27 之前,安装的是 clawdbot,使用以下命令
clawdbot dashboard
# 2026.01.27 之后,安装的是 moltbot,使用以下命令
moltbot dashboard

或通过以下指令在 CLI 跑一轮 agent 👇🏻

clawdbot agent --agent main --message "介绍下阿里云百炼"


🌱 阿里云百炼模型推荐

阿里云百炼提供北京、新加坡和弗吉尼亚地域的模型服务,各地域的API Key不同,选择邻近地域调用可降低网络延迟,详情请参见选择地域和部署模式。新用户开通百炼 90 天内,即可享受模型各 100万 Token 模型。

通义千问 Max、通义千问 Plus 和通义千问 Flash 均已升级至Qwen3系列,并兼容OpenAI调用方式,适用于智能客服、文本创作、内容润色以及摘要总结等多种场景。

模型名称

模型介绍

选型建议

价格信息

qwen3-max-2026-01-23


Qwen3-Max-Thinking,是最新的旗舰推理模型。通过大幅增加模型参数规模,并投入大量强化学习训练算力,Qwen3-Max-Thinking 在多个关键维度上实现了显著提升,包括事实知识、复杂推理、指令遵循、人类偏好对齐以及智能体能力。

在19项权威基准测试中,其性能可媲美 GPT-5.2-Thinking、Claude-Opus-4.5 和 Gemini 3 Pro 等顶尖模型。

通义千问系列效果最好的模型,适合处理复杂、多步骤任务,其中 qwen3-max-2026-01-23 模型支持调用内置工具,在复杂问题上实现更高的准确率。

qwen-plus

Qwen3系列Plus模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-Plus,达到同规模业界SOTA水平。

在效果、速度和成本上表现均衡,是多数场景的推荐选择


详细配置教程参考OpenClaw/Clawdbot/Moltbot部署安装官方文档:https://www.aliyun.com/activity/ecs/clawdbot

相关文章
|
8天前
|
弹性计算 运维 应用服务中间件
ECS和轻量应用服务器选哪个?阿里云轻量和ECS有什么区别?2026新手实测
阿里云ECS与轻量应用服务器核心区别:ECS功能全面、弹性强,适合企业级高负载场景;轻量服务器开箱即用、操作简单、性价比高,专为个人开发者、学生及低流量网站(博客、测试环境等)设计。2026实测对比涵盖场景、配置、带宽、计费、运维等维度,助你一键选对!
|
27天前
|
弹性计算 网络协议
阿里云服务器e实例ECS经济型99元一年,ecs.e-c1m1.large性能测评
阿里云99元/年服务器ECS经济型e实例,2核2G、3M固定带宽、40G ESSD云盘,新老用户均可购买,续费同价。性能稳定,支持WordPress等应用,独立IP不限流量,活动持续至2027年,限时抢购中。
|
8天前
|
XML 前端开发 Serverless
自建一个 Agent 很难吗?一语道破,万语难明
本文分享了在奥德赛TQL研发平台中集成BFF Agent的完整实践:基于LangGraph构建状态图,采用Iframe嵌入、Faas托管与Next.js+React框架;通过XML提示词优化、结构化知识库(RAG+DeepWiki)、工具链白名单及上下文压缩(保留近3轮对话)等策略,显著提升TQL脚本生成质量与稳定性。
169 18
自建一个 Agent 很难吗?一语道破,万语难明
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
模型训练篇|多阶段ToolRL打造更可靠的AI导购助手
芝麻租赁推出AI导购“租赁小不懂”,针对长周期、重决策租赁场景,首创“One-Model + Tool-Use”架构与两阶段强化学习,攻克需求难匹配、决策效率低、服务被动三大痛点,实现响应提速78%、推荐成功率提升14.93%,打造贴切、沉浸、信任的场景化租赁体验。(239字)
模型训练篇|多阶段ToolRL打造更可靠的AI导购助手
|
17天前
|
人工智能 自然语言处理 运维
阿里开源 Assistant Agent,助力企业快速构建答疑、诊断智能助手
一款快速构建智能客服、诊断助手、运维助手、AIOps 的开源框架。
573 52
|
8天前
|
人工智能 Java Nacos
构建开放智能体生态:AgentScope 如何用 A2A 协议与 Nacos 打通协作壁垒?
AgentScope 全面支持 A2A 协议和 Nacos 智能体注册中心,实现跨语言跨框架智能体互通。
278 38
|
8天前
|
人工智能 关系型数据库 Serverless
2 天,用函数计算 AgentRun 爆改一副赛博朋克眼镜
2 天将吃灰的 Meta 眼镜改造成“交警Copilot”:通过阿里云函数计算 AgentRun 实现端-管-云协同,利用 Prompt 驱动交通规则判断,结合 OCR 与数据库查询,打造可动态扩展的智能执法原型,展现 Agent 架构在真实场景中的灵活与高效。
159 28
|
15天前
|
存储 缓存 算法
SGLang Hierarchical Sparse Attention 技术深度解析
阿里云 Tair 联合 SGLang 推出分层稀疏化框架,通过“稀疏+分层”协同优化,将 KVCache 从 GPU 显存扩展至 CPU 与远端存储,实现计算与存储效率双突破,为百万级超长上下文推理提供新路径。