*本教程适用于希望在 Moltbot (Clawdbot) 调用阿里云百炼提供的模型 API 的用户
🦞 Clawdbot 是什么
Moltbot (原 Clawdbot) 是一款开源的 AI 个人助手,支持本地部署,让用户能够通过自然语言来控制各种设备和服务。它是一个功能强大的自动化工具,支持 Qwen、Claude、GPT等主流大语言模型,能够帮助用户处理邮件、日程安排、市场调研等多种自动化任务。
使用场景举例:
- 24小时在线的 AI 助手服务
- 自动化处理日常任务(邮件、日程、提醒等)
- 连接各种 API 和服务,实现自定义自动化流程
- 作为个人知识库,随时回答你的问题
💻 安装与配置百炼 API
0)安装前置条件
确认 Node.js 版本,clawdbot 要求 Node >=22。如果不是 22+,需要先升级 Node (你用 nvm / fnm / brew 都行)
node -v
1)安装 Clawdbot
根据 Clawdbot 的安装指引,可以选择不同的安装方式。对于 MacOS/Linux 用户,这里比较推荐官方一键安装的脚本:
curl -fsSL https://clawd.bot/install.sh | bash
Windows (PowerShell):
iwr -useb https://clawd.bot/install.ps1 | iex
或者你也可以通过全局安装的方式:
npm install -g clawdbot@latest
pnpm add -g clawdbot@latest
脚本跑完,你会看到如下的 clawdbot onboarding 指引,说明你安装成功了👇🏻
安装向导中的模型提供方 Qwen (OAuth) 指向 Qwen Chat 登录,注册登录后可获得 Qwen Coder 和 Qwen Vision 模型免费层级的 OAuth 流程(每天 2,000 次请求,受 Qwen 速率限制约束)。
2)开通获取阿里云百炼 API Key
Moltbot (Clawdbot) 支持使用 models.providers(或 models.json)来添加自定义模型提供商或与 OpenAI/Anthropic 兼容的代理服务。
阿里云百炼的模型 API 调用支持 OpenAI-compatible 接口,你只需要登录 阿里云百炼大模型服务平台 准备好:
- 阿里云百炼 API key
- 模型调用地址 base_url
- 模型名称 model code
如何获取 API key?
登录 阿里云百炼大模型服务平台,点击密钥管理(北京或新加坡)页面,单击创建 API-KEY,复制即可通过API KEY调用大模型。
3)配置 API Key 到环境变量
建议把 API Key 配置到环境变量,避免在代码里显式地配置API Key,降低泄露风险。
首先,在终端中执行以下命令,查看默认Shell类型。
echo $SHELL
其次,根据默认Shell类型,选择 zsh 或者 bash 其一进行操作。
zsh
- 执行以下命令来将环境变量设置追加到
~/.zshrc文件中。
# 用您的阿里云百炼API Key代替YOUR_DASHSCOPE_API_KEY echo "export DASHSCOPE_API_KEY='YOUR_DASHSCOPE_API_KEY'" >> ~/.zshrc
- 执行以下命令,使变更生效。
source ~/.zshrc
- 重新打开一个终端窗口,运行以下命令检查环境变量是否生效。
echo $DASHSCOPE_API_KEY
bash
- 执行以下命令来将环境变量设置追加到
~/.bash_profile文件中。
# 用您的阿里云百炼API Key代替YOUR_DASHSCOPE_API_KEY echo "export DASHSCOPE_API_KEY='YOUR_DASHSCOPE_API_KEY'" >> ~/.bash_profile
- 执行以下命令,使变更生效。
source ~/.bash_profile
- 重新打开一个终端窗口,运行以下命令检查环境变量是否生效。
echo $DASHSCOPE_API_KEY
4)编辑 Moltbot 配置文件
注:Moltbot (原Clawdbot) 配置是严格校验的,字段写错/多写,Gateway 可能直接跑不起来;如果出问题报错,可以先跑
clawdbot doctor看报错。Clawdbot 模型引用是 provider/model 的格式,我们需要按照 Clawdbot 可解析的方式把模型信息放到配置里。
这里以阿里云百炼最新发布的 qwen3-max thinking 版模型举例(模型介绍),你可以直接将这段内容接进 ~/.clawdbot/clawdbot.json 里面👇🏻
{ agents: { defaults: { model: { primary: "bailian/qwen3-max-2026-01-23" }, models: { "bailian/qwen3-max-2026-01-23": { alias: "通义千问 Max Thinking 版" } } } }, models: { mode: "merge", providers: { bailian: { baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1", apiKey: "${DASHSCOPE_API_KEY}", api: "openai-completions", models: [ { id: "qwen3-max-2026-01-23", name: "通义千问 Max Thinking 版", reasoning: false, input: ["text"], cost: { input: 0.0025, output: 0.01, cacheRead: 0, cacheWrite: 0 }, contextWindow: 262144, maxTokens: 65536 } ] } } } }
如果你是用 nano 来编辑,可以执行以下命令打开配置文件,然后将内容粘贴进去。
nano ~/.clawdbot/clawdbot.json
粘贴完配置内容后,在 nano 编辑器中,按 Ctrl + X,接着按Y,再按 Enter 以保存并关闭文件。
当然,如果你使用的场景较为简单,不涉及到复杂的 agent 工具调用,也可以使用阿里云百炼提供的 qwen-plus 模型:
{ agents: { defaults: { model: { primary: "bailian/qwen-plus" }, models: { "bailian/qwen-plus": { alias: "通义千问 Plus" } } } }, models: { mode: "merge", providers: { bailian: { baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1", apiKey: "${DASHSCOPE_API_KEY}", api: "openai-completions", models: [ { id: "qwen-plus", name: "通义千问 Plus", reasoning: false, input: ["text"], cost: { input: 0.008, output: 0.008, cacheRead: 0, cacheWrite: 0 }, contextWindow: 1029000, maxTokens: 32000 } ] } } } }
5)配置生效 + 验证模型状态
在终端运行以下指令,保证配置能够生效:
clawdbot gateway restart
你还可以通过以下指令看刚刚设置的模型是否被 Clawdbot 识别:
clawdbot models list
你还可以通过以下指令进行一次真实连通探测(会发真实请求,可能产生费用~)
clawdbot models status --probe
💬 简单对话场景验证模型调用
如果你想在连通 discord、telegram 等聊天软件工具之前,先简单验证模型的调用返回,你可以通过以下指令跑一轮 agent 👇🏻
clawdbot agent --agent main --message "介绍下阿里云百炼"
🌱 阿里云百炼模型推荐
阿里云百炼提供北京、新加坡和弗吉尼亚地域的模型服务,各地域的API Key不同,选择邻近地域调用可降低网络延迟,详情请参见选择地域和部署模式。新用户开通百炼 90 天内,即可享受模型各 100万 Token 模型。
通义千问 Max、通义千问 Plus 和通义千问 Flash 均已升级至Qwen3系列,并兼容OpenAI调用方式,适用于智能客服、文本创作、内容润色以及摘要总结等多种场景。
模型名称 |
模型介绍 |
选型建议 |
价格信息 |
qwen3-max-2026-01-23 |
Qwen3-Max-Thinking,是最新的旗舰推理模型。通过大幅增加模型参数规模,并投入大量强化学习训练算力,Qwen3-Max-Thinking 在多个关键维度上实现了显著提升,包括事实知识、复杂推理、指令遵循、人类偏好对齐以及智能体能力。 在19项权威基准测试中,其性能可媲美 GPT-5.2-Thinking、Claude-Opus-4.5 和 Gemini 3 Pro 等顶尖模型。 |
通义千问系列效果最好的模型,适合处理复杂、多步骤任务,其中 qwen3-max-2026-01-23 模型支持调用内置工具,在复杂问题上实现更高的准确率。 |
|
qwen-plus |
Qwen3系列Plus模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-Plus,达到同规模业界SOTA水平。 |
在效果、速度和成本上表现均衡,是多数场景的推荐选择 |
|