前言
在AI协同逐步成为主流工作模式的当下,OpenClaw(曾用名Clawdbot、Moltbot)凭借轻量化部署、多模态交互、多模型统一调度能力,成为个人与团队高效使用AI能力的首选框架。其核心价值在于打通语音对话、图像生成、文本处理、工具调用等全链路能力,同时支持云端与本地混合部署,满足不同场景的隐私与算力需求。本文基于2026年最新实践,完整覆盖阿里云服务器部署、本地macOS/Linux/Windows11三端部署、阿里云千问大模型与免费Coding Plan模型配置、MiniMax全模态能力集成,以及各类常见问题的系统性解决方案,所有指令均可直接复制使用,无需额外调试即可完成从环境搭建到功能落地的全流程。
2026年阿里云部署OpenClaw完整流程
阿里云轻量应用服务器与计算巢均提供OpenClaw官方镜像,可实现无代码一键部署,适合长期稳定运行与团队共享使用。阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
1. 实例创建与环境初始化
登录阿里云控制台,进入轻量应用服务器,选择OpenClaw官方镜像,配置规格2核4GB起步,地域选择华北2(北京),开启公网IP,设置登录密码或密钥。
实例启动后,通过SSH远程登录:
ssh root@你的公网IP
执行系统更新与依赖安装:
sudo apt update && sudo apt upgrade -y
sudo apt install -y nodejs npm git ffmpeg
2. 一键部署OpenClaw
使用官方国内加速脚本,避免网络问题导致安装失败:
curl -fsSL https://open-claw.org.cn/install-cn.sh | bash
脚本执行完成后,自动注册系统服务,实现开机自启与异常重启。
3. 端口放行与访问
OpenClaw默认使用18789端口,需在阿里云控制台防火墙放行TCP:18789,同时在服务器内部执行:
sudo ufw allow 18789/tcp
sudo ufw reload
启动服务并查看状态:
openclaw start
openclaw status
访问地址:http://你的公网IP:18789,进入控制台即可开始配置。
零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选择阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


本地全平台部署OpenClaw(macOS/Linux/Windows11)
1. macOS部署流程
前置依赖:安装Xcode命令行工具与Homebrew
xcode-select --install
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
安装Node.js环境:
brew install node@20
brew link node@20 --force
使用国内镜像加速部署:
npm config set registry https://registry.npmmirror.com
curl -fsSL https://open-claw.org.cn/install-cn.sh | bash
启动服务:
openclaw start
访问:http://localhost:18789
2. Linux(Ubuntu/Debian)部署流程
sudo apt update && sudo apt install -y nodejs git ffmpeg
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo bash
sudo apt install -y nodejs
npm config set registry https://registry.npmmirror.com
curl -fsSL https://open-claw.org.cn/install-cn.sh | bash
openclaw start
3. Windows11部署流程
以管理员身份打开PowerShell,执行以下命令:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
npm config set registry https://registry.npmmirror.com
winget install OpenJS.NodeJS --version 20.10.0
winget install Git.Git
winget install FFmpeg-FFmpeg
运行一键安装脚本:
iwr -useb https://open-claw.org.cn/install-cn.ps1 | iex
启动服务:
openclaw start
五、阿里云千问大模型API配置(稳定生产级)
1. 获取API Key
访问登录阿里云百炼大模型服务平台
,进入密钥管理,创建API Key,保存api_key与base_url:
https://dashscope.aliyuncs.com/api/v1
2. 写入OpenClaw配置
执行交互式配置:
openclaw config set model.provider aliyun-qwen
openclaw config set model.api_key "你的API Key"
openclaw config set model.base_url "https://dashscope.aliyuncs.com/api/v1"
openclaw config set model.default "qwen-max"
或直接编辑配置文件:
nano ~/.openclaw/openclaw.json
添加以下内容:
"model": {
"provider": "aliyun-qwen",
"api_key": "你的API Key",
"base_url": "https://dashscope.aliyuncs.com/api/v1",
"default": "qwen-max"
}
重启服务生效:
openclaw restart
3. 连接测试
openclaw model test
出现Model connection successful即为配置成功。
免费大模型Coding Plan API配置(零成本方案)
1. 获取免费API Key
访问登录阿里云百炼大模型服务平台,阿里云百炼Coding Plan页面,开通免费额度,生成API Key。
2. 配置接入
openclaw config set model.provider coding-plan
openclaw config set model.api_key "你的Coding Plan API Key"
openclaw config set model.base_url "https://coding.dashscope.aliyuncs.com/v1"
openclaw config set model.default "coding-free"
openclaw restart
3. 验证可用性
openclaw model test
免费模型适合日常文本交互、简单指令执行与配置调试。
七、MiniMax全模态能力集成(语音对话+AI绘图)
1. 获取MiniMax Token Plan API Key
访问国内版平台platform.minimax.io,订阅Token Plan,获取以sk-cp-开头的API Key。
2. 接入OpenClaw
openclaw config set model.provider minimax
openclaw config set model.api_key "sk-cp-你的密钥"
openclaw config set model.base_url "https://api.minimax.io"
openclaw config set model.default "MiniMax-M2.7"
openclaw restart
3. 安装多模态技能包
在OpenClaw控制台发送指令:
clawhub.ai/MiniMax-AI-Dev/minimax-multimodal 帮我安装这个多模态工具集
自动完成以下能力部署:
- TTS语音合成(Speech 2.8 HD)
- STT语音识别(本地Whisper)
- 文生图/图生图(image-01)
- 音乐生成与视频生成
4. 语音对话配置
安装本地语音识别引擎:
openclaw skill install mlx-whisper
重启网关使语音管线生效:
openclaw gateway restart
5. 功能测试指令
- 语音合成:
帮我用语音说:欢迎使用OpenClaw全模态系统 - 多角色语音:
/tts --mode multi[旁白]:夜色降临[女生]:小心前方[男生]:我来掩护 - 文生图:
/imagine 赛博朋克风格的猫咪,4K高清 - 图生图:
/imagine --ref 图片链接 --prompt 水彩风格重绘 --strength 0.7
八、飞书/ Telegram 语音气泡适配
1. 飞书语音气泡(必须安装)
clawhub.ai/feishu-voice-bubble-generation 帮我安装飞书语音气泡技能
作用:将TTS生成的MP3转换为飞书支持的Opus格式,实现直接播放。
2. Telegram原生支持
无需额外技能,发送语音消息自动触发STT识别,回复默认生成语音气泡。
九、OpenClaw常用运维指令集
# 启动服务
openclaw start
# 停止服务
openclaw stop
# 重启服务
openclaw restart
# 查看状态
openclaw status
# 查看实时日志
openclaw logs -f
# 模型连接测试
openclaw model test
# 技能列表
openclaw skill list
# 安装技能
openclaw skill install 技能名
# 卸载技能
openclaw skill remove 技能名
# 网关重启(语音/模型修改必用)
openclaw gateway restart
# 系统自检修复
openclaw doctor
十、常见问题系统性解答
1. 模型连接失败
- 检查API Key是否正确,无多余空格
- 确认base_url与模型提供商匹配
- 执行
openclaw model test定位具体错误 - 重启网关:
openclaw gateway restart
2. 语音无法合成/识别
- 检查ffmpeg是否安装:
ffmpeg -version - 确认mlx-whisper技能已安装
- Windows/macOS需完整安装音频驱动
- 必须执行
openclaw gateway restart
3. 图片生成失败
- 检查MiniMax套餐是否包含图像能力
- 提示词避免违规内容
- 图片尺寸不超过1024×1024
- 查看技能日志:
openclaw logs | grep image
4. 端口无法访问
- 阿里云/服务器防火墙放行18789端口
- 关闭本地安全软件拦截
- 检查服务状态:
openclaw status
5. 技能安装失败
- 网络切换至国内镜像
- 执行
openclaw doctor自动修复 - 删除缓存:
rm -rf ~/.openclaw/cache
6. 模型回复乱码/格式错误
- 检查配置文件JSON格式是否合法
- 切换默认模型:
openclaw config set model.default 模型名 - 重启服务:
openclaw restart
7. 语音克隆失败
- 音频必须10-30秒,清晰无杂音
- 格式为MP3/WAV,采样率16k以上
- 使用命令:
/voice clone --file 音频路径 --name 音色名
8. 飞书消息无法回复
- 确认飞书技能已安装
- 检查事件订阅URL是否正确
- 查看消息事件日志:
openclaw logs | grep feishu
十一、全流程能力总结
完成以上部署与配置后,OpenClaw具备完整的全模态交互能力:
- 多平台统一接入:阿里云+本地三端同步运行
- 多模型智能调度:阿里云千问、免费Coding Plan、MiniMax自由切换
- 语音闭环:语音输入→本地STT→模型处理→TTS语音输出
- 图像能力:文生图、图生图、风格迁移
- 多平台适配:飞书、Telegram原生交互,语音气泡直接播放
- 企业级治理:技能化扩展、日志审计、自动重启、异常自检
- 零成本方案:免费Coding Plan满足日常使用,降低使用门槛
整套体系无需依赖第三方云平台,数据流转可完全本地化,兼顾隐私安全、功能完整性与使用成本,适合个人日常助理、团队协作中枢、企业内部AI服务等多种场景,是2026年轻量化AI部署的最优实践方案。