2026年,OpenClaw(昵称“龙虾AI”)凭借其“真执行、强隐私、高扩展”的核心优势脱颖而出。这款由PSPDFKit创始人Peter Steinberger开发的开源个人AI助手,不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码,甚至监控文件夹自动备份。

本文将手把手带你完成 OpenClaw 的两种主流部署方式(云端 + 本地),并教你如何免费配置多种大模型(包括 Qwen、Llama、MiniMax 等),全程无需编程基础,真正实现“两步上手”。
一、部署方案选型:云端 vs 本地
云端部署(阿里云为例)
适用场景:需要7×24小时稳定运行、多设备远程访问、长期自动化任务。
核心优势:
- 依托阿里云轻量应用服务器的高性能,支持多模型并发执行。
- 无需本地硬件,适合无专业设备的用户。
- 图形化界面配置,降低技术门槛。
推荐配置:
- 实例规格:2vCPU + 4GiB内存 + 40GiB ESSD云盘
- 系统镜像:Ubuntu 22.04 LTS
- 地域选择:中国香港或美国弗吉尼亚(免ICP备案,支持多模型无限制访问)
- 带宽:200Mbps
本地部署
适用场景:数据敏感、追求隐私保护、无网络环境需求。
核心优势:
- 数据本地处理,隐私完全可控。
- 无需服务器费用,支持Windows、macOS、Linux三大系统。
- 适合短期测试或轻量级任务。
推荐配置:
- 系统:Windows 10/11 或 macOS 10.15+
- 内存:至少8GB(16GB更佳)
- 显卡:非必需,但有可提升模型推理速度
二、云端部署:两步极速上手
阿里云推出了OpenClaw一键部署方案,无论你是技术小白、中小企业主,还是资深开发者,只需两步操作,即可快速拥有专属AI助理!
阿里云OpenClaw部署专题:https://www.aliyun.com/activity/ecs/clawdbot
第一步: 选择轻量应用服务器
前往【阿里云OpenClaw部署专题】页面,点击【一键购买并部署】。配置选择2核2G及以上,镜像选择【应用镜像】中的【OpenClaw】镜像,地域优先选择中国香港或新加坡,提交订单并完成支付。

第二步:前往控制台配置OpenClaw
打开阿里云轻量应用服务器控制台,进入实例的【应用详情】页面,通过图形化界面快速完成OpenClaw配置,无需写代码或改配置,轻松打通消息通道。

- 快速部署:无需复杂配置,点击“执行命令”即可完成配置。
- 安全隔离:随机开放监听端口,规避安全风险。
- 简化流程:快速接入企业微信、QQ、钉钉、飞书四大国内主流IM。
三、本地部署:三步轻松搞定
第一步:安装本地模型运行器(Ollama)
- 下载并安装Ollama:
- Windows:访问Ollama官网,下载安装包后双击运行。
- macOS:下载安装包后拖入Applications文件夹,终端输入
ollama --version验证安装。
- 拉取免费本地模型:
- 推荐模型:Qwen2.5(中文理解强)或GLM-4(智谱系轻量模型)。
- 命令行输入
ollama pull qwen2.5或ollama pull glm4,等待下载完成。
第二步:安装OpenClaw本体
- 使用官方安装脚本:
- Windows(PowerShell):
iwr -useb https://openclaw.ai/install.ps1 | iex - macOS/Linux:
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash
- Windows(PowerShell):
- 验证安装:
- 终端输入
openclaw doctor和openclaw status,确认健康检查和状态正常。
- 终端输入
第三步:配置本地模型连接
- 打开OpenClaw设置页,找到“模型配置”或“Model Settings”。
- 填写以下信息:
- 模型提供商(Provider):Ollama
- API地址(Base URL):
http://localhost:11434 - 模型名称(Model):
qwen2.5或glm4
- 保存设置并重启OpenClaw。
- 验证本地模型调用:
- 在聊天框输入指令“帮我列出当前目录下的所有文件”,确认任务正常返回。
- 终端输入
ollama ps,查看模型是否处于运行状态。
四、免费多模型配置方案
方案一:阿里云百炼(Qwen系列)
- 获取API-Key:
- 访问阿里云百炼平台,登录后进入密钥管理,创建API-Key并复制保存。
- 在OpenClaw中配置:
- 进入模型管理页面,选择“Qwen”作为模型提供商,粘贴API-Key和Endpoint(
https://dashscope.aliyuncs.com/compatible-mode/v1)。 - 选择模型版本(如qwen-turbo、qwen-plus),点击保存并设为默认模型。
- 进入模型管理页面,选择“Qwen”作为模型提供商,粘贴API-Key和Endpoint(
方案二:MiniMax(国内直连)
- 注册MiniMax账号:
- 访问MiniMax官网,注册后获取7天免费试用额度。
- 在OpenClaw中配置:
- 进入模型管理页面,选择“MiniMax”作为模型提供商,粘贴API-Key和Endpoint(
https://api.minimax.chat/v1)。 - 选择服务版本(如国内版),点击保存并设为默认模型。
- 进入模型管理页面,选择“MiniMax”作为模型提供商,粘贴API-Key和Endpoint(
方案三:混合架构(本地+云端)
- 本地模型处理简单任务:
- 在OpenClaw中配置Ollama作为默认模型,处理文件管理、日程提醒等轻量级任务。
- 云端模型处理复杂任务:
- 在模型管理页面配置Claude或GPT等云端模型,通过指令显式调用(如“用Claude帮我写代码”)。
- 成本优化:
- 复杂任务走云端模型,简单任务走本地模型,平衡效果与成本。
五、常见问题与解决方案
- 机器人不说话:
- 检查是否设为默认模型(进入模型管理页面,点击“Set as default model”)。
- 提示“Model not found”:
- 确认模型名称拼写正确(如qwen2.5而非Qwen2.5),或通过
ollama list查看已安装模型。
- 确认模型名称拼写正确(如qwen2.5而非Qwen2.5),或通过
- API Key无效:
- 重新去平台复制API Key,避免漏字符或多余空格。
- 本地模型调用失败:
- 确认Ollama服务正在运行(终端输入
ollama ps),或重启OpenClaw后重试。
- 确认Ollama服务正在运行(终端输入
六、总结
OpenClaw凭借其强大的执行能力与灵活的部署方案,成为2026年个人与轻量团队打造专属AI助手的首选工具。通过云端与本地双部署模式,用户可根据实际需求选择最适合的方案;搭配免费多模型配置,既能保证效果又能控制成本。无论是处理邮件、管理日程,还是写代码、订机票,OpenClaw都能帮你轻松搞定,让AI真正落地干活!