OpenClaw(原Clawdbot)作为2026年主流的开源AI智能体工具,具备系统级操作权限,能将自然语言指令转化为文件操作、程序控制等实际行为。搭配轻量级本地大模型管理工具Ollama,可实现本地推理、数据私有化存储的全闭环;而阿里云提供的云端部署方案,则能满足7×24小时稳定运行需求。本文将详细拆解2026年阿里云与本地(Windows 11系统)部署OpenClaw的完整流程,包含Ollama模型定制、技能扩展及常见问题排查,所有代码命令可直接复制执行,零基础用户也能快速上手。
一、核心认知:双部署方案的核心优势
(一)本地部署(OpenClaw+Ollama)
- 数据隐私安全:模型推理、指令执行、数据存储均在本地完成,无需上传云端,适配敏感数据处理场景;
- 无网络依赖:断网环境下仍可实现AI对话、本地文件操作等核心功能,适配特殊网络环境;
- 轻量化易部署:Ollama支持一键拉取主流大模型,无需复杂CUDA配置,普通消费级显卡即可运行;
- 高度可定制:可自定义模型上下文窗口、推理速度,搭配OpenClaw千余种技能插件,扩展能力强。
- 阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

(二)阿里云部署
- 稳定在线:7×24小时不间断运行,不受本地设备关机、休眠影响,随时随地可访问;
- 标准化部署:预置OpenClaw镜像,无需手动配置依赖,出问题可快速排查;
- 弹性扩展:可按需调整实例规格,平衡性能与成本,适合多人协作或高负载场景;
- 对接优质算力:直接关联阿里云百炼大模型,无需本地硬件支撑,推理速度快。
二、2026年阿里云部署OpenClaw流程(5分钟速通)
(一)部署前准备
- 阿里云账号:注册阿里云账号,完成实名认证(个人用户支付宝刷脸即时生效),确保账号无欠费;
- 核心凭证:阿里云百炼API-Key(获取路径:访问登录阿里云百炼大模型服务平台→密钥管理→创建API-Key);
- 工具准备:Chrome/Edge浏览器、SSH工具(FinalShell/Xshell)。
新手零基础阿里云上部署OpenClaw喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(二)分步部署流程
步骤1:购买并配置轻量应用服务器
- 访问阿里云OpenClaw一键部署专题页面,点击「一键购买并部署」;
- 核心配置选择:
- 镜像类型:应用镜像→OpenClaw(Moltbot)专属镜像;
- 实例规格:推荐2vCPU+4GiB内存+40GiB ESSD云盘,内存需≥2GiB;
- 地域选择:优先中国香港、新加坡等海外免备案地域(国内地域除香港外联网搜索功能受限);
- 支付完成后,等待实例状态变为「运行中」,记录服务器公网IP。
步骤2:端口放通与远程配置
- 端口放通:
- 进入轻量应用服务器控制台→实例详情→防火墙,一键放通18789端口(OpenClaw核心端口);
- 远程登录与配置:
# 1. 远程连接服务器(替换为你的公网IP)
ssh root@你的服务器公网IP
# 2. 阿里云专属配置,对接通义千问大模型
openclaw aliyun configure --access-key 你的AccessKeyID --secret-key 你的AccessKeySecret
# 3. 写入百炼API-Key
openclaw config set models.providers.bailian.apiKey "你的百炼API-Key"
# 4. 生成访问Token
openclaw token generate
步骤3:访问与验证
- 浏览器输入
http://服务器公网IP:18789,粘贴生成的Token登录; - 测试核心功能:发送指令“帮我生成一份Python简单求和脚本”,验证AI响应与执行能力。
三、2026年本地部署OpenClaw流程(Windows 11+Ollama)
(一)部署前准备
1. 硬件要求
- NVIDIA GPU:显存≥8GB(推荐RTX 4060/5060/3060系列),可流畅运行7B~14B量化模型;显存4GB可运行4B轻量模型(如Qwen2.5-4B);
- 内存:≥16GB(运行14B模型建议32GB及以上);
- 磁盘空间:预留≥20GB,推荐SSD(提升模型加载速度);
- 处理器:Intel i5/Ryzen 5及以上。
2. 软件要求
- 操作系统:Windows 10 64位及以上(推荐Windows 11 22H2);
- Node.js:版本≥18.0.0(LTS长期支持版);
- PowerShell:以管理员身份运行;
- 显卡驱动:NVIDIA显卡安装最新版GeForce Experience驱动;
- Git:可选(部分技能插件依赖)。
3. 基础工具验证
# 管理员身份运行PowerShell,检查Node.js与npm版本
node --version # 需≥18.0.0
npm --version # 需≥8.0.0
未安装Node.js可前往官网下载,安装时勾选“Add to PATH”自动配置环境变量。
(二)Ollama安装与模型定制
1. Ollama一键安装
- 访问Ollama官方网站,下载Windows安装包,默认下一步安装;
- 安装完成后自动注册为系统服务(开机自启),验证安装:
# 验证Ollama版本 ollama --version
2. 拉取基础大模型(推荐通义千问系列)
# 拉取Qwen2.5 7B模型(约4.7GB,推荐,中文适配性佳)
ollama pull qwen2.5:7b
# 轻量版(显存4GB可用)
ollama pull qwen2.5:4b
# 增强版(显存≥10GB可选)
ollama pull qwen3:8b
3. 定制模型(扩展上下文窗口至32768 tokens)
OpenClaw要求模型上下文窗口≥16000 tokens,基础模型默认仅4096 tokens,需手动定制:
# 1. 切换到用户根目录(替换<你的用户名>为实际Windows用户名)
cd C:\Users\<你的用户名>
# 2. 一键创建Modelfile配置文件
@"FROM qwen2.5:7b
PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile
# 3. 验证配置文件
Get-Content Modelfile
# 4. 创建自定义模型(命名为qwen2.5:7b-32k)
ollama create qwen2.5:7b-32k -f Modelfile
# 5. 验证自定义模型
ollama list # 应显示qwen2.5:7b-32k
ollama show qwen2.5:7b-32k --modelfile # 确认包含num_ctx 32768
(三)OpenClaw安装与核心配置
1. OpenClaw一键安装
# npm全局安装OpenClaw
npm install -g openclaw
# 验证安装
openclaw --version
若提示权限不足,执行:npm install -g openclaw --unsafe-perm。
2. 对接本地Ollama模型
# 启动配置向导
openclaw onboard
按提示依次配置(避免错误):
| 配置步骤 | 操作要求 | 输入/选择内容 |
|---|---|---|
| Model/auth provider | 拉到列表最后 | Custom Provider |
| API Base URL | 固定格式 | http://127.0.0.1:11434/v1 |
| API Key | 任意字符串(不可留空) | ollama(或自定义如123456) |
| Endpoint compatibility | 选择兼容模式 | OpenAI-compatible |
| Model ID | 自定义模型名 | qwen2.5:7b-32k |
| 后续配置项 | 暂不扩展 | 全部选择Skip for now / No |
配置完成显示“Verification successful”即为成功,记录控制台输出的Web UI地址(http://127.0.0.1:18789)与管理员Token。
3. 解决“模型上下文窗口过小”报错
首次启动可能提示“Model context window too small”,需修改配置文件:
- 找到两个核心配置文件:
- 主配置:
C:\Users\<你的用户名>\.openclaw\openclaw.json - 模型配置:
C:\Users\<你的用户名>\.openclaw\agents\main\agent\models.json
- 主配置:
- 用记事本打开,找到
id为qwen2.5:7b-32k的对象,修改参数:{ "id": "qwen2.5:7b-32k", "contextWindow": 32768, "maxTokens": 32768, "name": "qwen2.5:7b-32k", "providerId": "custom-127-0-0-1-11434" } - 保存文件,按
Ctrl+C终止所有OpenClaw进程,重新启动。
(四)启动与功能验证
1. 启动OpenClaw
# 启动TUI终端交互(推荐,轻量流畅)
openclaw tui
# 或启动Web UI网关
openclaw gateway start
2. 核心功能验证
输入以下指令测试,确认AI能正常响应并执行:
- 自然语言对话:
介绍OpenClaw的核心功能 - 代码生成:
写一段Python代码,批量重命名文件夹下的txt文件 - 文件操作:
在桌面创建AI_Test文件夹,新建README.md并写入“OpenClaw+Ollama本地智能体” - 系统查询:
查看当前CPU和内存使用率
四、技能扩展:让OpenClaw拥有更多“超能力”
(一)安装Clawhub技能管理工具
# 安装Clawhub(仅需一次)
npx clawhub install clawhub
(二)一键安装高频实用技能
# 1. 文件操作核心技能
npx clawhub install filesystem-mcp
# 2. PDF编辑(合并、拆分、内容提取)
npx clawhub install nano-pdf
# 3. GitHub集成(需先安装GitHub CLI并认证:gh auth login)
npx clawhub install github
# 4. 笔记同步(Notion/Obsidian)
npx clawhub install notion obsidian
# 5. 内容摘要(URL/本地文件/PDF)
npx clawhub install summarize
# 6. 本地语音识别(基于OpenAI-Whisper)
npx clawhub install openai-whisper
# 7. 本地语音合成(基于sherpa-onnx)
npx clawhub install sherpa-onnx-tts
(三)技能生效与状态检查
# 重启OpenClaw使技能生效
openclaw gateway restart
# 查看技能状态(✓ ready为生效,✗ missing为缺少依赖)
openclaw skills list
技能依赖的CLI工具(如GitHub CLI、obsidian-cli)需单独安装并配置环境变量。
五、常见问题排查
(一)Ollama端口11434被占用
- 原因:Ollama已作为系统服务后台运行,无需手动启动;
- 解决方案:直接使用,无需执行
ollama serve;需重启则在任务管理器结束ollama.exe,执行ollama list自动启动。
(二)OpenClaw配置验证失败
- 解决方案:
- 执行
ollama list确认Ollama服务正常; - 检查API Base URL末尾是否含
/v1; - 确保API Key未留空。
- 执行
(三)技能状态显示“✗ missing”
- 原因:缺少外部CLI工具依赖;
- 解决方案:安装对应工具(如GitHub技能安装gh CLI),添加至系统PATH,重启OpenClaw。
(四)AI无法写入桌面文件(权限不足)
- 原因:OpenClaw默认仅有权限访问自身工作区(
C:\Users\<你的用户名>\.openclaw\workspace); - 解决方案:修改
filesystem-mcp技能配置,添加桌面、D盘等允许访问的目录。
(五)Node.js版本过低
- 解决方案:卸载旧版,下载Node.js 18.0.0及以上LTS版本重新安装。
六、进阶优化技巧
- GPU推理加速:NVIDIA GPU用户执行
setx OLLAMA_CUDA_VISIBLE_DEVICES 0,强制Ollama使用GPU,速度提升5~10倍; - 开机自启:将
openclaw tui添加至Windows开机启动项,实现本地智能体自动运行; - 工作区自定义:修改
openclaw.json的workspace参数,指向SSD目录提升文件操作速度; - 模型切换:在Ollama拉取多个模型,通过
openclaw onboard重新配置Model ID,适配不同场景(编程用Qwen3-Coder,日常用Qwen2.5)。
七、总结
2026年OpenClaw的双部署方案各有侧重:本地部署(OpenClaw+Ollama)保障数据隐私与离线使用,适合敏感场景与个人用户;阿里云部署提供稳定在线与弹性扩展,适合团队协作与高负载需求。
从部署到使用,核心流程可总结为“环境准备→核心工具安装→模型配置→功能验证→技能扩展”,全程无需复杂技术背景,按步骤执行即可完成。随着社区生态完善,技能插件与模型支持持续丰富,OpenClaw将逐步成为覆盖办公、开发、生活的“个人数字员工”,让私有化AI生产力真正落地。