在AI智能体爆发的2026年,OpenClaw凭借本地部署、私有化运行、多工具集成的核心优势,成为个人与企业打造专属智能助手的首选。而Ollama作为轻量级本地大模型管理工具,能让OpenClaw彻底摆脱对云端大模型的依赖,实现“本地推理、数据不泄露、全流程私有化”的安全体验;同时阿里云提供的专属云端部署方案,可满足7×24小时稳定运行需求,兼顾隐私与便捷性。
本文整合Windows 11系统下OpenClaw+Ollama本地部署、阿里云OpenClaw快速搭建、技能扩展、常见问题排查四大核心模块,所有代码命令均可直接复制执行,零基础用户也能快速落地,轻松解锁本地私有化与云端稳定运行的双重体验。阿里云上部署最简单,OpenClaw阿里云上一键极速部署步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

一、核心认知:双部署模式的核心价值与适用场景
(一)本地部署(OpenClaw+Ollama)核心优势
OpenClaw是具备系统级操作权限的AI代理工具,可将自然语言指令转化为文件操作、程序控制等实际行为;Ollama则支持一键部署Qwen、Llama等主流大模型,二者结合实现“本地推理+本地执行”全闭环,核心价值体现在:
- 数据隐私绝对安全:所有模型推理、指令执行、数据存储均在本地完成,无需上传至任何云端,适配敏感办公数据、个人隐私信息处理场景;
- 无网络依赖:断网环境下仍能实现AI对话、本地文件操作等核心功能,适配特殊网络环境需求;
- 轻量化易部署:Ollama体积小、安装简单,无需复杂CUDA配置,普通消费级显卡即可流畅运行;OpenClaw基于Node.js开发,npm一键安装,快速上手;
- 高度可定制:可按需选择大模型参数、定制上下文窗口,搭配上千种技能插件,扩展文件管理、PDF编辑等功能。
(二)云端部署(阿里云OpenClaw)核心优势
针对需要持续在线的场景,阿里云提供预置环境+一键部署方案,核心价值在于:
- 7×24小时稳定运行:摆脱个人电脑关机、休眠、断网的限制,随时随地可访问;
- 零环境配置:专属镜像已预装所有依赖,无需手动部署Ollama与模型,直接对接阿里云大模型算力;
- 弹性扩展:可按需调整实例规格,应对多人使用、复杂任务的性能需求,成本更可控;
- 标准化运维:出问题可快速排查,后续升级与扩容更省心,无需手动处理环境冲突。
(三)适用场景选择
- 本地部署:处理敏感数据、断网环境使用、追求数据隐私的个人/小型团队;
- 云端部署:需要持续在线响应、多人协作、复杂任务自动化的企业/个人用户。
二、场景一:Windows 11本地部署(OpenClaw+Ollama)保姆级步骤
(一)前期准备:硬件+软件双重要求
1. 硬件要求(核心影响模型运行流畅度)
- GPU:NVIDIA显卡显存≥8GB(如RTX 4060/5060系列),可流畅运行7B~14B量化模型;显存4GB可运行4B轻量模型(如Phi-3、Qwen2.5-4B),但推理速度较慢;无NVIDIA GPU可使用CPU推理,速度会大幅下降;
- 内存:≥16GB(推荐32GB),内存不足会导致模型加载失败、系统卡顿,运行14B模型建议32GB及以上;
- 磁盘空间:至少保留20GB剩余空间(7B模型约4.7GB,14B模型约10GB),推荐使用固态硬盘(SSD),提升模型加载与运行速度;
- 处理器:Intel i5/Ryzen 5及以上,满足基础程序运行与指令执行需求。
2. 软件要求(版本为硬性要求)
- 操作系统:Windows 10 64位及以上,推荐Windows 11 22H2及以上版本;
- PowerShell:系统自带,需以管理员身份运行;
- Node.js:版本≥18.0.0(OpenClaw运行核心依赖),推荐LTS长期支持版;
- Git:可选,仅用于部分技能插件依赖安装,新手可暂不安装;
- 显卡驱动:NVIDIA显卡需安装最新版GeForce Experience驱动,确保CUDA功能正常。
3. 基础工具版本检查(必做)
打开管理员身份的PowerShell,执行以下命令验证环境:
# 检查Node.js版本(需≥18.0.0)
node --version
# 检查npm版本(需≥8.0.0)
npm --version
若未安装Node.js,前往官网下载LTS版本,安装时勾选“Add to PATH”自动配置环境变量。
(二)Ollama安装与本地模型定制(智能核心)
Ollama是OpenClaw的“大脑”,负责自然语言指令解析与推理,核心要求是模型上下文窗口≥16000 tokens(OpenClaw官方硬性要求)。
1. Ollama一键安装与验证
- 访问Ollama官方网站,下载Windows版本安装包,双击运行,全程默认下一步完成安装;
- 安装后Ollama自动注册为系统服务,实现开机自启,无需手动启动;
- 验证安装:
# 显示版本号即表示成功 ollama --version
2. 拉取基础大模型(推荐Qwen系列,国内适配性最佳)
Ollama支持一键拉取主流大模型,推荐通义千问系列,兼顾性能与硬件要求:
# 拉取Qwen2.5 7B基础模型(约4.7GB,推荐)
ollama pull qwen2.5:7b
# 更强推理能力(显存≥10GB可选):拉取Qwen3 8B模型(约5GB)
ollama pull qwen3:8b
# 轻量版(显存4GB可选):拉取Qwen2.5 4B模型
ollama pull qwen2.5:4b
拉取过程保持网络通畅,耗时5~20分钟(取决于网络速度),模型自动存储在本地Ollama目录。
3. 定制大模型:扩展上下文窗口至32768 tokens(核心步骤)
Ollama基础模型默认上下文窗口仅4096 tokens,需手动定制扩展至32768 tokens(兼顾推理速度与上下文长度):
# 1. 切换到当前用户根目录(替换<你的用户名>为实际Windows用户名,如Administrator)
cd C:\Users\<你的用户名>
# 2. 一键创建Modelfile配置文件(基于Qwen2.5:7b,设置上下文窗口32768 tokens)
@"FROM qwen2.5:7b
PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile
# 3. 验证配置文件(正确输出应包含FROM qwen2.5:7b和PARAMETER num_ctx 32768)
Get-Content Modelfile
# 4. 创建自定义模型(命名为qwen2.5:7b-32k,便于识别)
ollama create qwen2.5:7b-32k -f Modelfile
# 5. 验证自定义模型(查看本地所有模型,应显示qwen2.5:7b-32k)
ollama list
# 6. 确认上下文窗口配置(确保包含num_ctx 32768)
ollama show qwen2.5:7b-32k --modelfile
若创建时出现“unknown type”错误,重新执行步骤2的创建命令(已指定-Encoding ascii,避免字符问题)。
(三)OpenClaw安装与核心配置(对接本地Ollama)
1. OpenClaw一键安装与版本验证
# npm全局安装OpenClaw(最新稳定版)
npm install -g openclaw
# 验证安装(显示版本号即表示成功,如2026.2.22-2)
openclaw --version
若出现“权限不足”错误,确保PowerShell以管理员身份运行,或执行强制安装命令:
npm install -g openclaw --unsafe-perm
2. 交互式配置:对接本地Ollama模型(核心步骤)
执行配置向导,将OpenClaw指向本地Ollama,步骤如下:
# 启动配置向导
openclaw onboard
按PowerShell提示依次完成以下配置(严格操作,避免错误):
| 配置步骤 | 操作要求 | 输入/选择内容 |
|---|---|---|
| Model/auth provider | 选择模型提供商,拉到列表最后一项 | Custom Provider |
| API Base URL | 本地Ollama的API地址(固定格式) | http://127.0.0.1:11434/v1 |
| API Key | 任意字符串(不可留空,Ollama无实际鉴权,仅为格式要求) | ollama(或自定义如123456) |
| Endpoint compatibility | 接口兼容模式 | OpenAI-compatible |
| Model ID | 本地自定义模型名(与前文一致) | qwen2.5:7b-32k |
| 后续所有配置项 | 暂不配置渠道、技能等 | 全部选择Skip for now / No |
配置完成后,若显示“Verification successful”,表示连接成功;控制台会显示OpenClaw Web UI地址(http://127.0.0.1:18789)和管理员Token,记录Token备用。
若提示“Verification failed”,先执行ollama list测试Ollama服务是否正常,确保API Base URL末尾包含“/v1”、API Key未留空。
3. 解决核心报错:模型上下文窗口过小(必做)
首次启动可能出现“Model context window too small (4096 tokens). Minimum is 16000”报错,原因是OpenClaw缓存了原始4096 tokens参数,需手动修改配置文件:
- 找到两个核心配置文件(路径固定):
- 主配置文件:
C:\Users\<你的用户名>\.openclaw\openclaw.json - 模型配置文件:
C:\Users\<你的用户名>\.openclaw\agents\main\agent\models.json
- 主配置文件:
- 用记事本/VS Code打开文件,找到
models.providers.custom-127-0-0-1-11434.models数组中id为qwen2.5:7b-32k的对象; - 将
contextWindow和maxTokens的值从4096修改为32768,修改后示例:{ "id": "qwen2.5:7b-32k", "contextWindow": 32768, "maxTokens": 32768, "name": "qwen2.5:7b-32k", "providerId": "custom-127-0-0-1-11434" } - 保存文件,按
Ctrl+C终止所有OpenClaw进程,重新启动即可解决。
(四)OpenClaw启动与功能验证
1. 启动TUI终端交互界面(推荐,轻量流畅)
# 启动OpenClaw TUI终端交互界面
openclaw tui
启动成功后,输入自然语言指令测试,如:
- 自然语言对话:
介绍一下OpenClaw的核心功能 - 代码生成:
帮我写一段Python代码,实现批量重命名文件夹下的所有txt文件 - 本地文件操作:
在桌面创建一个名为AI_Test的文件夹,里面新建一个README.md文件,写入内容“OpenClaw+Ollama本地智能体” - 系统信息查询:
查看当前电脑的CPU、内存使用率
若AI能正常回复并执行对应操作,说明本地智能体部署成功。
2. 访问Web UI可视化界面(备选,操作直观)
# 启动Gateway网关
openclaw gateway start
打开浏览器,输入http://127.0.0.1:18789,输入管理员Token登录,在「对话测试」模块验证功能,与TUI效果一致。
(五)技能插件扩展:解锁更多“超能力”
OpenClaw默认仅具备基础功能,需安装技能插件扩展PDF编辑、语音识别等能力,所有技能通过Clawhub技能市场管理:
1. 安装Clawhub技能管理工具(只需一次)
# 安装Clawhub核心工具
npx clawhub install clawhub
2. 一键安装Windows兼容常用技能(直接复制执行)
以下技能涵盖文件操作、办公辅助等高频场景,Windows系统完全兼容:
# 1. 文件操作核心技能(灵活管理本地文件)
npx clawhub install filesystem-mcp
# 2. PDF编辑技能(合并、拆分、内容提取)
npx clawhub install nano-pdf
# 3. GitHub集成(需安装GitHub CLI,见下文)
npx clawhub install github
# 4. 笔记同步(支持Notion、Obsidian)
npx clawhub install notion
npx clawhub install obsidian
# 5. 任务管理(对接Trello)
npx clawhub install trello
# 6. 内容摘要(支持URL、本地文件/PDF摘要)
npx clawhub install summarize
# 7. 天气查询(无需API,本地解析)
npx clawhub install weather
# 8. 本地语音识别(基于OpenAI-Whisper)
npx clawhub install openai-whisper
# 9. 本地语音合成(基于sherpa-onnx)
npx clawhub install sherpa-onnx-tts
3. 技能生效与依赖安装
- 重启OpenClaw:退出TUI(Ctrl+C),重新执行
openclaw tui启动,加载技能插件; - 检查技能状态:
# 状态显示✓ ready表示生效,✗ missing表示缺少依赖 openclaw skills list - 安装核心依赖(部分技能需外部CLI工具):
- GitHub技能:安装GitHub CLI,双击安装后执行
gh auth login完成认证; - Obsidian技能:安装obsidian-cli,配置环境变量;
- 语音识别/合成:下载whisper.cpp、sherpa-onnx的Windows可执行文件,添加至系统PATH。
- GitHub技能:安装GitHub CLI,双击安装后执行
4. 解决技能安装速率限制
若出现“Rate limit exceeded”报错,解决方案二选一:
- 简单方案:等待10~15分钟后重新安装;
- 永久方案:注册Clawhub账号并登录,提升请求限额:
npx clawhub login # 按提示在浏览器完成注册/登录
三、场景二:阿里云OpenClaw(Clawdbot)部署简单步骤(5分钟速通)
针对需要7×24小时在线的场景,阿里云提供预置镜像+一键部署方案,无需手动配置Ollama与模型:
(一)部署前准备
- 阿里云账号:注册并登录阿里云账号,完成个人实名认证(支付宝刷脸即时生效),确保账号无欠费;
- 核心凭证:阿里云百炼API-Key(访问阿里云百炼大模型服务平台→密钥管理→创建并保存,新用户可领取超7000万免费tokens);
- 服务器配置规划:
- 实例规格:推荐2vCPU+4GiB内存(基础版),复杂场景选择4vCPU+8GiB内存;
- 地域选择:优先中国香港、新加坡等海外免备案地域,无需ICP备案即可使用;
- 镜像:OpenClaw专属应用镜像(默认选中,无需手动修改)。
(二)详细部署流程
阿里云用户零基础部署OpenClaw步骤喂饭级步骤流程
第一步:访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
阿里云OpenClaw一键部署专题页面:https://www.aliyun.com/activity/ecs/clawdbot


第二步:选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。
前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
步骤1:购买并创建实例
- 访问阿里云OpenClaw一键部署专题页面,点击“一键购买并部署”;
- 配置选择:
- 实例规格:2vCPU+4GiB内存+40GiB ESSD云盘+200Mbps带宽;
- 地域:选择海外免备案地域(如中国香港、新加坡);
- 购买时长:长期使用建议年付,短期测试可选月付;
- 支付完成后,等待实例状态变为“运行中”,记录服务器公网IP。
步骤2:端口放行
- 进入轻量应用服务器控制台,找到目标实例,点击“防火墙→添加规则”;
- 分别放行以下端口:
- 端口18789(OpenClaw核心端口),协议TCP,来源0.0.0.0/0;
- 端口11434(Ollama默认端口,可选),协议TCP,来源0.0.0.0/0;
- 保存规则,等待1~2分钟生效。
步骤3:配置百炼API-Key与启动服务
- 远程登录服务器(替换为实际公网IP):
ssh root@你的服务器公网IP - 执行阿里云专属配置命令,对接通义千问大模型:
# 阿里云OpenClaw一键配置(替换为你的AccessKeyID和AccessKeySecret) openclaw aliyun configure --access-key 你的AccessKeyID --secret-key 你的AccessKeySecret - 启动OpenClaw服务并设置开机自启:
```bash启动服务
systemctl start openclaw
设置开机自启
systemctl enable openclaw
验证服务状态(显示active(running)即为正常)
systemctl status openclaw
4. 生成访问Token:
```bash
openclaw token generate --admin
步骤4:功能验证
- 浏览器访问:
http://服务器公网IP:18789/?token=生成的管理员Token; - 输入指令“帮我生成一个Python打印‘Hello Aliyun OpenClaw’的代码”,若10秒内返回可执行代码,说明部署成功。
(三)阿里云部署避坑指南
- 地域选择:国内地域(如北京、上海)需完成ICP备案后才能公网访问,新手优先选择海外免备案地域;
- 权限问题:企业用户需确保子账号拥有“轻量应用服务器管理”“百炼密钥管理”权限,否则无法完成实例购买与API-Key配置;
- 资源不足:若出现服务卡顿、启动失败,可通过阿里云控制台弹性升级实例规格(无需重新部署);
- Token安全:管理员Token仅用于首次登录,登录后建议创建普通用户账号,限制权限,避免Token泄露。
四、常见问题排查:双部署模式避坑指南
(一)本地部署高频问题
问题1:执行ollama serve提示“端口11434被占用”
- 原因:Ollama安装后已自动注册为系统服务,后台已运行,无需手动启动;
- 解决方案:直接使用即可,无需执行
ollama serve;若需重启Ollama,在任务管理器结束ollama.exe进程,重新执行ollama list自动启动。
问题2:AI无法将文件保存到桌面,提示权限不足
- 原因:OpenClaw默认仅有权限访问自身工作区目录(
C:\Users\<你的用户名>\.openclaw\workspace); - 解决方案:
- 临时方案:让AI将文件保存到工作区,手动复制到目标目录;
- 进阶方案:修改
filesystem-mcp技能配置文件,添加允许访问的目录(如桌面、D盘)。
问题3:技能安装后状态显示“✗ missing”
- 原因:技能依赖的外部CLI工具未安装或未配置环境变量;
- 解决方案:查看技能官方描述,安装对应的CLI工具(如GitHub技能安装gh CLI),并将工具路径添加至系统PATH,重启OpenClaw。
(二)云端部署高频问题
问题1:Web控制台无法访问
- 原因:端口未放行、服务器防火墙未关闭、OpenClaw服务未运行;
- 解决方案:重新放行18789端口,执行
systemctl start openclaw启动服务,必要时关闭服务器防火墙(systemctl stop firewalld)。
问题2:模型调用失败
- 原因:API-Key错误、百炼免费额度耗尽、网络异常;
- 解决方案:重新创建并配置API-Key,续费百炼套餐,执行
ping dashscope-intl.aliyuncs.com验证网络连通性。
五、进阶优化与使用技巧
(一)本地部署优化
- 模型推理速度:NVIDIA GPU用户执行以下命令,强制Ollama使用GPU推理,速度提升5~10倍:
setx OLLAMA_CUDA_VISIBLE_DEVICES 0 - 开机自启:将
openclaw tui命令添加至Windows开机启动项,实现本地智能体自动运行; - 工作区自定义:修改OpenClaw配置文件
openclaw.json中的workspace参数,将工作区指向固态硬盘,提升文件操作速度; - 模型切换:在Ollama中拉取多个模型,通过
openclaw onboard重新配置Model ID,适配不同场景(编程用Qwen3-Coder,日常对话用Qwen2.5)。
(二)云端部署优化
- 日志查看:执行
journalctl -u openclaw --tail 100查看运行日志,排查问题; - 配置备份:定期备份OpenClaw配置文件,避免配置丢失:
cp /root/.openclaw/openclaw.json /root/.openclaw/openclaw.json.bak - 用量监控:登录阿里云百炼控制台,查看模型调用用量,设置用量预警,避免超额费用。
六、总结
OpenClaw的双部署模式为用户提供了灵活选择:Windows+Ollama本地部署保障数据隐私与无网络依赖,适合敏感场景与个人使用;阿里云云端部署实现7×24小时稳定运行,满足团队协作与持续响应需求。
本文详细拆解了两种部署模式的全流程,包含可直接复制的代码命令、避坑指南与技能扩展方案,零基础用户也能快速落地。随着OpenClaw社区发展与Ollama支持模型的丰富,本地智能体的能力将持续升级,未来可实现自动化办公、智能开发辅助、智能家居控制等更多场景落地。
无论是追求数据隐私的个人用户,还是需要稳定运行的企业团队,都能通过本文的方案,快速解锁OpenClaw的核心价值,让AI真正为个人与业务服务。