2026年,开源AI智能体OpenClaw(曾用名Clawdbot/Moltbot,昵称“龙虾”)凭借“自然语言驱动、全场景执行”的核心优势持续爆红,而本地大模型部署方案的成熟,更是彻底打破了API Token限制的枷锁。此前Windows与Linux平台的Ollama+OpenClaw部署教程广受好评,众多Mac用户纷纷留言索要专属指南。
OpenClaw的强大之处在于能直接接管电脑操作,而Ollama作为轻量本地大模型框架,可无缝适配MacOS全架构(Apple Silicon M1-M4/Intel x86_64),搭配Qwen3.5等优化模型,实现无Token消耗的离线运行。同时,阿里云提供的一键部署方案与百炼Coding Plan API,为新手用户提供了零门槛的云端选择。本文将详细拆解MacOS平台Ollama部署与OpenClaw对接流程,补充新手零基础阿里云部署步骤、阿里云百炼Coding Plan API配置细节,汇总全流程避坑指南,让不同需求的用户都能轻松玩转OpenClaw。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。

一、核心认知:Ollama+OpenClaw的优势与适用场景
(一)为什么选择Ollama搭配OpenClaw?
传统OpenClaw依赖云端大模型API,存在Token消耗、网络依赖等问题,而Ollama+OpenClaw的组合彻底解决了这些痛点:
- 无Token限制:本地模型全程离线运行,无需消耗API额度,避免频繁充值烦恼;
- 适配性极强:Ollama完美支持MacOS 12.0及以上系统,无论是Apple Silicon芯片还是Intel架构都能流畅运行;
- 部署极简便:无需复杂环境配置,一键命令即可完成Ollama安装与模型加载;
- 性能均衡:Qwen3.5系列轻量模型兼顾体积与能力,9B版本仅6.6GB,16GB内存即可流畅运行;
- 安全隐私:数据全程存储在本地,不经过第三方服务器,避免敏感信息泄露。
(二)双部署方案适配场景
| 部署方案 | 核心优势 | 适用人群 | 典型场景 |
|---|---|---|---|
| MacOS Ollama本地部署 | 无Token、离线运行、隐私安全 | 个人用户、隐私敏感群体 | 日常办公、本地文件处理、离线任务自动化 |
| 阿里云云端部署 | 24小时在线、多设备访问、零硬件压力 | 团队协作、长期运行需求 | 跨设备任务调度、多人共享AI助理、7×24小时自动化 |
二、MacOS Ollama部署全流程:从安装到模型加载
(一)前期准备
- 系统要求:MacOS 12.0及以上(推荐MacOS 13+,兼容性更佳),支持Apple Silicon(M1/M2/M3/M4)与Intel x86_64全架构;
- 硬件要求:内存≥16GB(推荐32GB,多轮对话与复杂任务更流畅),存储≥20GB(预留模型空间与缓存);
- 网络准备:首次安装需联网下载Ollama框架与模型文件,后续可离线运行;
- 工具准备:终端(系统自带)、浏览器(用于验证部署结果)。
(二)Ollama安装:三种方案任选(新手/开发者全覆盖)
方案1:官网DMG包安装(新手首选,零命令)
- 访问Ollama官网(www.ollama.com),点击“Download for Mac”下载安装包(需MacOS 14 Sonoma及以上版本);
- 解压安装包,将Ollama.app拖入「应用程序」文件夹;
- 双击打开Ollama.app,首次启动会弹出权限提示,点击「允许」;
- 菜单栏出现羊驼图标,说明Ollama服务已自动启动,安装完成。
方案2:Homebrew命令安装(开发者首选,支持后台常驻)
- 打开系统终端,执行Homebrew安装命令(已安装Homebrew可跳过):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- 安装Ollama:
brew install ollama - 启动Ollama后台服务(关闭终端仍可运行):
brew services start ollama - 系统会弹出后台运行提示,点击「允许」,执行以下命令验证安装:
ollama --version - 成功示例:输出“ollama version 0.1.8”(版本号可能随更新变化)。
方案3:官方curl脚本安装(全架构通用,无依赖)
适用于未安装Homebrew的用户,官方原生脚本自动适配芯片架构:
- 打开终端,执行安装脚本(网络不稳定可能需多次尝试):
curl -fsSL https://ollama.com/install.sh | sh - 手动启动Ollama服务:
ollama serve - 验证安装:新开终端执行
ollama --version,显示版本号即为成功。
(三)加载Qwen3.5模型:性能与体积的最优选择
Ollama支持多种开源模型,Qwen3.5系列经过深度优化,是MacOS平台的首选,官方提供0.8B/2B/4B/9B四款型号,实测筛选出最优适配版本:
| 模型名 | 体积 | 核心优势 | 适配场景 | 内存要求 |
|---|---|---|---|---|
| qwen3.5:9b | ~6.6GB | 性能最强、中文优化、多模态支持 | 日常办公、代码生成、复杂问答(首选) | ≥16GB |
| qwen3.5:4b | ~3.4GB | 轻量均衡、启动快、内存占用低 | 基础问答、简单文本处理、低内存设备 | ≥8GB |
| qwen3.5:2b | ~1.8GB | 超轻量、启动极速 | 简单指令执行、临时任务处理 | ≥8GB |
| qwen3.5:0.8b | ~0.9GB | 体积最小、资源消耗极低 | 极简场景、老旧设备备用 | ≥4GB |
模型加载步骤:
- 打开终端,执行以下命令自动下载并加载Qwen3.5 9B模型(性能首选):
ollama run qwen3.5:9b - 模型下载过程中终端会显示进度条,下载完成后自动进入交互模式,输入“你好”测试,模型回复即为加载成功;
- 退出交互模式:输入
/bye并回车; - 后续启动模型无需重新下载,直接执行
ollama run qwen3.5:9b即可快速启动。
(四)Ollama局域网服务配置(可选)
如需在局域网内其他设备访问本地模型,需配置局域网服务:
- 停止当前Ollama服务:
# Homebrew安装版 brew services stop ollama # curl安装版:直接关闭终端或执行kill命令 - 创建配置文件:
mkdir -p ~/.ollama nano ~/.ollama/config.json - 写入以下配置(允许局域网访问):
{ "host": "0.0.0.0" } - 保存退出:按Ctrl+O→回车→Ctrl+X;
- 重启Ollama服务:
brew services start ollama - 验证局域网访问:在同一网络下的其他设备浏览器输入
http://你的MacIP:11434,显示Ollama服务页面即为成功(MacIP可通过ifconfig命令查询)。
三、OpenClaw对接Ollama:无Token离线运行
(一)OpenClaw安装(MacOS本地部署)
- 打开终端,执行以下命令安装OpenClaw:
# 配置npm国内镜像(加速依赖下载) npm config set registry https://registry.npmmirror.com # 安装OpenClaw npm install -g openclaw@latest - 验证安装:
openclaw --version - 初始化OpenClaw:
openclaw onboard - 按提示完成安全协议确认,选择“本地模型”作为默认大模型来源。
(二)对接Ollama模型
- 打开OpenClaw配置文件:
nano ~/.openclaw/openclaw.json - 添加Ollama模型配置:
"model": { "type": "ollama", "base_url": "http://localhost:11434", "model_name": "qwen3.5:9b", "max_tokens": 2048, "temperature": 0.7, "timeout": 30 } - 保存退出,重启OpenClaw服务:
openclaw gateway restart - 验证对接效果:
# 执行测试命令 openclaw chat "帮我总结OpenClaw的核心功能" - 若模型正常返回总结结果,说明对接成功,此时OpenClaw已实现无Token离线运行。
四、新手零基础阿里云部署OpenClaw:10分钟完成
对于无Mac高端硬件或需要长期运行的用户,阿里云提供了一键部署方案,零基础也能快速上手:
(一)前期准备
- 注册阿里云账号并完成实名认证;
- 准备浏览器(Chrome/Edge最佳);
- 预留手机号接收验证码(实名认证用)。
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan 配置教程:创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


(二)一键部署步骤
- 访问阿里云计算巢OpenClaw社区版部署页面,点击【一键购买并部署】;
- 服务器配置选择(新手直接照搬):
- 镜像:选择“OpenClaw(Clawdbot) 2026官方稳定版”;
- 实例规格:2核4GB内存(最低2GB,推荐4GB避免卡顿);
- 系统盘:40GB ESSD;
- 带宽:5Mbps及以上;
- 地域:优先选择中国香港/新加坡/美国弗吉尼亚(免备案,公网直接访问);
- 时长:按需求选择(测试可选1个月);
- 确认订单并支付,等待1-3分钟,实例状态变为“运行中”;
- 端口放行:进入实例详情→安全组→配置规则,添加入方向规则:
- 协议:TCP;
- 端口范围:18789;
- 授权对象:0.0.0.0/0;
- 描述:OpenClaw Web访问;
- 生成访问Token:
- 进入实例详情→应用详情,点击“执行命令”,输入以下命令生成Token:
openclaw token generate - 复制生成的Token(后续访问需用);
- 进入实例详情→应用详情,点击“执行命令”,输入以下命令生成Token:
- 访问控制台:浏览器输入
http://你的公网IP:18789/?token=你的Token,出现对话界面即为部署成功。
五、阿里云百炼Coding Plan API配置:云端运行的最优选择
阿里云百炼Coding Plan提供免费大模型调用额度,适合需要云端稳定运行的用户,配置步骤如下:
(一)免费API-Key获取
- 访问登录阿里云百炼大模型服务平台,完成实名认证;
- 进入「控制台」→「密钥管理」→「创建密钥」,生成API-Key与Access Key Secret(仅展示一次,务必保存);
- 进入「资源管理」→「免费额度」,查看可用额度(新用户每月可获得大量免费Token,满足日常使用)。
(二)OpenClaw对接百炼API
方式1:阿里云部署版一键配置
- 进入阿里云实例详情→应用详情,点击“一键配置”;
- 选择“阿里云百炼”,输入API-Key与Access Key Secret;
- 选择模型(推荐“qwen-7b-chat”,轻量高效);
- 点击“执行命令”,系统自动写入配置并重启服务,配置完成。
方式2:手动配置(本地部署/自定义需求)
- 打开OpenClaw配置文件:
# MacOS/Linux nano ~/.openclaw/openclaw.json # Windows notepad C:\Users\你的用户名\.openclaw\openclaw.json - 添加百炼API配置:
"model": { "type": "aliyun-bailian", "api_key": "你的API-Key", "secret": "你的Access Key Secret", "model_name": "qwen-7b-chat", "base_url": "https://coding.dashscope.aliyuncs.com/v1", "max_tokens": 2048, "temperature": 0.7, "timeout": 30 } - 保存退出,重启OpenClaw服务:
openclaw gateway restart - 测试连接:执行
openclaw chat "测试连接",模型正常回复即为配置成功。
(三)API调用优化技巧
- 模型选择:日常场景用qwen-7b-chat,复杂任务切换qwen-14b-chat,避免盲目使用大参数量模型;
- 额度监控:定期查看百炼控制台,避免免费额度耗尽导致服务中断;
- 参数调整:办公场景将
temperature设为0.5-0.6(结果更稳定),创作场景设为0.7-0.8(更具创造性); - 套餐选择:高频用户可订阅百炼Coding Plan套餐,基础版首月40元即可获得最多18000次请求,性价比更高。
六、全流程避坑指南:新手必看的10个核心问题
(一)Ollama部署常见坑点
坑点1:DMG包安装后启动无反应(MacOS 14以下版本);
解决方案:降级使用curl脚本安装,或升级MacOS至14 Sonoma及以上版本。坑点2:curl安装提示“无法连接GitHub”;
解决方案:检查网络连接,切换手机热点重试,或多次执行安装命令(网络波动导致)。坑点3:模型加载后运行卡顿、闪退;
解决方案:关闭其他占用内存的程序,16GB内存用户优先选择qwen3.5:4b模型,避免同时运行多个大模型。坑点4:终端输入
ollama提示“command not found”;
解决方案:将Ollama安装路径添加到系统环境变量,MacOS执行:echo 'export PATH=$PATH:/usr/local/bin' >> ~/.bashrc source ~/.bashrc
(二)OpenClaw对接常见坑点
坑点5:对接Ollama后提示“模型不支持工具调用”;
解决方案:确保选择支持工具调用的模型,Ollama仓库中名称带“tools”字样的模型或Qwen3.5系列均可,避免使用未优化的通用模型。坑点6:OpenClaw执行文件操作提示“权限不足”;
解决方案:MacOS用户给OpenClaw赋予文件访问权限,执行:chmod -R 777 ~/.openclaw/data同时在系统设置→隐私与安全性→文件和文件夹中,允许终端/OpenClaw访问目标目录。
坑点7:阿里云部署后无法访问控制台;
解决方案:① 检查实例状态为“运行中”;② 验证18789端口已放行;③ 清除浏览器缓存,重新输入Token;④ 执行systemctl restart openclaw重启服务。
(三)阿里云百炼API配置常见坑点
坑点8:API调用提示“权限不足”;
解决方案:① 检查API-Key与Access Key Secret是否正确;② 确认账号已完成实名认证;③ 选择免费可调用模型(如qwen-7b-chat);④ 确保base_url正确(Coding Plan用户使用https://coding.dashscope.aliyuncs.com/v1)。坑点9:API调用频繁超时;
解决方案:① 检查网络是否正常,阿里云部署确保服务器可访问外网;② 增加超时时间至30-60秒;③ 降低max_tokens减少单次调用压力。坑点10:本地部署OpenClaw时npm安装失败;
解决方案:配置npm国内镜像,执行npm config set registry https://registry.npmmirror.com,改用cnpm install -g openclaw安装。
七、实用操作技巧:提升使用体验
(一)Ollama模型管理命令
# 查看已安装模型
ollama list
# 删除不需要的模型(释放空间)
ollama rm qwen3.5:2b
# 更新模型到最新版本
ollama pull qwen3.5:9b
# 查看模型详细信息
ollama show qwen3.5:9b
(二)OpenClaw核心管理命令
# 启动/停止/重启服务
openclaw gateway start/stop/restart
# 查看运行日志(排查问题必备)
openclaw logs --follow
# 重新初始化配置
openclaw onboard --reset
# 安全审计(检测恶意技能)
openclaw security audit --deep
(三)性能优化建议
- MacOS用户开启“节能模式”中的“允许后台应用刷新”,确保Ollama服务持续运行;
- 16GB内存用户使用qwen3.5:9b模型时,关闭Xcode、Photoshop等重度软件,避免内存不足;
- 阿里云部署用户选择2核4GB以上实例,设置开机自启:
systemctl enable openclaw,避免服务器重启后服务中断。
八、结语:无界使用OpenClaw的最佳实践
无论是MacOS Ollama本地部署的无Token离线体验,还是阿里云一键部署的便捷云端服务,都为用户提供了灵活的选择。对于个人用户与隐私敏感群体,Ollama+Qwen3.5的组合是最优解,无需担心Token消耗与网络依赖;对于团队协作与长期运行需求,阿里云部署搭配百炼Coding Plan API,能实现24小时稳定运行与多设备访问。
新手用户建议优先尝试阿里云一键部署,零技术门槛快速上手;有离线需求或隐私顾虑的用户,可选择MacOS Ollama本地部署。无论哪种方案,遵循本文的步骤与避坑指南,都能轻松避开90%的常见问题。随着OpenClaw生态的持续完善与Ollama模型的优化,这款AI智能体的应用边界还将不断拓宽,掌握其部署与使用方法,将成为提升效率的核心技能。