一、前言
在AI工具普及的今天,API调用成本、数据隐私、网络限制成为普通用户使用AI助理的主要阻碍。OpenClaw(Clawdbot)与Ollama的组合完美解决这些问题:完全免费、数据本地留存、无API密钥、无信用卡要求、离线可用。Ollama作为轻量化本地大模型运行工具,支持macOS/Linux/Windows三大平台,可一键运行Llama3、Qwen2.5等开源模型;OpenClaw则作为任务执行与交互层,提供技能扩展、自动化流程、多渠道交互能力。
本文基于2026年最新环境,完整提供阿里云服务器部署、本地macOS/Linux/Windows11部署OpenClaw流程、Ollama安装与模型管理、OpenClaw对接Ollama配置、阿里云百炼通义千问API与免费Coding Plan配置、性能优化与常见问题一站式解答。所有命令均可直接复制,全程无营销内容,零基础用户也能搭建属于自己的本地免费AI助理。目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
二、Ollama核心优势与硬件要求
Ollama是一款开源本地大模型运行工具,将复杂的模型环境封装为简易命令,数据全程保存在本地设备,不上传云端,适合隐私敏感、预算有限的用户。
硬件配置建议
| 模型参数 | 内存要求 | 推荐机型 | 运行速度 |
|---|---|---|---|
| 1B-3B | 2GB-4GB | 轻薄本、低配设备 | 极快 |
| 7B | 4GB-6GB | 8GB内存设备 | 流畅 |
| 8B | 5GB-7GB | 16GB内存设备 | 流畅 |
| 13B | 8GB-10GB | 16GB+内存 | 中等 |
| 70B | 40GB+ | 高端台式机 | 较慢 |
最低配置
- 内存:8GB
- 存储:10GB可用空间
- CPU:2018年后现代处理器
- 无需独立显卡(CPU可运行,速度较慢)
推荐配置
- 内存:16GB及以上
- GPU:RTX 3060及以上或Apple Silicon
- 硬盘:SSD(加速模型加载)
- Mac设备:Apple Silicon芯片最优
三、2026年OpenClaw全平台标准化部署
(一)阿里云轻量服务器部署(适合7×24小时运行)
适用系统:Alibaba Cloud Linux 3
开放端口:18789
阿里云用户零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


# 更新系统与依赖
sudo yum update -y
sudo yum install -y curl git
# 安装Node.js 22.x
curl -fsSL https://nodejs.org/dist/v22.0.0/node-v22.0.0-linux-x64.tar.xz -o node.tar.xz
sudo tar -xf node.tar.xz -C /usr/local/
sudo ln -sf /usr/local/node-v22.0.0-linux-x64/bin/node /usr/bin/node
sudo ln -sf /usr/local/node-v22.0.0-linux-x64/bin/npm /usr/bin/npm
sudo ln -sf /usr/local/node-v22.0.0-linux-x64/bin/npx /usr/bin/npx
# 配置国内镜像
npm config set registry https://registry.npmmirror.com
# 全局安装OpenClaw
npm install -g openclaw
# 初始化配置
openclaw onboard
# 配置公网访问
openclaw config set gateway.host 0.0.0.0
openclaw config set gateway.port 18789
# 启动服务
openclaw gateway start
# 设置开机自启
echo "openclaw gateway start &" | sudo tee -a /etc/rc.d/rc.local
sudo chmod +x /etc/rc.d/rc.local
访问控制台:http://你的公网IP:18789
(二)macOS本地部署
# 安装Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装Node.js
brew install node
# 配置镜像
npm config set registry https://registry.npmmirror.com
# 安装OpenClaw
npm install -g openclaw
# 初始化与启动
openclaw onboard
openclaw gateway start
(三)Linux(Ubuntu/Debian)部署
sudo apt update
sudo apt install -y curl git nodejs npm
sudo npm install -g n
sudo n stable
npm config set registry https://registry.npmmirror.com
npm install -g openclaw
openclaw onboard
openclaw gateway start
(四)Windows11部署(管理员PowerShell)
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
winget install OpenJS.NodeJS --version 22.0.0
npm config set registry https://registry.npmmirror.com
npm install -g openclaw
openclaw onboard
openclaw gateway start
四、Ollama全平台安装流程
(一)macOS安装
- 访问ollama.com下载dmg安装包
- 拖拽Ollama到应用程序
- 启动Ollama(菜单栏显示图标)
- 验证安装:
ollama --version
(二)Linux安装
curl -fsSL https://ollama.com/install.sh | sh
查看服务状态:
systemctl status ollama
(三)Windows11安装
- 访问ollama.com下载exe安装包
- 运行安装程序(自动配置环境变量)
- 验证安装:
ollama --version
(四)下载推荐模型
新手首选轻量模型:
# 轻量快速(推荐)
ollama pull llama3.2
# 中文最优(强烈推荐)
ollama pull qwen2.5
# 日常通用
ollama pull llama3.1:8b
# 编程专用
ollama pull codellama
测试模型运行:
ollama run llama3.2
五、OpenClaw对接Ollama配置(完全免费)
(一)确认Ollama服务正常
curl http://localhost:11434
返回Ollama is running即为正常。
(二)配置OpenClaw
执行初始化配置:
openclaw onboard
步骤:
- 选择Provider为
Ollama - 自动识别地址:http://localhost:11434
- 选择已下载模型(如llama3.2、qwen2.5)
- 无需API Key,直接完成配置
(三)手动配置文件(可选)
路径:
- macOS/Linux:~/.openclaw/config.json
- Windows:C:\Users\用户名.openclaw\config.json
"model": { "type": "ollama", "baseUrl": "http://localhost:11434", "model_name": "llama3.2", "max_tokens": 2048, "temperature": 0.7 }
重启服务:
openclaw gateway restart
(四)测试对话
openclaw chat
六、阿里云百炼通义千问API配置(可选增强)
"model": {
"type": "aliyun-bailian",
"api_key": "你的APIKey",
"secret": "你的AccessKeySecret",
"model_name": "qwen-turbo",
"max_tokens": 2048,
"temperature": 0.7,
"timeout": 60
}
重启生效:
openclaw gateway restart
七、免费大模型Coding Plan配置(备用)
"model": {
"type": "openai",
"api_key": "免费密钥",
"base_url": "https://api.coding-plan.com/v1",
"model_name": "general-v1",
"max_tokens": 2048,
"temperature": 0.6
}
八、本地模型性能优化(提升速度)
1. 使用量化模型(默认开启4-bit量化)
ollama pull qwen2.5:7b-q4_K_M
2. 限制上下文长度(节省内存)
创建Modelfile:
FROM qwen2.5
PARAMETER num_ctx 2048
生成自定义模型:
ollama create myqwen -f Modelfile
3. 启用GPU加速
- Apple Silicon:自动开启Metal加速
- NVIDIA:安装CUDA驱动
- AMD:安装ROCm驱动
4. 减少内存占用
关闭多余软件,避免同时运行多个大模型。
九、OpenClaw+Ollama常用命令合集
# OpenClaw启动
openclaw gateway start
# 重启服务
openclaw gateway restart
# Ollama查看已装模型
ollama list
# 运行模型
ollama run 模型名
# 删除无用模型
ollama rm 模型名
# 查看Ollama状态
ollama ps
# OpenClaw测试对话
openclaw chat
# 查看技能列表
openclaw skills list
十、高频常见问题一站式解答
(一)Ollama运行缓慢
- 解决方案:使用3B小模型、启用GPU、关闭后台程序
- 命令:
ollama pull llama3.2(轻量模型)
(二)Ollama无法启动
- 检查端口11434是否被占用
- 重启服务:
```bashmacOS
退出菜单栏Ollama重新打开
Linux
systemctl restart ollama
Windows
任务管理器重启Ollama
### (三)OpenClaw无法连接Ollama
- 确认Ollama运行:`curl http://localhost:11434`
- 检查config.json中baseUrl正确
- 重启OpenClaw:`openclaw gateway restart`
### (四)模型占用内存过高
- 降低模型大小:7B→3B
- 限制上下文:num_ctx 2048
- 重启Ollama释放内存
### (五)Windows权限不足
```powershell
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
(六)命令不存在:openclaw: command not found
npm install -g openclaw
关闭终端重新打开
(七)阿里云无法访问控制台
- 安全组放行18789端口
- 确认gateway.host设置为0.0.0.0
(八)中文回复乱码/效果差
- 切换通义千问模型:qwen2.5
- 配置:
ollama pull qwen2.5 - 在OpenClaw中切换模型为qwen2.5
(九)模型下载失败
- 切换网络
- 使用国内镜像
- 直接下载模型文件
(十)本地模型与云端模型切换
OpenClaw支持多Provider同时配置,可随时在config.json切换model.type。
十一、本地模型 vs 云端API对比
| 对比项 | Ollama本地模型 | 云端API |
|---|---|---|
| 成本 | 完全免费 | 按量计费 |
| 隐私 | 数据本地留存 | 数据上传云端 |
| 网络 | 离线可用 | 需要网络 |
| 中文效果 | qwen2.5优秀 | 商业模型更佳 |
| 速度 | 依赖硬件 | 稳定快速 |
| 部署难度 | 中等 | 简单 |
十二、最佳使用策略(混合模式)
- 简单问答、摘要、格式转换 → 本地Ollama免费模型
- 深度创作、复杂推理、长文本 → 阿里云百炼/免费Coding Plan
- 隐私数据、本地文件 → 强制使用本地模型
- 日常自动化、技能调用 → 本地运行,无成本
十三、总结
OpenClaw+Ollama是2026年最具性价比的私有AI助理方案,实现零成本、零隐私泄露、全平台兼容、离线可用四大核心优势。本文完整覆盖:
- OpenClaw阿里云+本地三平台一键部署
- Ollama全平台安装与模型管理
- OpenClaw与Ollama无缝对接
- 阿里云千问API与免费模型配置
- 性能优化与10大类高频问题排查
所有操作均可直接复制命令执行,无需付费、无需API密钥、无需信用卡,适合个人用户、隐私敏感场景、轻量化办公、学习实验等多种场景,真正实现人人可用的免费私有AI助理。