在AI全面普及的2026年,越来越多用户开始重视数据隐私与使用成本,本地私有化部署大模型与AI智能体成为刚需。Ollama作为当前最成熟的本地大模型运行框架,支持一键拉取、运行、管理Qwen、Llama、DeepSeek等主流开源模型,全程断网可用、零Token费用;而OpenClaw(原Clawdbot)则是功能完善的AI智能体框架,可对接Telegram、飞书、钉钉等平台,实现自动化任务处理。
本文基于2026年3月最新版本,完整覆盖Ollama本地部署(Windows11/MacOS/Linux)、阿里云ECS云端部署Ollama+OpenClaw、阿里云千问大模型API配置、免费Coding Plan模型接入,并提供全流程代码命令、高频问题解决方案,新手可直接复制操作,实现完全私有化、免费、离线可用的私人AI服务。目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
一、部署前核心准备与硬件要求
1. 核心组件说明
- Ollama:本地大模型运行框架,负责模型下载、加载、推理,默认端口11434
- OpenClaw:AI智能体框架,负责对话管理、渠道对接、任务自动化,WebUI端口18789
- 模型支持:Qwen3.5、DeepSeek、Llama3等,轻量化版本低配设备可流畅运行
- 网络要求:本地部署可完全离线,云端部署需公网访问,模型下载需联网
2. 硬件最低配置
| 部署场景 | CPU | 内存 | 存储 | 系统 |
|---|---|---|---|---|
| 本地轻量化(Qwen3.5 0.8B) | 双核 | 8GB | 20GB | Windows11/MacOS/Linux |
| 本地标准(Qwen3.5 7B) | 四核 | 16GB | 50GB | Windows11/MacOS/Linux |
| 阿里云云端部署 | 2核+ | 4GB+ | 40GB+ | Debian11+/Ubuntu22.04+ |
3. 必备工具
- Docker 24.0+、Docker Compose v2.20+
- 终端工具(Windows用PowerShell,Mac/Linux用系统终端)
- 阿里云账号(注册阿里云账号,用于云端部署与API获取)
二、Ollama全平台本地部署(Windows11/MacOS/Linux)
Ollama支持三大系统一键安装,无需复杂环境配置,5分钟完成部署。
(一)Windows11部署Ollama
下载安装
访问Ollama官网:https://ollama.com/download,下载Windows版本安装包,双击执行,自动配置环境变量。验证安装
以管理员身份打开PowerShell,输入命令查看版本,显示版本号即成功:ollama -v修改模型存储路径(避免C盘爆满)
Ollama默认将模型存放在C盘,建议迁移至其他盘符:# 停止Ollama服务 Stop-Service ollama # 设置新的存储路径(以D:\ollama为例) setx OLLAMA_HOME "D:\ollama" # 重启服务 Start-Service ollama拉取轻量化模型(推荐Qwen3.5:0.8b)
# 拉取模型 ollama pull qwen3.5:0.8b # 查看已安装模型 ollama list命令行直接对话
# 启动交互式对话 ollama run qwen3.5:0.8b # 输入/bye退出对话 /bye # 查看运行中的模型 ollama ps
(二)MacOS部署Ollama
两种安装方式
- 方式1:官网下载dmg安装包,拖拽至应用程序
- 方式2:Homebrew一键安装(推荐)
brew install ollama brew services start ollama
验证与路径配置
# 验证版本 ollama --version # 配置存储路径(可选) export OLLAMA_HOME=~/ollama模型拉取与运行
ollama pull qwen3.5:0.8b ollama run qwen3.5:0.8b
(三)Linux(Ubuntu/Debian)部署Ollama
官方一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh # 启动并设置开机自启 sudo systemctl enable ollama && sudo systemctl start ollama验证安装
ollama --version模型操作
ollama pull qwen3.5:0.8b ollama run qwen3.5:0.8b
三、2026年阿里云ECS部署Ollama+OpenClaw完整流程
阿里云ECS可实现7×24小时稳定运行,搭配国内大模型API延迟更低,适合生产环境与远程访问。
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选购阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
(一)ECS环境准备
- 选购ECS实例:2核4GB起步,系统选择Ubuntu22.04或Debian11
- 安全组配置:放行22(SSH)、11434(Ollama)、18789(OpenClaw)端口
- 远程连接服务器,更新系统:
apt update && apt upgrade -y
(二)阿里云部署Ollama
安装Ollama
curl -fsSL https://ollama.com/install.sh | sh sudo systemctl enable ollama && sudo systemctl start ollama拉取模型并允许公网访问
ollama pull qwen3.5:7b # 修改配置监听0.0.0.0,允许外网访问 sudo nano /etc/systemd/system/ollama.service # 在[Service]段添加 Environment="OLLAMA_HOST=0.0.0.0" # 重启服务 sudo systemctl daemon-reload sudo systemctl restart ollama
(三)阿里云部署OpenClaw(Docker Compose方式)
安装Docker与Docker Compose
curl -fsSL https://get.docker.com | bash sudo apt install docker-compose-plugin -y克隆OpenClaw仓库并部署
git clone https://github.com/openclaw/openclaw cd openclaw export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest ./docker-setup.sh获取OpenClaw访问Token
cat data/conf/openclaw.json | grep token访问地址:
http://ECS公网IP:18789?token=你的Token对接本地Ollama
进入OpenClaw配置文件,修改模型地址为:"baseUrl": "http://localhost:11434/v1"重启容器:
docker compose restart
四、OpenClaw全平台本地部署(Windows11/MacOS/Linux)
OpenClaw需基于Docker运行,三平台部署流程一致。
1. 安装Docker Desktop
- Windows11:开启WSL2后安装Docker Desktop
- MacOS:直接安装Docker Desktop
- Linux:命令行安装Docker
2. 部署OpenClaw
git clone https://github.com/openclaw/openclaw
cd openclaw
export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest
./docker-setup.sh
3. 本地访问
获取Token后,访问:http://localhost:18789?token=你的Token
五、大模型API配置:阿里云千问+免费Coding Plan
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


(一)阿里云千问大模型API配置
获取API Key
访问登录阿里云百炼大模型服务平台,进入API密钥管理,创建并保存Secret Key。OpenClaw配置
编辑data/conf/openclaw.json,添加千问配置:"models": { "providers": { "qwen": { "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", "apiKey": "你的千问API Key", "models": ["qwen-max", "qwen3.5"] } }, "default": "qwen/qwen-max" }
(二)阿里云Coding Plan免费模型配置
开通Coding Plan
阿里云百炼控制台访问订阅阿里云百炼Coding Plan,开通Coding Plan免费套餐,获取API Key。OpenClaw配置
"models": { "providers": { "codingplan": { "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", "apiKey": "你的Coding Plan API Key", "models": ["qwen-free"] } }, "default": "codingplan/qwen-free" }命令行快速切换模型
docker compose -f docker-compose-cli.yml run --rm openclaw-cli models set qwen/qwen3.5
六、OpenClaw对接Telegram(2026最新流程)
创建Telegram Bot
搜索@BotFather,发送/newbot,获取Bot Token。执行对接命令
docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add选择Telegram,粘贴Bot Token。
重启容器生效
docker compose restart
七、高频问题全解答
1. Ollama模型拉取失败
- 原因:网络问题
- 解决:更换网络或使用代理,重新执行
ollama pull
2. OpenClaw无法访问WebUI
- 排查:18789端口未放行、Token错误
- 解决:检查防火墙/安全组,确认Token正确
3. 模型推理卡顿、内存溢出
- 解决:更换更小参数模型(如0.8b版本),增加虚拟内存
4. API调用失败
- 排查:API Key错误、BaseURL格式错误
- 解决:核对密钥与接口地址,重启容器
5. 本地部署公网无法访问
- 解决:端口映射、防火墙放行、公网IP绑定
八、部署优势总结
- 完全私有化:所有数据本地存储,杜绝隐私泄露
- 零成本使用:Ollama开源免费,Coding Plan提供免费额度
- 离线可用:本地部署断网正常运行
- 全平台兼容:Windows/Mac/Linux/阿里云全覆盖
- 功能强大:Ollama负责模型推理,OpenClaw负责智能体交互
2026年私有化AI部署已无门槛,按照本文步骤,无论新手还是技术用户,都能快速搭建属于自己的私人AI助手,兼顾隐私、成本与功能,实现AI自由。