2026年Ollama+OpenClaw私有化部署全攻略:本地离线AI+阿里云云端部署+千问/Coding Plan免费模型配置

简介: 在AI全面普及的2026年,越来越多用户开始重视数据隐私与使用成本,本地私有化部署大模型与AI智能体成为刚需。Ollama作为当前最成熟的本地大模型运行框架,支持一键拉取、运行、管理Qwen、Llama、DeepSeek等主流开源模型,全程断网可用、零Token费用;而OpenClaw(原Clawdbot)则是功能完善的AI智能体框架,可对接Telegram、飞书、钉钉等平台,实现自动化任务处理。

在AI全面普及的2026年,越来越多用户开始重视数据隐私与使用成本,本地私有化部署大模型与AI智能体成为刚需。Ollama作为当前最成熟的本地大模型运行框架,支持一键拉取、运行、管理Qwen、Llama、DeepSeek等主流开源模型,全程断网可用、零Token费用;而OpenClaw(原Clawdbot)则是功能完善的AI智能体框架,可对接Telegram、飞书、钉钉等平台,实现自动化任务处理。
OpenClawo.png

本文基于2026年3月最新版本,完整覆盖Ollama本地部署(Windows11/MacOS/Linux)阿里云ECS云端部署Ollama+OpenClaw阿里云千问大模型API配置免费Coding Plan模型接入,并提供全流程代码命令、高频问题解决方案,新手可直接复制操作,实现完全私有化、免费、离线可用的私人AI服务。目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw部署教程图1.png


一、部署前核心准备与硬件要求

1. 核心组件说明

  • Ollama:本地大模型运行框架,负责模型下载、加载、推理,默认端口11434
  • OpenClaw:AI智能体框架,负责对话管理、渠道对接、任务自动化,WebUI端口18789
  • 模型支持:Qwen3.5、DeepSeek、Llama3等,轻量化版本低配设备可流畅运行
  • 网络要求:本地部署可完全离线,云端部署需公网访问,模型下载需联网

2. 硬件最低配置

部署场景 CPU 内存 存储 系统
本地轻量化(Qwen3.5 0.8B) 双核 8GB 20GB Windows11/MacOS/Linux
本地标准(Qwen3.5 7B) 四核 16GB 50GB Windows11/MacOS/Linux
阿里云云端部署 2核+ 4GB+ 40GB+ Debian11+/Ubuntu22.04+

3. 必备工具

  • Docker 24.0+、Docker Compose v2.20+
  • 终端工具(Windows用PowerShell,Mac/Linux用系统终端)
  • 阿里云账号(注册阿里云账号,用于云端部署与API获取)

二、Ollama全平台本地部署(Windows11/MacOS/Linux)

Ollama支持三大系统一键安装,无需复杂环境配置,5分钟完成部署。

(一)Windows11部署Ollama

  1. 下载安装
    访问Ollama官网:https://ollama.com/download,下载Windows版本安装包,双击执行,自动配置环境变量。

  2. 验证安装
    以管理员身份打开PowerShell,输入命令查看版本,显示版本号即成功:

    ollama -v
    
  3. 修改模型存储路径(避免C盘爆满)
    Ollama默认将模型存放在C盘,建议迁移至其他盘符:

    # 停止Ollama服务
    Stop-Service ollama
    # 设置新的存储路径(以D:\ollama为例)
    setx OLLAMA_HOME "D:\ollama"
    # 重启服务
    Start-Service ollama
    
  4. 拉取轻量化模型(推荐Qwen3.5:0.8b)

    # 拉取模型
    ollama pull qwen3.5:0.8b
    # 查看已安装模型
    ollama list
    
  5. 命令行直接对话

    # 启动交互式对话
    ollama run qwen3.5:0.8b
    # 输入/bye退出对话
    /bye
    # 查看运行中的模型
    ollama ps
    

(二)MacOS部署Ollama

  1. 两种安装方式

    • 方式1:官网下载dmg安装包,拖拽至应用程序
    • 方式2:Homebrew一键安装(推荐)
      brew install ollama
      brew services start ollama
      
  2. 验证与路径配置

    # 验证版本
    ollama --version
    # 配置存储路径(可选)
    export OLLAMA_HOME=~/ollama
    
  3. 模型拉取与运行

    ollama pull qwen3.5:0.8b
    ollama run qwen3.5:0.8b
    

(三)Linux(Ubuntu/Debian)部署Ollama

  1. 官方一键安装脚本

    curl -fsSL https://ollama.com/install.sh | sh
    # 启动并设置开机自启
    sudo systemctl enable ollama && sudo systemctl start ollama
    
  2. 验证安装

    ollama --version
    
  3. 模型操作

    ollama pull qwen3.5:0.8b
    ollama run qwen3.5:0.8b
    

三、2026年阿里云ECS部署Ollama+OpenClaw完整流程

阿里云ECS可实现7×24小时稳定运行,搭配国内大模型API延迟更低,适合生产环境与远程访问。

第一步:点击打开访问阿里云OpenClaw一键部署专题页面
openclaw666.png
OpenClaw2.png
OpenClaw02.png
OpenClaw03.png
OpenClaw04.png

第二步:打开选购阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

(一)ECS环境准备

  1. 选购ECS实例:2核4GB起步,系统选择Ubuntu22.04或Debian11
  2. 安全组配置:放行22(SSH)、11434(Ollama)、18789(OpenClaw)端口
  3. 远程连接服务器,更新系统:
    apt update && apt upgrade -y
    

(二)阿里云部署Ollama

  1. 安装Ollama

    curl -fsSL https://ollama.com/install.sh | sh
    sudo systemctl enable ollama && sudo systemctl start ollama
    
  2. 拉取模型并允许公网访问

    ollama pull qwen3.5:7b
    # 修改配置监听0.0.0.0,允许外网访问
    sudo nano /etc/systemd/system/ollama.service
    # 在[Service]段添加
    Environment="OLLAMA_HOST=0.0.0.0"
    # 重启服务
    sudo systemctl daemon-reload
    sudo systemctl restart ollama
    

(三)阿里云部署OpenClaw(Docker Compose方式)

  1. 安装Docker与Docker Compose

    curl -fsSL https://get.docker.com | bash
    sudo apt install docker-compose-plugin -y
    
  2. 克隆OpenClaw仓库并部署

    git clone https://github.com/openclaw/openclaw
    cd openclaw
    export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest
    ./docker-setup.sh
    
  3. 获取OpenClaw访问Token

    cat data/conf/openclaw.json | grep token
    

    访问地址:http://ECS公网IP:18789?token=你的Token

  4. 对接本地Ollama
    进入OpenClaw配置文件,修改模型地址为:

    "baseUrl": "http://localhost:11434/v1"
    

    重启容器:docker compose restart


四、OpenClaw全平台本地部署(Windows11/MacOS/Linux)

OpenClaw需基于Docker运行,三平台部署流程一致。

1. 安装Docker Desktop

  • Windows11:开启WSL2后安装Docker Desktop
  • MacOS:直接安装Docker Desktop
  • Linux:命令行安装Docker

2. 部署OpenClaw

git clone https://github.com/openclaw/openclaw
cd openclaw
export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest
./docker-setup.sh

3. 本地访问

获取Token后,访问:http://localhost:18789?token=你的Token


五、大模型API配置:阿里云千问+免费Coding Plan

阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:

创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
CodingPlan.png

  • 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。
    image.png
  • 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。
    image.png
  • 在服务器概览页面单击应用详情页签,进入服务器详情页面。
    image.png
  • 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。
    image.png
  • 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。
    image.png
  • 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。
    image.png
    image.png

(一)阿里云千问大模型API配置

  1. 获取API Key
    访问登录阿里云百炼大模型服务平台,进入API密钥管理,创建并保存Secret Key。

  2. OpenClaw配置
    编辑data/conf/openclaw.json,添加千问配置:

    "models": {
         
      "providers": {
         
        "qwen": {
         
          "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
          "apiKey": "你的千问API Key",
          "models": ["qwen-max", "qwen3.5"]
        }
      },
      "default": "qwen/qwen-max"
    }
    

(二)阿里云Coding Plan免费模型配置

  1. 开通Coding Plan
    阿里云百炼控制台访问订阅阿里云百炼Coding Plan,开通Coding Plan免费套餐,获取API Key。

  2. OpenClaw配置

    "models": {
         
      "providers": {
         
        "codingplan": {
         
          "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
          "apiKey": "你的Coding Plan API Key",
          "models": ["qwen-free"]
        }
      },
      "default": "codingplan/qwen-free"
    }
    
  3. 命令行快速切换模型

    docker compose -f docker-compose-cli.yml run --rm openclaw-cli models set qwen/qwen3.5
    

六、OpenClaw对接Telegram(2026最新流程)

  1. 创建Telegram Bot
    搜索@BotFather,发送/newbot,获取Bot Token。

  2. 执行对接命令

    docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add
    

    选择Telegram,粘贴Bot Token。

  3. 重启容器生效

    docker compose restart
    

七、高频问题全解答

1. Ollama模型拉取失败

  • 原因:网络问题
  • 解决:更换网络或使用代理,重新执行ollama pull

2. OpenClaw无法访问WebUI

  • 排查:18789端口未放行、Token错误
  • 解决:检查防火墙/安全组,确认Token正确

3. 模型推理卡顿、内存溢出

  • 解决:更换更小参数模型(如0.8b版本),增加虚拟内存

4. API调用失败

  • 排查:API Key错误、BaseURL格式错误
  • 解决:核对密钥与接口地址,重启容器

5. 本地部署公网无法访问

  • 解决:端口映射、防火墙放行、公网IP绑定

八、部署优势总结

  1. 完全私有化:所有数据本地存储,杜绝隐私泄露
  2. 零成本使用:Ollama开源免费,Coding Plan提供免费额度
  3. 离线可用:本地部署断网正常运行
  4. 全平台兼容:Windows/Mac/Linux/阿里云全覆盖
  5. 功能强大:Ollama负责模型推理,OpenClaw负责智能体交互

2026年私有化AI部署已无门槛,按照本文步骤,无论新手还是技术用户,都能快速搭建属于自己的私人AI助手,兼顾隐私、成本与功能,实现AI自由。

目录
相关文章
|
1天前
|
安全 Linux API
OpenClaw(Clawdbot)部署指南:本地MacOS/Linux/Windows11+阿里云服务器+千问/Coding Plan配置
OpenClaw是一款可本地部署的AI Agent工具,支持文件读取、命令执行、邮件发送、消息收发等自动化能力,可作为个人数字助理或轻量化自动化助手使用。2026年版本已全面兼容macOS、Linux、Windows11系统,同时支持阿里云ECS/轻量应用服务器云端部署,可对接阿里云千问大模型与百炼Coding Plan免费API,兼顾稳定性、安全性与成本控制。本文将完整覆盖本地安装、云端部署、模型配置、安全加固、健康检查与常见问题排查,全程可复现,无额外依赖。
231 5
|
11天前
|
存储 人工智能 关系型数据库
OpenClaw怎么可能没痛点?用RDS插件来释放OpenClaw全部潜力
OpenClaw插件是深度介入Agent生命周期的扩展机制,提供24个钩子,支持自动注入知识、持久化记忆等被动式干预。相比Skill/Tool,插件可主动在关键节点(如对话开始/结束)执行逻辑,适用于RAG增强、云化记忆等高级场景。
629 55
OpenClaw怎么可能没痛点?用RDS插件来释放OpenClaw全部潜力
|
11天前
|
人工智能 自然语言处理 IDE
养虾只需丢给 Qoder 1个 Skill:安装、配置、上手OpenClaw 一次性搞定
本文介绍如何用Qoder快速对接OpenClaw:三步完成——安装Qoder IDE、配置OpenClaw与钉钉/飞书机器人、通过ACP协议接入Qoder CLI。无需手动部署,丢个Skill文件,泡杯茶的功夫,AI虾塘就跑起来了!
1196 57
|
7天前
|
人工智能 安全 API
养虾效率翻倍!OpenClaw核心Skill清单(阿里云/本地部署+免费API配置+10个必装技能+避坑指南)
“部署好OpenClaw,却只能当普通聊天工具?问最新资讯说‘知识过期’,装第三方技能怕泄露数据,想扩展功能又找不到合适的工具”——这是2026年无数“养虾人”的共同困境。OpenClaw的真正价值不在于框架本身,而在于技能(Skill)生态的灵活组合。当前技能市场鱼龙混杂,数百个技能中真正能日常高频使用的寥寥无几,盲目安装不仅占用资源,还可能带来安全风险。
423 5
|
13天前
|
机器学习/深度学习 人工智能 PyTorch
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
198 14
写 PyTorch 总像在写脚本?试试 PyTorch Lightning,把模型训练变成“工程化项目”
|
7天前
|
人工智能 API 数据安全/隐私保护
AI办公革命:OpenClaw+Pandoc替代WPS付费功能(免费格式转换)(阿里云/本地部署+百炼API配置+问题解答)
“为了PDF转PPT、提取图片,每年给WPS交几百元年费,却要忍受云盘强制同步、操作繁琐的痛点”——这是2026年无数办公族的共同困扰。WPS作为国民级办公软件,其免费编辑功能无可替代,但增值付费功能(如多格式转换、高级提取)不仅收费高昂,体验还不尽人意,甚至出现过用户文件丢失的安全事故。
304 0
|
7天前
|
人工智能 监控 API
保姆级教程:1分钟阿里云/本地部署OpenClaw+blogwatcher打造智能资讯系统(百炼Coding Plan配置+精准推送)
“信息过载不是问题,问题是你没有一个系统去过滤它。” 2026年,AI工具的爆发让优质内容呈指数级增长,但也让更多人陷入“刷不完、漏关键”的困境——技术博客的重要更新、行业动态的核心资讯、产品发布的关键细节,往往藏在海量信息流中,要么被错过,要么花费大量时间筛选。
202 4
|
7天前
|
人工智能 安全 API
从入门到精通!OpenClaw阿里云/本地搭建+百炼API配置+必装Skill清单+避坑实战手册
2026年,OpenClaw(Clawdbot)已经成为AI智能体领域最具实用性的开源框架,凭借本地优先、可扩展、支持自主执行的特性,成为大量普通用户与技术爱好者打造专属AI助手的首选方案。但在实际使用过程中,绝大多数用户在完成基础部署后,都会面临AI不够智能、回答不准确、任务执行失败、安全性不足等问题。根本原因在于**没有构建一套完整、安全、可自我迭代的技能(Skill)体系**。
302 12
|
14天前
|
人工智能 API iOS开发
OpenClaw 阿里云/本地零基础喂饭级部署+配置免费大模型API+集成Obsidian CLI,让AI用你的知识库创作!
而Obsidian 1.12版本推出的官方CLI(命令行界面),彻底打通这一断点:AI Agent无需搬运数据,可直接调用Obsidian原生索引,实现毫秒级检索、反向链接查询、标签筛选等功能,4663个文件的知识库检索仅需0.26秒,比逐文件扫描快60倍,token消耗降低99%。本文基于实测经验,整合四大核心内容:一是2026年OpenClaw全平台部署流程(阿里云+MacOS+Linux+Windows11);二是阿里云百炼免费大模型API配置步骤;三是Obsidian CLI启用与OpenClaw联动实战;四是新手高频问题解答,所有代码可直接复制执行,无营销词汇,助力零基础用户1-2小
625 24