2026年Ollama+OpenClaw私有化部署全攻略:本地离线AI+阿里云云端部署+千问/Coding Plan免费模型配置

简介: 在AI全面普及的2026年,越来越多用户开始重视数据隐私与使用成本,本地私有化部署大模型与AI智能体成为刚需。Ollama作为当前最成熟的本地大模型运行框架,支持一键拉取、运行、管理Qwen、Llama、DeepSeek等主流开源模型,全程断网可用、零Token费用;而OpenClaw(原Clawdbot)则是功能完善的AI智能体框架,可对接Telegram、飞书、钉钉等平台,实现自动化任务处理。

在AI全面普及的2026年,越来越多用户开始重视数据隐私与使用成本,本地私有化部署大模型与AI智能体成为刚需。Ollama作为当前最成熟的本地大模型运行框架,支持一键拉取、运行、管理Qwen、Llama、DeepSeek等主流开源模型,全程断网可用、零Token费用;而OpenClaw(原Clawdbot)则是功能完善的AI智能体框架,可对接Telegram、飞书、钉钉等平台,实现自动化任务处理。
OpenClawo.png

本文基于2026年3月最新版本,完整覆盖Ollama本地部署(Windows11/MacOS/Linux)阿里云ECS云端部署Ollama+OpenClaw阿里云千问大模型API配置免费Coding Plan模型接入,并提供全流程代码命令、高频问题解决方案,新手可直接复制操作,实现完全私有化、免费、离线可用的私人AI服务。目前阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw部署教程图1.png


一、部署前核心准备与硬件要求

1. 核心组件说明

  • Ollama:本地大模型运行框架,负责模型下载、加载、推理,默认端口11434
  • OpenClaw:AI智能体框架,负责对话管理、渠道对接、任务自动化,WebUI端口18789
  • 模型支持:Qwen3.5、DeepSeek、Llama3等,轻量化版本低配设备可流畅运行
  • 网络要求:本地部署可完全离线,云端部署需公网访问,模型下载需联网

2. 硬件最低配置

部署场景 CPU 内存 存储 系统
本地轻量化(Qwen3.5 0.8B) 双核 8GB 20GB Windows11/MacOS/Linux
本地标准(Qwen3.5 7B) 四核 16GB 50GB Windows11/MacOS/Linux
阿里云云端部署 2核+ 4GB+ 40GB+ Debian11+/Ubuntu22.04+

3. 必备工具

  • Docker 24.0+、Docker Compose v2.20+
  • 终端工具(Windows用PowerShell,Mac/Linux用系统终端)
  • 阿里云账号(注册阿里云账号,用于云端部署与API获取)

二、Ollama全平台本地部署(Windows11/MacOS/Linux)

Ollama支持三大系统一键安装,无需复杂环境配置,5分钟完成部署。

(一)Windows11部署Ollama

  1. 下载安装
    访问Ollama官网:https://ollama.com/download,下载Windows版本安装包,双击执行,自动配置环境变量。

  2. 验证安装
    以管理员身份打开PowerShell,输入命令查看版本,显示版本号即成功:

    ollama -v
    
  3. 修改模型存储路径(避免C盘爆满)
    Ollama默认将模型存放在C盘,建议迁移至其他盘符:

    # 停止Ollama服务
    Stop-Service ollama
    # 设置新的存储路径(以D:\ollama为例)
    setx OLLAMA_HOME "D:\ollama"
    # 重启服务
    Start-Service ollama
    
  4. 拉取轻量化模型(推荐Qwen3.5:0.8b)

    # 拉取模型
    ollama pull qwen3.5:0.8b
    # 查看已安装模型
    ollama list
    
  5. 命令行直接对话

    # 启动交互式对话
    ollama run qwen3.5:0.8b
    # 输入/bye退出对话
    /bye
    # 查看运行中的模型
    ollama ps
    

(二)MacOS部署Ollama

  1. 两种安装方式

    • 方式1:官网下载dmg安装包,拖拽至应用程序
    • 方式2:Homebrew一键安装(推荐)
      brew install ollama
      brew services start ollama
      
  2. 验证与路径配置

    # 验证版本
    ollama --version
    # 配置存储路径(可选)
    export OLLAMA_HOME=~/ollama
    
  3. 模型拉取与运行

    ollama pull qwen3.5:0.8b
    ollama run qwen3.5:0.8b
    

(三)Linux(Ubuntu/Debian)部署Ollama

  1. 官方一键安装脚本

    curl -fsSL https://ollama.com/install.sh | sh
    # 启动并设置开机自启
    sudo systemctl enable ollama && sudo systemctl start ollama
    
  2. 验证安装

    ollama --version
    
  3. 模型操作

    ollama pull qwen3.5:0.8b
    ollama run qwen3.5:0.8b
    

三、2026年阿里云ECS部署Ollama+OpenClaw完整流程

阿里云ECS可实现7×24小时稳定运行,搭配国内大模型API延迟更低,适合生产环境与远程访问。

第一步:点击打开访问阿里云OpenClaw一键部署专题页面
openclaw666.png
OpenClaw2.png
OpenClaw02.png
OpenClaw03.png
OpenClaw04.png

第二步:打开选购阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

(一)ECS环境准备

  1. 选购ECS实例:2核4GB起步,系统选择Ubuntu22.04或Debian11
  2. 安全组配置:放行22(SSH)、11434(Ollama)、18789(OpenClaw)端口
  3. 远程连接服务器,更新系统:
    apt update && apt upgrade -y
    

(二)阿里云部署Ollama

  1. 安装Ollama

    curl -fsSL https://ollama.com/install.sh | sh
    sudo systemctl enable ollama && sudo systemctl start ollama
    
  2. 拉取模型并允许公网访问

    ollama pull qwen3.5:7b
    # 修改配置监听0.0.0.0,允许外网访问
    sudo nano /etc/systemd/system/ollama.service
    # 在[Service]段添加
    Environment="OLLAMA_HOST=0.0.0.0"
    # 重启服务
    sudo systemctl daemon-reload
    sudo systemctl restart ollama
    

(三)阿里云部署OpenClaw(Docker Compose方式)

  1. 安装Docker与Docker Compose

    curl -fsSL https://get.docker.com | bash
    sudo apt install docker-compose-plugin -y
    
  2. 克隆OpenClaw仓库并部署

    git clone https://github.com/openclaw/openclaw
    cd openclaw
    export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest
    ./docker-setup.sh
    
  3. 获取OpenClaw访问Token

    cat data/conf/openclaw.json | grep token
    

    访问地址:http://ECS公网IP:18789?token=你的Token

  4. 对接本地Ollama
    进入OpenClaw配置文件,修改模型地址为:

    "baseUrl": "http://localhost:11434/v1"
    

    重启容器:docker compose restart


四、OpenClaw全平台本地部署(Windows11/MacOS/Linux)

OpenClaw需基于Docker运行,三平台部署流程一致。

1. 安装Docker Desktop

  • Windows11:开启WSL2后安装Docker Desktop
  • MacOS:直接安装Docker Desktop
  • Linux:命令行安装Docker

2. 部署OpenClaw

git clone https://github.com/openclaw/openclaw
cd openclaw
export OPENCLAW_IMAGE=ghcr.io/openclaw/openclaw:latest
./docker-setup.sh

3. 本地访问

获取Token后,访问:http://localhost:18789?token=你的Token


五、大模型API配置:阿里云千问+免费Coding Plan

阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:

创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
CodingPlan.png

  • 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。
    image.png
  • 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。
    image.png
  • 在服务器概览页面单击应用详情页签,进入服务器详情页面。
    image.png
  • 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。
    image.png
  • 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。
    image.png
  • 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。
    image.png
    image.png

(一)阿里云千问大模型API配置

  1. 获取API Key
    访问登录阿里云百炼大模型服务平台,进入API密钥管理,创建并保存Secret Key。

  2. OpenClaw配置
    编辑data/conf/openclaw.json,添加千问配置:

    "models": {
         
      "providers": {
         
        "qwen": {
         
          "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
          "apiKey": "你的千问API Key",
          "models": ["qwen-max", "qwen3.5"]
        }
      },
      "default": "qwen/qwen-max"
    }
    

(二)阿里云Coding Plan免费模型配置

  1. 开通Coding Plan
    阿里云百炼控制台访问订阅阿里云百炼Coding Plan,开通Coding Plan免费套餐,获取API Key。

  2. OpenClaw配置

    "models": {
         
      "providers": {
         
        "codingplan": {
         
          "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
          "apiKey": "你的Coding Plan API Key",
          "models": ["qwen-free"]
        }
      },
      "default": "codingplan/qwen-free"
    }
    
  3. 命令行快速切换模型

    docker compose -f docker-compose-cli.yml run --rm openclaw-cli models set qwen/qwen3.5
    

六、OpenClaw对接Telegram(2026最新流程)

  1. 创建Telegram Bot
    搜索@BotFather,发送/newbot,获取Bot Token。

  2. 执行对接命令

    docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add
    

    选择Telegram,粘贴Bot Token。

  3. 重启容器生效

    docker compose restart
    

七、高频问题全解答

1. Ollama模型拉取失败

  • 原因:网络问题
  • 解决:更换网络或使用代理,重新执行ollama pull

2. OpenClaw无法访问WebUI

  • 排查:18789端口未放行、Token错误
  • 解决:检查防火墙/安全组,确认Token正确

3. 模型推理卡顿、内存溢出

  • 解决:更换更小参数模型(如0.8b版本),增加虚拟内存

4. API调用失败

  • 排查:API Key错误、BaseURL格式错误
  • 解决:核对密钥与接口地址,重启容器

5. 本地部署公网无法访问

  • 解决:端口映射、防火墙放行、公网IP绑定

八、部署优势总结

  1. 完全私有化:所有数据本地存储,杜绝隐私泄露
  2. 零成本使用:Ollama开源免费,Coding Plan提供免费额度
  3. 离线可用:本地部署断网正常运行
  4. 全平台兼容:Windows/Mac/Linux/阿里云全覆盖
  5. 功能强大:Ollama负责模型推理,OpenClaw负责智能体交互

2026年私有化AI部署已无门槛,按照本文步骤,无论新手还是技术用户,都能快速搭建属于自己的私人AI助手,兼顾隐私、成本与功能,实现AI自由。

目录
相关文章
|
2月前
|
人工智能 Linux API
OpenClaw+本地模型无限Token实战:阿里云/本地部署+Ollama+百炼API配置指南
OpenClaw 配合本地小模型,可实现**完全免费、无限Token、数据不出本地、断网可用**的私人AI助手,彻底告别订阅费、额度限制与隐私泄露风险。本文完整覆盖:OpenClaw 2026阿里云/Windows11/MacOS/Linux全平台部署、Ollama快速搭建本地模型、阿里云百炼Coding Plan免费大模型配置、本地+云端双模型自动切换方案,所有命令可直接复制,全程无付费环节、无冗余表述,适合追求低成本、高隐私、高自由度的个人与轻量化团队。
1660 15
|
2月前
|
人工智能 Linux API
OpenClaw内网离线方案:Windows/Mac/Linux/阿里云部署+千问/Coding Plan/Ollama配置实战指南
OpenClaw(龙虾)作为轻量化AI Agent工具,在自动化任务、文件处理、代码生成、信息检索等场景中表现突出,但云端API高额Token费用与数据隐私问题,一直是个人与企业使用的阻碍。通过本地部署Ollama运行千问等开源大模型,可实现OpenClaw完全离线使用,达成Token自由与数据安全双重目标。本文基于2026年最新实践,完整覆盖本地Windows11/MacOS/Linux部署、阿里云云端部署、Ollama本地模型对接、阿里云千问API与免费Coding Plan配置,同时提供全流程代码命令与高频问题解决方案,打造可直接落地的私有化AI Agent体系。
2247 5
|
2月前
|
Linux API 异构计算
OpenClaw阿里云及本地部署离线运行实战手册:本地大模型Ollama部署、多系统安装与免费API适配
2026年,OpenClaw(Clawdbot)的本地化能力已实现跨越式升级——不再依赖云端大模型API,通过对接本地私有模型,可实现全程离线运行,数据无需上传第三方服务器,兼顾隐私安全与使用便捷性。这种“本地部署+私有模型”的组合,完美解决了敏感数据处理、无网络环境使用、长期成本控制等核心痛点,使其在企业办公、科研场景、隐私敏感领域的适用性大幅提升。
2159 2
OpenClaw阿里云及本地部署离线运行实战手册:本地大模型Ollama部署、多系统安装与免费API适配
|
2月前
|
Linux API 网络安全
OpenClaw+魔塔Ollama私有化部署、阿里云部署与无限量本地模型+千问API与免费Coding Plan接入实战指南
OpenClaw作为轻量化AI Agent框架,在自动化任务、文件处理、代码生成、信息检索等场景中效率突出,但商用API高额Token消耗、网络限制与数据隐私问题,长期制约个人与团队规模化使用。通过魔塔ModelScope国内源加速部署Ollama,搭配支持工具调用的千问3.5系列本地模型,可实现OpenClaw完全离线运行、无限量调用、数据不出内网,彻底告别Token焦虑。本文基于2026年最新实践,完整覆盖Windows11/MacOS/Linux本地部署、阿里云云端部署、魔塔Ollama安装优化、局域网开放、OpenClaw配置对接、阿里云千问API与免费Coding Plan接入,提供
2722 0
|
3月前
|
人工智能 JavaScript 数据可视化
保姆级教程:OpenClaw(Clawdbot)阿里云及Windows本地部署方案,与本地Ollama配置指南
在AI智能体快速普及的2026年,OpenClaw(前身为Clawdbot)凭借开源免费、可自托管、系统级权限控制的核心优势,成为个人与轻量团队打造专属AI助手的首选工具,其GitHub星标已飙升至18万+,登顶多个开源榜单。Ollama作为目前最受开发者欢迎的本地大模型运行工具,GitHub星标突破16万,支持480+开源模型一键部署,二者组合可实现“本地推理+本地执行”的全闭环,彻底摆脱对云端大模型的依赖,确保数据隐私安全且无网络依赖。
4008 2
|
2月前
|
人工智能 Linux API
零成本私有AI助理:OpenClaw阿里云/本地部署+Ollama本地模型对接+免费大模型配置新手教程
在AI工具普及的今天,API调用成本、数据隐私、网络限制成为普通用户使用AI助理的主要阻碍。OpenClaw(Clawdbot)与Ollama的组合完美解决这些问题:**完全免费、数据本地留存、无API密钥、无信用卡要求、离线可用**。Ollama作为轻量化本地大模型运行工具,支持macOS/Linux/Windows三大平台,可一键运行Llama3、Qwen2.5等开源模型;OpenClaw则作为任务执行与交互层,提供技能扩展、自动化流程、多渠道交互能力。
1737 6