OpenClaw(“龙虾”)从部署到使用保姆级教程:两步部署+多免费模型API配置指南(Kimi-k2.5、MiniMax、GLM5、GPT)

简介: 2026年,OpenClaw(昵称“龙虾”)作为开源AI代理工具的核心代表,持续受到广泛关注。其通过自然语言指令驱动的自动化执行能力,成为提升工作效率的重要工具。但随着用户规模扩大,付费模型API的使用门槛逐渐提高,部分付费套餐甚至需要限时抢购,给普通用户带来不便。

2026年,OpenClaw(昵称“龙虾”)作为开源AI代理工具的核心代表,持续受到广泛关注。其通过自然语言指令驱动的自动化执行能力,成为提升工作效率的重要工具。但随着用户规模扩大,付费模型API的使用门槛逐渐提高,部分付费套餐甚至需要限时抢购,给普通用户带来不便。
OpenClawo.png

经过实测验证,目前市场上仍有多个平台提供免费模型API,可无缝适配OpenClaw,满足日常使用需求。本文基于2026年OpenClaw最新稳定版(v2026.3.8),系统梳理全流程操作:先详细拆解阿里云及本地(Windows11/MacOS/Linux)部署步骤,再提供阿里云百炼API与三款免费模型API的配置方案,最后补充常见问题解答,所有代码可直接复制执行,全程无营销性质内容,助力用户高效搭建OpenClaw自动化环境。
阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw1.png
OpenClaw2.png

一、核心认知:OpenClaw与模型API的适配逻辑

OpenClaw本身不具备独立的大模型推理能力,需通过对接外部模型API实现“指令解析→任务规划→执行反馈”的完整闭环。模型API的选择直接影响OpenClaw的响应速度、任务成功率与使用成本。

当前适配OpenClaw的模型API主要分为两类:一类是付费套餐(如阿里云百炼Coding Plan),稳定性强、功能全面,适合长期重度使用;另一类是免费模型API(如英伟达、OpenCode Zen、七牛云等),无需付费即可使用,适合测试体验与轻量场景。两类API的核心适配逻辑一致,均通过配置Base URL、API Key与模型ID实现对接,用户可根据自身需求选择。

(一)免费模型API核心特性对比

结合实测结果,三款主流免费模型API的关键信息整理如下,方便用户按需选择:

平台名称 免费模型代表 核心优势 注意事项 API Base URL
英伟达 Kimi-k2.5、MiniMax、GLM5 等200+款 可选模型丰富;调用频次无上限(每分钟40次);支持多场景任务 晚高峰响应速度较慢;部分用户注册时可能收不到验证码 https://integrate.api.nvidia.com/v1
OpenCode(Zen) MiniMax-free、GPT 5 Nano、Big-pickle 响应速度快;支持GitHub一键授权登录;配置简单 免费额度有限,大任务易超限;额度每日早8点刷新 https://opencode.ai/zen/v1
七牛云 美团Flash-Lite、阶跃Step-3.5 Flash 响应速度最快;支持轻量多线程并发;稳定性较好 部分模型能力有限,任务成功率约75%;部分模型信息不透明 https://api.qnaigc.com/v1

(二)部署与配置前置准备

1. 设备与环境要求

内存是核心硬性要求,低于4GB会导致服务启动失败,各部署方式的具体要求如下:

部署方式 最低配置 推荐配置 系统要求 核心依赖
阿里云轻量服务器 2vCPU+2GiB内存+40GiB ESSD 个人:2vCPU+4GiB内存+40GiB ESSD;团队:4vCPU+8GiB内存+80GiB ESSD Ubuntu 22.04 LTS、Alibaba Cloud Linux 3.2104 LTS 模型API凭证、Docker
Windows11本地 4GiB内存+20GiB磁盘空间 8GiB内存+30GiB磁盘空间 Windows11 64位 Node.js≥v22.0.0、Python≥3.9、Git、Docker Desktop
MacOS本地 4GiB内存+20GiB磁盘空间 8GiB内存+30GiB磁盘空间 MacOS 12及以上(M系列/Intel芯片) Homebrew、Node.js≥v22.0.0、Git、Docker
Linux本地 4GiB内存+20GiB磁盘空间 8GiB内存+30GiB磁盘空间 Ubuntu 22.04+ 64位 curl、Git、Python≥3.9、Node.js≥v22.0.0、Docker

2. 必备凭证与工具

  • 核心凭证:阿里云账号(注册阿里云账号 完成实名认证,用于服务器购买与百炼API开通)、目标模型API的Key(如英伟达、OpenCode Zen、七牛云等)及对应Base URL、模型ID;
  • 辅助工具:SSH远程工具(FinalShell,阿里云部署用)、系统终端(Windows11:PowerShell管理员模式;MacOS/Linux:原生终端)、文本编辑器(VS Code、记事本)、加密记事本(存储敏感凭证);
  • 基础工具:Node.js、Git、Docker、ClawHub CLI(技能管理必备)。

3. 基础工具安装(全系统通用)

# 1. 安装Node.js(推荐v22+,确保兼容性)
# Windows11(PowerShell,管理员模式)
winget install OpenJS.NodeJS.LTS --version 22.2.0 -y

# MacOS(终端)
brew install node@22
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

# Linux/Ubuntu(终端)
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

# 2. 验证Node.js版本(显示v22+即为成功)
node -v

# 3. 安装核心工具(Git、ClawHub CLI)
# Windows11
winget install Git.Git -y
npm install -g clawhub@latest

# MacOS/Linux
brew install git  # MacOS
sudo apt install git -y  # Linux
npm install -g clawhub@latest

# 4. 安装Docker(容器化部署必备)
# Windows11:下载Docker Desktop并安装(官网:https://www.docker.com/products/docker-desktop/)
# MacOS
brew install docker --cask
open -a Docker

# Linux/Ubuntu
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
sudo systemctl start docker
sudo systemctl enable docker

# 5. 配置国内镜像,加速下载
npm config set registry https://registry.npmmirror.com
clawhub config set registry https://clawhub-mirror.aliyuncs.com

# 6. 验证工具安装
git --version && clawhub -V && docker --version

二、2026年OpenClaw全平台部署流程

(一)阿里云部署(长期运行+多设备访问首选)

阿里云部署适合需要7×24小时稳定运行、团队共享的场景,提供一键脚本与Docker两种部署方案,适配不同需求。

阿里云用户零基础部署 OpenClaw 喂饭级步骤流程

第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
OpenClaw1.png
OpenClaw2.png
OpenClaw02.png
OpenClaw03.png
OpenClaw04.png

第二步:打开选购阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

阿里云百炼Coding Plan 配置教程:创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
CodingPlan.png

  • 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。
    image.png
  • 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。
    image.png
  • 在服务器概览页面单击应用详情页签,进入服务器详情页面。
    image.png
  • 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。
    image.png
  • 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。
    image.png
  • 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。
    image.png
    image.png

方案一:一键脚本部署(新手首选)

1. 服务器选购与基础配置:
- **[访问阿里云轻量应用服务器控制台](https://www.aliyun.com/product/swas?userCode=t1dwdo7u)**,选择“Ubuntu 22.04 LTS”系统镜像;
- 核心配置:2vCPU+4GiB内存+40GiB ESSD+200Mbps带宽,地域优先选择中国香港(免备案)或华东1(杭州);
- 提交订单后,记录服务器公网IP、默认登录账号(root)与密码,在控制台放行22(SSH)、18789(OpenClaw核心端口)、443(API调用端口)。
2. 一键部署操作(FinalShell远程连接):
# 1. SSH连接服务器(替换为你的公网IP)
ssh root@你的服务器公网IP

# 2. 执行阿里云专属一键部署脚本(国内优化版)
curl -fsSL https://openclaw.ai/aliyun-install.sh | bash

# 3. 按向导完成核心配置(新手直接默认选择)
# 关键步骤:
# 1. 风险提示:选择Yes
# 2. 网关模式:选择remote(支持远程访问)
# 3. 绑定地址:0.0.0.0:18789
# 4. 模型选择:暂时选择“Custom Provider”(后续配置API)
# 5. 认证设置:自动生成访问令牌,复制保存(登录WebUI用)

# 4. 验证部署与开机自启
systemctl status openclaw  # 显示active(running)即为成功
systemctl enable openclaw  # 设置开机自启
curl http://127.0.0.1:18789/api/v1/health  # 返回healthy即为正常
3. 远程访问:浏览器输入 http://服务器公网IP:18789,粘贴访问令牌,进入Web控制台。

方案二:Docker Compose部署(生产环境首选)

适合需要环境隔离、数据持久化的场景,稳定性更强:

# 1. 登录服务器,安装Docker与Docker Compose
sudo apt update && sudo apt upgrade -y
curl -fsSL https://get.docker.com | bash
sudo apt install docker-compose-plugin -y
sudo systemctl start docker && sudo systemctl enable docker

# 2. 创建项目目录与配置文件
mkdir -p /opt/openclaw && cd /opt/openclaw
cat > docker-compose.yml << EOF
version: "3.8"
services:
  openclaw:
    image: openclaw/openclaw:2026-latest
    container_name: openclaw
    ports:
      - "18789:18789"
    volumes:
      - openclaw-data:/root/.openclaw
      - /var/log/openclaw:/var/log/openclaw  # 日志持久化
    restart: unless-stopped
    command: ["openclaw", "gateway", "run"]
    environment:
      - TZ=Asia/Shanghai
      - GATEWAY_MODE=remote
      - GATEWAY_BIND=0.0.0.0:18789
volumes:
  openclaw-data:
EOF

# 3. 启动容器
docker compose up -d

# 4. 初始化配置(设置访问令牌)
docker compose exec openclaw openclaw config set gateway.auth.token "你的高强度令牌"

# 5. 查看日志,确认启动成功
docker compose logs -f

(二)本地部署(Windows11+MacOS+Linux)

1. Windows11本地部署(新手易上手)

# 1. 管理员模式打开PowerShell,解决执行策略限制
Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force

# 2. 安装核心依赖(Git、Python)
winget install Git.Git -y
winget install Python.Python.3.10 -y

# 3. 全局安装OpenClaw
npm install -g openclaw@latest

# 4. 启动配置向导
openclaw config wizard

# 5. 配置网关认证(v2026.3.7+版本必做)
openclaw config set gateway.auth.mode token
openclaw config set gateway.auth.token "your-secret-token"

# 6. 启动服务并生成访问令牌
openclaw gateway start
openclaw token generate --admin

关键配置:将C:\Users\你的用户名\.openclaw添加到Windows Defender排除列表,避免文件被误判为病毒;访问方式:http://localhost:18789

2. MacOS本地部署(体验最佳)

# 1. 安装Homebrew(国内镜像加速)
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"

# 2. 安装核心依赖
brew install git python@3.10 node@22 docker --cask
open -a Docker  # 启动Docker
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

# 3. 全局安装OpenClaw
npm install -g openclaw@latest

# 4. 配置网关认证
openclaw config set gateway.auth.mode token
openclaw config set gateway.auth.token "your-secret-token"

# 5. 启动服务(后台运行)
nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

# 6. 生成访问令牌
openclaw token generate --admin

M系列芯片避坑:若安装失败,执行arch -arm64 brew install node@22,指定ARM架构安装依赖。

3. Linux本地部署(稳定性强)

# 1. 更新系统依赖
sudo apt update && sudo apt upgrade -y

# 2. 安装核心工具与依赖
sudo apt install curl git python3-pip -y
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
npm install -g openclaw@latest

# 3. 配置Swap空间(解决内存不足)
sudo fallocate -l 2G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

# 4. 配置网关认证
openclaw config set gateway.auth.mode token
openclaw config set gateway.auth.token "your-secret-token"

# 5. 启动服务并设置开机自启
sudo systemctl enable --now openclaw
openclaw gateway restart

# 6. 生成访问令牌
openclaw token generate --admin

访问方式:http://localhost:18789,粘贴令牌登录。

三、模型API配置方案(阿里云百炼+三款免费模型)

(一)阿里云百炼Coding Plan API配置(付费稳定选择)

1. 凭证获取步骤:

- **[访问订阅阿里云百炼Coding Plan](https://www.aliyun.com/benefit/scene/codingplan?userCode=t1dwdo7u)**,进入服务订阅页面;
- 选择适合的套餐(新用户可领取90天免费额度),完成订阅(RAM子账号需主账号授权);
- 进入百炼控制台“密钥管理”,获取API Key(格式为`sk-sp-xxxxx`);
- 记录专属Base URL:`https://coding.dashscope.aliyuncs.com/v1`。

2. OpenClaw对接配置:

# 1. 编辑OpenClaw配置文件
# Windows11(PowerShell)
notepad $env:USERPROFILE\.openclaw\openclaw.json

# MacOS/Linux/阿里云
nano ~/.openclaw/openclaw.json

# 2. 添加百炼配置(替换为你的API Key)
{
   
  "models": {
   
    "providers": {
   
      "bailian-coding": {
   
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "你的Coding Plan API Key",
        "api": "openai-completions",
        "models": [
          {
   
            "id": "qwen3.5-coding",
            "name": "百炼Coding Plan Qwen3.5",
            "contextWindow": 32768,
            "maxTokens": 4096,
            "reasoning": false  // 国内模型必设,否则回复为空
          }
        ]
      }
    },
    "default": "bailian-coding/qwen3.5-coding"
  }
}

# 3. 重启网关生效
# 阿里云/Linux
openclaw gateway restart

# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

# Windows11
openclaw gateway stop && openclaw gateway start

(二)三款免费模型API配置(零成本体验)

1. 英伟达免费模型API配置

  • 凭证获取:

    1. 访问英伟达官网(build.nvidia.com),注册并登录账号,完成手机号验证;
    2. 进入“API Keys”管理页面,创建API Key并复制保存;
    3. 可选免费模型ID:minimaxai/minimax-m2z-ai/glm4.7kimi-k2.5
  • 配置步骤:

# 1. 编辑配置文件
nano ~/.openclaw/openclaw.json

# 2. 添加英伟达配置
{
   
  "models": {
   
    "providers": {
   
      "nvidia-free": {
   
        "baseUrl": "https://integrate.api.nvidia.com/v1/chat/completions",
        "apiKey": "你的英伟达API Key",
        "api": "openai-completions",
        "models": [
          {
   
            "id": "minimaxai/minimax-m2",
            "name": "Nvidia MiniMax M2",
            "contextWindow": 8192,
            "maxTokens": 2048
          }
        ]
      }
    },
    "default": "nvidia-free/minimaxai/minimax-m2"
  }
}

# 3. 重启网关
openclaw gateway restart

2. OpenCode Zen免费模型API配置

  • 凭证获取:

    1. 访问OpenCode官网(opencode.ai/zen),通过GitHub一键授权登录;
    2. 创建API Key并复制保存;
    3. 可选免费模型ID:minimax-m2.5-freeglm-5-freegpt-5-nano
  • 配置步骤:

# 1. 编辑配置文件
nano ~/.openclaw/openclaw.json

# 2. 添加OpenCode Zen配置
{
   
  "models": {
   
    "providers": {
   
      "opencode-zen": {
   
        "baseUrl": "https://opencode.ai/zen/v1",
        "apiKey": "你的OpenCode API Key",
        "api": "openai-completions",
        "models": [
          {
   
            "id": "minimax-m2.5-free",
            "name": "OpenCode MiniMax M2.5 Free",
            "contextWindow": 16384,
            "maxTokens": 4096
          }
        ]
      }
    },
    "default": "opencode-zen/minimax-m2.5-free"
  }
}

# 3. 重启网关
openclaw gateway restart

3. 七牛云免费模型API配置

  • 凭证获取:

    1. 访问七牛云官网,注册并登录账号,进入“AI推理”控制台;
    2. 获取API Key并复制保存;
    3. 可选免费模型ID:meituan-flash-litestep-3.5-flash
  • 配置步骤:

# 1. 编辑配置文件
nano ~/.openclaw/openclaw.json

# 2. 添加七牛云配置
{
   
  "models": {
   
    "providers": {
   
      "qiniu-free": {
   
        "baseUrl": "https://api.qnaigc.com/v1/chat/completions",
        "apiKey": "你的七牛云API Key",
        "api": "openai-completions",
        "models": [
          {
   
            "id": "meituan-flash-lite",
            "name": "Qiniu Meituan Flash-Lite",
            "contextWindow": 8192,
            "maxTokens": 2048
          }
        ]
      }
    },
    "default": "qiniu-free/meituan-flash-lite"
  }
}

# 3. 重启网关
openclaw gateway restart

(三)API配置验证与切换

  1. 验证方法:在OpenClaw Web控制台输入“帮我总结OpenClaw的核心功能”,若返回结构化总结内容,即为配置成功;
  2. 模型切换:如需更换模型,修改配置文件中default字段对应的模型ID,重启网关即可生效;
  3. 批量配置多个模型:可在providers中添加多个模型配置,按需切换使用,示例如下:
    {
         
    "models": {
         
    "providers": {
         
      "nvidia-free": {
         },  // 英伟达配置
      "opencode-zen": {
         },  // OpenCode配置
      "qiniu-free": {
         }     // 七牛云配置
    },
    "default": "opencode-zen/minimax-m2.5-free"  // 默认使用OpenCode模型
    }
    }
    

四、常见问题解答(避坑指南)

(一)部署类问题

  1. 问题1:OpenClaw启动提示“Node.js版本过低”?

    • 解决方案:执行node -v验证版本,确保≥22.0.0;Linux/MacOS用sudo npm install -g n && sudo n 22.2.0升级,Windows重新安装Node.js。
  2. 问题2:Web控制台无法访问,提示“无法连接”?

    • 原因:端口被占用、服务未启动、防火墙/安全组未放行端口;
    • 解决方案:
      ① 检查18789端口是否被占用(Windows:netstat -ano | findstr 18789;Linux/MacOS:lsof -i:18789),终止占用进程;
      ② 重启网关服务(openclaw gateway restart),确认服务状态为“running”;
      ③ 阿里云部署:检查安全组是否放行18789端口;本地部署:关闭防火墙或添加端口例外。
  3. 问题3:服务启动后进程莫名消失,日志无报错?

    • 原因:内存不足,未配置Swap空间;
    • 解决方案:按部署步骤配置2GB以上Swap空间,升级设备内存。

(二)API配置类问题

  1. 问题1:模型API调用提示“密钥无效”?

    • 解决方案:① 逐字符核对API Key,确保输入正确;② 登录对应平台,确认API Key未过期、未被禁用;③ 重新创建API Key并更新配置。
  2. 问题2:调用模型时回复为空或超时?

    • 解决方案:
      ① 检查网络连接,确保能正常访问模型Base URL;
      ② 英伟达模型晚高峰易卡顿,可更换OpenCode或七牛云模型;
      ③ 国内模型需在配置中添加"reasoning": false(阿里云百炼适用);
      ④ 免费模型额度有限,确认未超限(OpenCode额度每日刷新)。
  3. 问题3:配置后模型不生效,仍使用默认模型?

    • 解决方案:① 确认配置文件中default字段指向目标模型;② 修改配置后必须重启网关(Docker部署需重启容器);③ 检查配置文件格式,避免JSON语法错误。

(三)使用类问题

  1. 问题1:OpenClaw响应速度慢?

    • 解决方案:① 更换响应速度更快的模型(如七牛云、OpenCode Zen);② 卸载不常用的Skill,减轻系统负担;③ 升级设备配置,增加内存与CPU核心数。
  2. 问题2:执行任务时提示“权限不足”?

    • 解决方案:① 以管理员身份运行OpenClaw(Windows:PowerShell管理员模式;Linux:sudo命令);② 赋予目标文件/文件夹访问权限(Linux/MacOS:chmod -R 775 路径)。
  3. 问题3:免费模型调用失败,提示“模型不存在”?

    • 解决方案:① 确认模型ID与平台支持的一致(参考各平台官方文档);② 部分模型可能已下架,更换其他可用模型;③ 检查Base URL是否正确(如七牛云需包含/chat/completions路径)。

五、总结

本文系统梳理了2026年OpenClaw的全流程操作,涵盖阿里云及本地多系统部署、阿里云百炼与三款免费模型API配置、常见问题排查,所有步骤均经过实测验证,代码可直接复制执行。

核心要点总结:

  1. 部署选择:个人测试选本地部署,长期运行/团队共享选阿里云部署,企业生产环境优先Docker部署;
  2. API适配:付费场景优先选择阿里云百炼,稳定可靠;测试体验可选择英伟达、OpenCode Zen、七牛云等免费模型,零成本上手;
  3. 配置关键:Node.js版本需≥22.0.0,API配置需准确填写Base URL、API Key与模型ID,修改配置后必须重启网关;
  4. 避坑核心:提前配置Swap空间避免内存不足,选择适配场景的模型(如轻量任务选七牛云,多模型需求选英伟达),定期备份配置文件。

通过本文的指南,用户可根据自身需求选择合适的部署方式与模型API,快速搭建OpenClaw自动化环境,充分发挥其自动化执行能力,提升工作效率。

相关文章
|
13天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
19971 110
|
5天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
4301 7
|
8天前
|
人工智能 安全 API
OpenClaw“小龙虾”进阶保姆级攻略!阿里云/本地部署+百炼API配置+4种Skills安装方法
很多用户成功部署OpenClaw(昵称“小龙虾”)后,都会陷入“看似能用却不好用”的困境——默认状态下的OpenClaw更像一个聊天机器人,缺乏连接外部工具、执行实际任务的能力。而Skills(技能插件)作为OpenClaw的“动手能力核心”,正是打破这一局限的关键:装对Skills,它能帮你自动化处理流程、检索全网资源、管理平台账号,真正变身“能做事的AI管家”。
5089 7
|
8天前
|
人工智能 API 网络安全
Mac mini × OpenClaw 保姆级配置教程(附阿里云/本地部署OpenClaw配置百炼API图文指南)
Mac mini凭借小巧机身、低功耗和稳定性能,成为OpenClaw(原Clawdbot)本地部署的首选设备——既能作为家用AI节点实现7×24小时运行,又能通过本地存储保障数据隐私,搭配阿里云部署方案,可灵活满足“长期值守”与“隐私优先”的双重需求。对新手而言,无需复杂命令行操作,无需专业技术储备,按本文步骤复制粘贴代码,即可完成OpenClaw的全流程配置,同时接入阿里云百炼API,解锁更强的AI任务执行能力。
6367 2
|
10天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7739 6
|
11天前
|
人工智能 JSON API
保姆级教程:OpenClaw阿里云及本地部署+模型切换流程+GLM5.0/Seedance2.0/MiniMax M2.5接入指南
2026年,GLM5.0、Seedance2.0、MiniMax M2.5等旗舰大模型相继发布,凭借出色的性能与极具竞争力的成本优势,成为AI工具的热门选择。OpenClaw作为灵活的AI Agent平台,支持无缝接入这些主流模型,通过简单配置即可实现“永久切换、快速切换、主备切换”三种模式,让不同场景下的任务执行更高效、更稳定。
7110 4
|
11天前
|
人工智能 JavaScript API
保姆级教程:OpenClaw阿里云/本地部署配置Tavily Search skill 实时联网,让OpenClaw“睁眼看世界”
默认状态下的OpenClaw如同“闭门造车”的隐士,仅能依赖模型训练数据回答问题,无法获取实时新闻、最新数据或训练截止日期后的新信息。2026年,激活其联网能力的最优方案是配置Tavily Search技能——无需科学上网、无需信用卡验证,每月1000次免费搜索额度完全满足个人需求,搭配ClawHub技能市场,还能一键拓展天气查询、邮件管理等实用功能。
7127 5
|
18天前
|
人工智能 自然语言处理 JavaScript
2026年Windows+Ollama本地部署OpenClaw保姆级教程:本地AI Agent+阿里云上快速搭建
2026年OpenClaw凭借本地部署、私有化运行的特性,成为打造个人智能体的核心工具,而Ollama作为轻量级本地大模型管理工具,能让OpenClaw摆脱对云端大模型的依赖,实现**本地推理、数据不泄露、全流程私有化**的智能体验。本文基于Windows 11系统,从硬件环境准备、Ollama安装与模型定制、OpenClaw部署配置、技能扩展到常见问题排查,打造保姆级本地部署教程,同时补充阿里云OpenClaw(Clawdbot)快速部署步骤,兼顾本地私有化需求与云端7×24小时运行需求,文中所有代码命令均可直接复制执行,确保零基础用户也能快速搭建属于自己的本地智能体。
19159 116

热门文章

最新文章