Token告急?OpenClaw永久免费方案:阿里云/本地搭建+自部署模型(Ollama 、GLM、Qwen、Llama)+百炼API配置

简介: 2026年,OpenClaw(昵称“小龙虾”)凭借开源灵活、功能强大的特性,成为AI爱好者与开发者的首选工具。但很多用户都遭遇过参考文章中作者的困境:只是偶尔测试,500万Token就悄悄耗尽,高频使用的话,Token消耗速度堪比“流水”,还没靠AI赚到钱,反而要先投入一笔不小的成本。

2026年,OpenClaw(昵称“小龙虾”)凭借开源灵活、功能强大的特性,成为AI爱好者与开发者的首选工具。但很多用户都遭遇过参考文章中作者的困境:只是偶尔测试,500万Token就悄悄耗尽,高频使用的话,Token消耗速度堪比“流水”,还没靠AI赚到钱,反而要先投入一笔不小的成本。
OpenClawo.png

核心诉求——“接入自部署大模型,摆脱Token依赖”,正是无数OpenClaw用户的痛点。事实上,OpenClaw不仅支持接入公司/个人自部署的大模型(如GLM、Qwen、Llama等),还能搭配阿里云百炼Coding Plan免费API(新用户领90天额度),形成“自部署模型为主,免费API为辅”的双保险方案,彻底告别Token焦虑。

本文基于核心诉求与2026年OpenClaw最新稳定版(v2026.3.8),整合全流程资源:详解2026年阿里云及本地(Windows11/MacOS/Linux)部署步骤,重点拆解自部署大模型接入流程(以主流的Qwen、GLM为例),补充阿里云百炼Coding Plan免费API配置,整理Token节省技巧与常见问题解答,所有代码可直接复制执行,助力用户搭建低成本、无上限的OpenClaw使用环境,真正实现“永久免费用AI”。阿里云上OpenClaw极速一键部署最简单,步骤详情 访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw1.png
OpenClaw2.png

一、核心认知:为什么要接入自部署大模型?双方案的优势

(一)Token消耗过快的核心原因

参考文章中作者仅偶尔测试就耗尽500万Token,并非个例,核心原因有三点:

  1. 模型默认参数过高:OpenClaw默认调用的大模型(如GPT-4、GLM-4)单次响应Token上限高,即便简单对话也会消耗较多Token;
  2. 隐性消耗不可见:技能加载、工具调用、上下文记忆等后台操作,都会产生隐性Token消耗,积少成多;
  3. 高频使用需求:随着对OpenClaw的依赖加深,从偶尔测试到日常办公、开发辅助,使用频率提升必然导致Token消耗激增。

(二)自部署大模型+百炼API:双方案的核心优势

  1. 自部署大模型:一次部署,永久免费,无Token限制,可根据需求调整模型参数,适合高频使用、大文件处理、长对话等场景;
  2. 阿里云百炼Coding Plan API:新用户领90天免费额度,国内节点稳定,无需复杂部署,适合临时补充、轻量任务处理,作为自部署模型的备份;
  3. 双方案协同:日常使用优先自部署模型,避免Token消耗;自部署模型维护或故障时,自动切换至百炼API,确保服务不中断,兼顾成本与稳定性。

(三)自部署大模型的选型建议(新手友好)

并非所有大模型都适合自部署,新手需选择“部署简单、资源要求低、OpenAI兼容”的模型,推荐以下3款:

  1. Qwen-7B/14B(阿里通义千问):开源免费,支持中文优化,部署简单,对硬件要求适中(7B模型最低8GB内存即可运行);
  2. GLM-4-9B(智谱):参考文章作者提到的模型系列,中文能力强,支持OpenAI兼容API,适合有一定技术基础的用户;
  3. Llama 3-8B(Meta):生态成熟,社区资源丰富,优化后支持中文,适合追求模型性能的用户。

二、部署前必做准备(所有方案通用)

(一)设备与环境要求

除了OpenClaw本身的部署要求,自部署大模型对硬件资源有额外要求,各部署方式的具体要求如下(含自部署模型):

部署方式 最低配置(仅OpenClaw) 推荐配置(OpenClaw+自部署模型) 系统要求 核心依赖
阿里云ECS服务器 2vCPU+4GiB内存+40GiB ESSD 4vCPU+16GiB内存+80GiB ESSD(7B模型);8vCPU+32GiB内存+100GiB ESSD(14B模型) Ubuntu 22.04 LTS、Alibaba Cloud Linux 3.2104 LTS 阿里云百炼API凭证、Docker、Ollama(模型部署工具)
Windows11本地 4GiB内存+30GiB磁盘空间 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) Windows11 64位(开启WSL2) Node.js≥v22.0.0、Python≥3.9、Git、Docker Desktop、Ollama
MacOS本地 4GiB内存+30GiB磁盘空间 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) MacOS 12及以上(M系列/Intel芯片) Homebrew、Node.js≥v22.0.0、Git、Docker、Ollama
Linux本地 4GiB内存+30GiB磁盘空间 8GiB内存+100GiB SSD(7B模型);16GiB内存+200GiB SSD(14B模型) Ubuntu 22.04+ 64位 curl、Git、Python≥3.9、Node.js≥v22.0.0、Docker、Ollama

(二)必备凭证与工具

  • 核心凭证:阿里云账号(完成实名认证)、阿里云百炼Coding Plan API Key(格式为sk-sp-xxxxx)、自部署模型API地址与密钥(若有);
  • 辅助工具:SSH远程工具(FinalShell,阿里云部署用)、系统终端、文本编辑器(VS Code)、Ollama(模型部署工具,新手首选)、Docker(容器化部署模型);
  • 基础工具:Node.js、Git、ClawHub CLI(OpenClaw技能管理)。

(三)基础工具安装(全系统通用)

# 1. 安装Node.js(OpenClaw核心依赖,必须v22.x版本)
# Windows11(PowerShell,管理员模式)
winget install OpenJS.NodeJS.LTS --version 22.2.0 -y

# MacOS(终端)
brew install node@22
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

# Linux/Ubuntu/阿里云
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

# 2. 验证Node.js版本(显示v22.x.x即为成功)
node -v

# 3. 安装核心工具(Git、ClawHub CLI、Docker)
# Windows11
winget install Git.Git -y
npm install -g clawhub@latest
# Docker需手动下载安装:https://www.docker.com/products/docker-desktop/

# MacOS
brew install git docker --cask
npm install -g clawhub@latest
open -a Docker

# Linux/Ubuntu/阿里云
sudo apt install git -y
npm install -g clawhub@latest
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
sudo systemctl start docker
sudo systemctl enable docker

# 4. 安装Ollama(自部署模型必备,新手友好)
# Windows11/MacOS:官网下载安装(https://ollama.com/download)
# Linux/Ubuntu/阿里云
curl -fsSL https://ollama.com/install.sh | sh

# 5. 配置国内镜像,解决下载超时问题(国内用户必做)
npm config set registry https://registry.npmmirror.com
clawhub config set registry https://clawhub-mirror.aliyuncs.com
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
   
  "registry-mirrors": ["https://docker.mirrors.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

# 6. 验证工具安装
git --version && clawhub -V && docker --version && ollama --version

三、2026年OpenClaw全平台部署流程

(一)方案一:阿里云部署(长期运行+自部署模型首选)

阿里云部署适合需要7×24小时稳定运行、多设备访问的场景,同时能满足自部署模型的硬件资源需求,步骤如下:

阿里云用户零基础部署 OpenClaw 喂饭级步骤流程

第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
OpenClaw1.png
OpenClaw2.png
OpenClaw02.png
OpenClaw03.png
OpenClaw04.png

第二步:打开选购阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

阿里云百炼Coding Plan 配置教程:创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
CodingPlan.png

  • 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。
    image.png
  • 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。
    image.png
  • 在服务器概览页面单击应用详情页签,进入服务器详情页面。
    image.png
  • 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。
    image.png
  • 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。
    image.png
  • 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。
    image.png
    image.png

步骤1:服务器选购与基础配置

  1. 访问阿里云ECS云服务器控制台,选择“Ubuntu 22.04 LTS”系统镜像;
  2. 核心配置:若仅部署OpenClaw,选择2vCPU+4GiB内存+40GiB ESSD;若需同时部署7B自部署模型,选择4vCPU+16GiB内存+80GiB ESSD;14B模型选择8vCPU+32GiB内存+100GiB ESSD;
  3. 地域选择:优先选择中国香港(免备案)或华东1(杭州),镜像拉取速度快,网络延迟低;
  4. 安全组配置:放行22(SSH)、18789(OpenClaw核心端口)、443(API调用端口)、11434(Ollama模型部署端口),确保多端口协同。

步骤2:OpenClaw一键脚本部署(新手推荐)

  1. 使用FinalShell远程连接服务器(输入公网IP、用户名root、密码);
  2. 执行阿里云专属一键部署脚本:
# 国内优化版脚本,避免下载超时
curl -fsSL https://openclaw.ai/aliyun-install.sh | bash
  1. 按向导完成配置(新手直接默认选择):
    • 风险提示:输入Yes;
    • 网关模式:选择remote(支持远程访问);
    • 绑定地址:0.0.0.0:18789;
    • 模型选择:暂时选择Custom Provider(后续配置自部署模型与百炼API);
    • 认证设置:记录生成的访问Token(登录WebUI用);
  2. 验证部署:
    # 查看服务状态(显示active(running)即为成功)
    systemctl status openclaw
    # 设置开机自启
    systemctl enable openclaw
    
  3. 远程访问:浏览器输入http://服务器公网IP:18789,粘贴Token登录,即可进入OpenClaw控制台。

(二)方案二:本地部署(Windows11/MacOS/Linux,测试与轻量使用)

1. Windows11本地部署(WSL2,推荐)

# 1. 管理员模式打开PowerShell,启用WSL2(若未启用)
wsl --install
wsl  # 进入WSL2终端

# 2. 在WSL2中安装核心依赖
sudo apt update && sudo apt upgrade -y
sudo apt install git -y
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
npm install -g clawhub@latest

# 3. 安装OpenClaw
npm install -g openclaw@latest

# 4. 启动配置向导
openclaw

# 5. 按向导完成配置,记录访问Token
# 6. 启动服务
openclaw gateway start

访问方式:浏览器输入http://localhost:18789,粘贴Token登录。

2. MacOS本地部署(原生适配)

# 1. 安装Homebrew(国内镜像加速)
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"

# 2. 安装核心依赖
brew install git node@22 docker --cask
open -a Docker
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc
npm install -g clawhub@latest

# 3. 安装OpenClaw
npm install -g openclaw@latest

# 4. 启动配置向导
openclaw

# 5. 按向导完成配置,记录访问Token
# 6. 后台启动服务
nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

3. Linux本地部署(稳定性强)

# 1. 更新系统依赖
sudo apt update && sudo apt upgrade -y

# 2. 安装核心工具与依赖
sudo apt install curl git -y
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
npm install -g clawhub@latest

# 3. 配置Swap空间(解决内存不足)
sudo fallocate -l 8G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

# 4. 安装OpenClaw
npm install -g openclaw@latest

# 5. 启动配置向导
openclaw

# 6. 启动服务并设置开机自启
sudo systemctl enable --now openclaw
openclaw gateway restart

(三)方案三:自部署模型部署(Ollama,新手友好)

无论选择哪种OpenClaw部署方案,自部署模型都可通过Ollama快速部署,步骤如下(以Qwen-7B为例):

1. 启动Ollama服务:
# 所有系统通用(Windows11/MacOS需先打开Ollama客户端)
ollama serve
2. 拉取并部署Qwen-7B模型:
# 拉取模型(国内用户可配置Ollama镜像加速)
ollama pull qwen:7b

# 验证模型部署(测试模型响应)
ollama run qwen:7b "你好,请介绍一下自己"
3. 配置Ollama OpenAI兼容API(OpenClaw接入必需):
# 启动Ollama时启用OpenAI兼容模式(后台运行)
nohup ollama serve --host 0.0.0.0 --port 11434 > ~/.ollama/logs/serve.log 2>&1 &
4. 验证API可用性:
curl http://localhost:11434/v1/models
# 返回模型列表即为部署成功

四、核心配置:自部署模型接入+百炼API配置(双保险)

(一)配置1:OpenClaw接入自部署模型(Qwen/GLM为例)

1. 接入Ollama部署的Qwen-7B模型

# 1. 编辑OpenClaw配置文件
# 阿里云/Linux
nano ~/.openclaw/openclaw.json

# Windows11(PowerShell)
notepad $env:USERPROFILE\.openclaw\openclaw.json

# MacOS
nano ~/.openclaw/openclaw.json

# 2. 添加自部署模型配置
{
   
  "models": {
   
    "providers": {
   
      "local-ollama": {
   
        "baseUrl": "http://localhost:11434/v1",  // Ollama API地址
        "apiKey": "ollama",  // Ollama默认密钥,可自定义修改
        "api": "openai-completions",
        "models": [
          {
   
            "id": "qwen-7b",
            "name": "自部署Qwen-7B",
            "contextWindow": 8192,
            "maxTokens": 2048,  // 降低单次响应Token,节省资源
            "reasoning": false,
            "codeSupport": true
          }
        ]
      }
    },
    "default": "local-ollama/qwen-7b"  // 默认使用自部署模型
  },
  "agents": {
   
    "defaultWorkspace": "~/OpenClaw/Workspaces",
    "allowCrossAgentCommunication": true
  }
}

# 3. 保存配置并重启OpenClaw
# 阿里云/Linux
openclaw gateway restart

# Windows11
openclaw gateway stop && openclaw gateway start

# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

2. 接入自部署的GLM-4模型(参考文章作者提及模型)

若已部署GLM-4自部署版本(支持OpenAI兼容API),配置如下:

{
   
  "models": {
   
    "providers": {
   
      "local-glm": {
   
        "baseUrl": "你的GLM-4 API地址",  // 如http://localhost:8000/v1
        "apiKey": "你的GLM-4 API密钥",  // 若未设置则留空
        "api": "openai-completions",
        "models": [
          {
   
            "id": "glm-4-9b",
            "name": "自部署GLM-4-9B",
            "contextWindow": 16384,
            "maxTokens": 2048,
            "reasoning": false
          }
        ]
      }
    },
    "default": "local-glm/glm-4-9b"
  }
}

(二)配置2:阿里云百炼Coding Plan API配置(备份方案)

自部署模型维护或故障时,可切换至百炼API,新用户可领90天免费额度,配置步骤如下:

步骤1:API凭证获取

  1. 登录阿里云官网,访问订阅阿里云百炼Coding Plan,订阅免费套餐;
  2. 访问登录阿里云百炼大模型服务平台,进入百炼控制台“密钥管理”,创建API Key(格式为sk-sp-xxxxx),记录专属Base URL:https://coding.dashscope.aliyuncs.com/v1

步骤2:OpenClaw对接百炼API

# 1. 编辑OpenClaw配置文件,添加百炼API配置
{
   
  "models": {
   
    "providers": {
   
      "bailian-coding": {
   
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "你的百炼Coding Plan API Key",
        "api": "openai-completions",
        "models": [
          {
   
            "id": "qwen3.5-coding",
            "name": "百炼Qwen3.5",
            "contextWindow": 32768,
            "maxTokens": 2048,
            "reasoning": false
          }
        ]
      },
      "local-ollama": {
   
        // 自部署模型配置(同上)
      }
    },
    "default": "local-ollama/qwen-7b",
    "fallback": "bailian-coding/qwen3.5-coding"  // 自部署模型故障时自动切换
  }
}

# 2. 重启OpenClaw生效
openclaw gateway restart

(三)配置验证与Token节省技巧

1. 配置验证

  • 自部署模型验证:登录OpenClaw控制台,输入指令“帮我写一段Python简单代码”,若返回正常响应,且Ollama日志显示调用记录,即为接入成功;
  • 百炼API验证:手动切换默认模型为百炼(openclaw config set models.default "bailian-coding/qwen3.5-coding"),发送指令测试响应。

2. Token节省技巧(自部署模型同样适用,减少资源占用)

  1. 降低maxTokens:将单次响应Token上限设为2048,避免冗余输出;
  2. 缩短上下文窗口:根据需求调整contextWindow,无需盲目追求高参数;
  3. 关闭不必要的技能:卸载不常用的技能,减少隐性Token/资源消耗:
    # 查看已安装技能
    clawhub list
    # 卸载无用技能
    clawhub uninstall 技能名称
    
  4. 启用会话超时:闲置30分钟自动清空上下文,避免长期占用资源:
    openclaw config set agents.sessionTimeout 1800
    

五、常见问题解答(告别Token焦虑+部署避坑)

(一)自部署模型类问题

  1. 问题1:部署Qwen-7B模型后,OpenClaw提示“模型调用失败”?

    • 解决方案:① 确认Ollama服务已启动(ps aux | grep ollama serve);② 检查API地址是否正确(默认http://localhost:11434/v1);③ 验证Ollama API可用性(curl http://localhost:11434/v1/models);④ 重启Ollama与OpenClaw。
  2. 问题2:自部署模型运行时,服务器/本地设备卡顿严重?

    • 原因:模型占用内存过高,超出硬件承载能力;
    • 解决方案:① 更换更小参数的模型(如7B→3B);② 关闭其他占用资源的程序;③ 增加Swap空间(Linux/阿里云已配置);④ 升级硬件配置。
  3. 问题3:国内用户拉取Ollama模型速度慢?

    • 解决方案:① 配置Ollama国内镜像(参考Ollama中文社区教程);② 手动下载模型文件,放置到Ollama模型目录(Windows:C:\Users\你的用户名\.ollama\models;MacOS/Linux:~/.ollama/models)。

(二)API与部署类问题

  1. 问题1:百炼API调用提示“鉴权失败”?

    • 解决方案:① 核对API Key格式(sk-sp-xxxxx),确保无多余空格;② 确认Base URL为https://coding.dashscope.aliyuncs.com/v1;③ 检查API Key状态为“启用”,若已过期,重新创建。
  2. 问题2:阿里云部署后,无法访问OpenClaw控制台?

    • 解决方案:① 确认服务器公网IP正确;② 检查安全组已放行18789端口;③ 验证服务状态(systemctl status openclaw),确保服务正常运行。
  3. 问题3:Windows11部署OpenClaw提示“command not found”?

    • 解决方案:① 确认Node.js已添加到系统环境变量;② 重启PowerShell;③ 重新安装OpenClaw(npm install -g openclaw@latest)。

(三)Token与资源类问题

  1. 问题1:自部署模型是否完全免费?有没有隐藏成本?

    • 解答:自部署模型本身开源免费,无Token成本,但需要硬件资源支持(本地设备或云服务器),云服务器会产生月租费用,适合高频使用用户(相比Token购买,长期更划算)。
  2. 问题2:如何切换自部署模型与百炼API?

    • 解决方案:① 手动切换:openclaw config set models.default "local-ollama/qwen-7b"(自部署)或openclaw config set models.default "bailian-coding/qwen3.5-coding"(百炼API);② 启用自动切换:配置fallback参数,自部署模型故障时自动切换至百炼API。
  3. 问题3:参考文章中500万Token很快用完,接入自部署模型后如何避免资源浪费?

    • 解决方案:① 配置模型参数(降低maxTokens、缩短上下文窗口);② 启用会话超时与自动休眠;③ 定期清理无用技能与上下文;④ 监控模型资源占用(htop命令),及时关闭异常进程。

六、总结

Token告急并非OpenClaw的“硬伤”,而是用户未找到低成本使用方案。通过“自部署模型+百炼API”的双保险配置,再搭配全平台灵活部署,既能摆脱Token依赖,实现永久免费使用,又能通过百炼API作为备份,确保服务不中断,完美解决参考文章作者的核心诉求。

本文核心要点总结,新手必记:

  1. 部署选择:高频使用、需自部署模型,优先选择阿里云部署(硬件资源充足);个人测试、轻量使用,选择本地部署(Windows11推荐WSL2);
  2. 模型选择:新手推荐Ollama部署Qwen-7B(简单易操作、资源要求低);有技术基础可选择GLM-4、Llama 3;
  3. 配置核心:自部署模型作为主力,百炼API作为备份,启用fallback参数实现自动切换;
  4. 资源优化:降低模型参数、关闭无用技能、启用会话超时,减少资源占用;
  5. 避坑关键:国内用户配置镜像加速,阿里云部署放行必要端口,自部署模型根据硬件选择合适参数。

通过本文的指南,你可搭建低成本、无上限的OpenClaw使用环境,彻底告别Token焦虑,无论是日常办公、开发辅助,还是高频测试,都能自由使用,真正让AI成为“不花钱的助手”。

目录
相关文章
|
7天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
4789 7
|
14天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
20584 113
|
10天前
|
人工智能 API 网络安全
Mac mini × OpenClaw 保姆级配置教程(附阿里云/本地部署OpenClaw配置百炼API图文指南)
Mac mini凭借小巧机身、低功耗和稳定性能,成为OpenClaw(原Clawdbot)本地部署的首选设备——既能作为家用AI节点实现7×24小时运行,又能通过本地存储保障数据隐私,搭配阿里云部署方案,可灵活满足“长期值守”与“隐私优先”的双重需求。对新手而言,无需复杂命令行操作,无需专业技术储备,按本文步骤复制粘贴代码,即可完成OpenClaw的全流程配置,同时接入阿里云百炼API,解锁更强的AI任务执行能力。
6541 2
|
11天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7912 6
|
12天前
|
人工智能 JavaScript API
保姆级教程:OpenClaw阿里云/本地部署配置Tavily Search skill 实时联网,让OpenClaw“睁眼看世界”
默认状态下的OpenClaw如同“闭门造车”的隐士,仅能依赖模型训练数据回答问题,无法获取实时新闻、最新数据或训练截止日期后的新信息。2026年,激活其联网能力的最优方案是配置Tavily Search技能——无需科学上网、无需信用卡验证,每月1000次免费搜索额度完全满足个人需求,搭配ClawHub技能市场,还能一键拓展天气查询、邮件管理等实用功能。
7603 5
|
6天前
|
JavaScript Linux API
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
3494 1
保姆级教程,通过GACCode在国内使用Claudecode、Codex!

热门文章

最新文章