【喂饭级图文教程】OpenClaw 阿里云、本地部署集成大模型Ollama/Qwen3.5/百炼 API 步骤流程及常见问题解答

简介: 2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。

2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
OpenClawo.png
尤其Qwen3.5系列小模型发布后,本地部署门槛大幅降低——Qwen3.5 9B(俗称“小钢炮”)仅需消费级显卡即可流畅运行,无需专业AI计算卡,让普通用户也能享受“本地私有AI”的便利。本文基于实测经验,整合三大核心内容:一是2026年OpenClaw全平台部署流程(阿里云+MacOS+Linux+Windows11);二是阿里云百炼免费API配置与Ollama本地模型搭建(以Qwen3.5为例);三是新手高频问题解答,所有代码可直接复制执行,助力零基础用户1-2小时内完成“云端+本地”双部署,兼顾隐私、成本与实用性。阿里云部署 OpenClaw 全网最简单,只需两步,详情👉访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw部署教程图1.png
OpenClaw部署教程图2.png
OpenClaw部署教程图3.png
OpenClaw部署教程图4.png

一、核心认知:OpenClaw双部署模式的适配逻辑

(一)两种部署模式对比与选择建议

OpenClaw支持“云端API对接”与“本地模型部署”两种核心方式,新手可根据场景灵活切换:

部署模式 核心优势 适配场景 硬件要求 成本
阿里云百炼API对接 零硬件门槛、低延迟、无需维护模型 轻量任务、无高性能显卡、追求便捷性 无特殊要求,内存≥4GB即可 免费额度内零成本,超额后按调用量计费
Ollama本地模型部署(Qwen3.5) 数据隐私可控、无token消耗、离线可用 核心数据处理、高频调用、无网络环境 显卡≥4GB显存(INT4量化),内存≥8GB 一次性硬件投入,长期使用零成本

建议:日常轻量任务用阿里云百炼API,核心数据处理或高频调用场景切换至Ollama本地模型,兼顾效率与安全。

(二)Qwen3.5模型硬件需求明细

本地部署的核心前提是硬件达标,Qwen3.5 8B/9B模型的硬件需求随量化精度变化,新手可按实际需求选择:

量化版本 显存需求(GPU) 内存需求(RAM) 适用场景 推荐显卡
FP16/BF16(高精度) ~16GB ~16GB 科研、专业场景、追求极致精度 NVIDIA RTX 3090/4080及以上
INT8(平衡版) ~8-10GB ~8-10GB 日常使用、兼顾精度与速度 NVIDIA RTX 3060(12GB)/4060 Ti(16GB)
INT4(性价比版) ~4-5GB ~4-5GB 消费级设备、高频轻量任务 NVIDIA RTX 2060(6GB)/AMD RX 6600(8GB)
INT2(低配版) ~2-3GB ~2-3GB 入门体验、对精度要求不高 NVIDIA MX550/AMD Radeon Pro 5500M

注:Qwen3-VL 8B(多模态版本)因包含视觉编码器,内存/显存需求需额外增加20-30%;无独立显卡的设备可选择CPU运行,但响应速度较慢,仅建议应急使用。

(三)前置准备(必做,避免部署中断)

1. 账号与凭证准备

  • 阿里云账号:注册阿里云账号 并完成实名认证,用于开通阿里云百炼免费API;
  • 辅助工具:Chrome/Edge浏览器、SSH终端(FinalShell,阿里云部署用)、VS Code(文本编辑)、加密记事本(存储API密钥);
  • 安装包:Ollama客户端(适配Windows10+/MacOS/Linux)、Qwen3.5模型(Ollama可自动拉取,无需手动下载)。

2. 设备与环境要求

  • 云端部署:阿里云服务器(推荐Ubuntu 22.04 LTS,2vCPU+4GiB内存+40GiB ESSD);
  • 本地部署:Windows11/10、MacOS 12+、Linux(Ubuntu 22.04+),硬件需满足Qwen3.5模型最低要求;
  • 核心依赖:Node.js≥v22.0.0、Python≥3.9(OpenClaw运行依赖)、Docker(可选,优化模型运行效率);
  • 网络要求:阿里云服务器优先选择中国香港地域(免备案),本地设备需确保网络通畅(用于拉取Ollama客户端与模型文件)。

二、2026年OpenClaw全平台部署流程(零基础友好)

(一)阿里云部署(云端API对接首选)

适合需要便捷访问、无硬件限制的场景,支持7×24小时运行,新手30分钟可完成。

新手零基础阿里云上部署OpenClaw喂饭级步骤流程

第一步:打开访问阿里云OpenClaw一键部署专题页面,找到并点击【一键购买并部署】。
OpenClaw1.png
OpenClaw2.png
OpenClaw02.png
OpenClaw03.png
OpenClaw04.png

第二步:打开选购阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

    1. 服务器选购与基础配置

  1. 服务器选购:

    • 访问阿里云轻量应用服务器控制台,选择“Ubuntu 22.04 LTS”系统镜像;
    • 核心配置:2vCPU+4GiB内存+40GiB ESSD+200Mbps带宽,地域选择中国香港(免备案),付费类型选“包年包月”;
    • 提交订单后,等待实例状态变为“运行中”,记录公网IP、登录账号(默认root)与密码。
  2. 端口放行与环境准备:

# 1. SSH登录服务器(替换为你的公网IP)
ssh root@你的服务器公网IP

# 2. 一键放行核心端口
sudo apt install ufw -y
sudo ufw allow 22/tcp  # SSH连接端口
sudo ufw allow 18789/tcp  # OpenClaw核心端口
sudo ufw allow 443/tcp  # API调用端口
sudo ufw enable
sudo ufw status  # 显示“ALLOW”即为成功

# 3. 更新系统依赖并安装核心工具
sudo apt update && sudo apt upgrade -y
sudo apt install curl git npm python3-pip -y

# 4. 升级Node.js至22.0.0(系统自带版本过低)
sudo npm install -g n && sudo n 22.0.0

# 5. 配置npm国内镜像,加速安装
npm config set registry https://registry.npmmirror.com

2. OpenClaw安装与初始化

# 1. 一键安装OpenClaw(官方脚本,自动适配环境)
npm install -g openclaw@latest

# 2. 初始化配置并安装守护进程(后台稳定运行)
openclaw onboard --install-daemon

# 交互配置步骤(新手直接按提示操作)
# 1. 接受风险提示(输入Yes)
# 2. 选择AI模型提供商:暂时选择“Custom Provider”(后续配置百炼API)
# 3. 选择交互渠道:推荐Telegram或飞书(按需选择)
# 4. 配置网关端口:默认18789(直接回车)
# 5. 初始技能选择:输入“No”(后续按需安装)

# 3. 生成访问令牌(登录控制台需用,复制保存)
openclaw token generate

# 4. 查看令牌并保存
cat ~/.openclaw/openclaw.json | grep '"token"' | awk -F'"' '{print $4}'

# 5. 启动服务并设置开机自启
sudo systemctl enable openclaw
sudo systemctl start openclaw

3. 部署验证

  • 浏览器输入 http://服务器公网IP:18789/?token=你的Token,能正常进入对话界面即为部署成功;
  • 命令行验证:curl http://localhost:18789/health,返回{"status":"healthy"}即为正常。

(二)本地部署(Windows11+MacOS+Linux)

1. Windows11部署(本地模型搭建首选)

系统要求:Windows11/10 64位,硬件满足Qwen3.5最低配置

# 1. 以管理员身份打开PowerShell(右键开始菜单选择)
# 2. 解决执行策略限制(避免脚本无法运行)
Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force

# 3. 安装核心依赖(Node.js 22+、Python 3.9、Git)
winget install OpenJS.NodeJS.LTS --version 22.2.0
winget install Python.Python.3.9
winget install Git.Git

# 4. 配置npm国内镜像,加速OpenClaw安装
npm config set registry https://registry.npmmirror.com

# 5. 一键安装OpenClaw
npm install -g openclaw@latest

# 6. 初始化配置并安装守护进程
openclaw onboard --install-daemon

# 交互步骤:
# 1. 接受风险提示(输入Yes)
# 2. 选择交互渠道:按常用平台选择(如飞书、Discord)
# 3. 暂时跳过模型配置(后续对接Ollama/百炼API)
# 4. 保留默认端口18789

# 7. 生成访问令牌
openclaw token generate

# 8. 查看令牌(复制用于登录控制台)
type %USERPROFILE%\.openclaw\openclaw.json | findstr "token"

关键配置(必做)

  • C:\Users\你的用户名\.openclaw添加到Windows Defender排除列表,避免被误判为病毒;
  • 若出现“权限不足”报错,执行icacls %USERPROFILE%\.openclaw /grant:r 你的用户名:(F)赋予完全控制权限。

访问方式:浏览器输入 http://localhost:18789/?token=你的Token,能正常进入对话界面即为成功。

2. MacOS部署(体验最佳,推荐)

系统要求:MacOS 12+(M系列/Intel芯片),硬件满足Qwen3.5最低配置

# 1. 打开终端(Cmd + Space输入“Terminal”)
# 2. 安装Homebrew(国内用户用镜像加速)
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"

# 3. 安装核心依赖(Node.js 22、Python 3.9、Git)
brew install node@22 python@3.9 git

# 4. 配置Node.js环境变量(确保全局可调用)
echo 'export PATH="/usr/local/opt/node@22/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

# 5. 一键安装OpenClaw
npm install -g openclaw@latest

# 6. 初始化配置并安装守护进程
openclaw onboard --install-daemon

# 交互步骤:
# 1. 接受风险提示(输入Yes)
# 2. 选择交互渠道:推荐iMessage(苹果生态无缝联动)
# 3. 暂时跳过模型配置
# 4. 保留默认端口18789

# 7. 启动服务(后台运行)
nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

# 8. 生成访问令牌
openclaw token generate

M系列芯片避坑:若安装失败,执行arch -arm64 brew install node@22,指定ARM架构安装依赖,避免Rosetta 2转译兼容性问题。

访问方式:浏览器输入 http://localhost:18789/?token=你的Token

3. Linux部署(Ubuntu/Debian,稳定性强)

系统要求:Ubuntu 22.04+/Debian 11+,硬件满足Qwen3.5最低配置

# 1. 更新系统依赖
sudo apt update && sudo apt upgrade -y

# 2. 安装核心依赖
sudo apt install curl git npm python3-pip -y

# 3. 升级Node.js至22.0.0
sudo npm install -g n && sudo n 22.0.0

# 4. 配置npm国内镜像
npm config set registry https://registry.npmmirror.com

# 5. 一键安装OpenClaw
npm install -g openclaw@latest

# 6. 初始化配置并安装守护进程
openclaw onboard --install-daemon

# 7. 启动服务并设置开机自启
sudo systemctl enable openclaw
sudo systemctl start openclaw

# 8. 生成访问令牌
openclaw token generate

访问方式:浏览器输入 http://localhost:18789/?token=你的Token

三、免费大模型配置(阿里云百炼+Ollama本地模型)

(一)方案1:阿里云百炼API配置(云端便捷版)

1. API密钥获取步骤

  1. 登录阿里云官网,访问登录阿里云百炼大模型服务平台
  2. 点击“开通服务”,阅读并同意服务协议,新用户自动领取90天免费额度(可在“费用管理”中查看);
  3. 进入“密钥管理”页面,点击“创建Access Key”,完成身份验证(短信/扫码)后,生成Access Key ID和Access Key Secret;
  4. 复制并保存密钥(仅创建时可完整查看Access Key Secret,丢失需重新创建);
  5. 开启“消费限额”(推荐):进入“费用管理”→“消费限额”,设置每月最大消费额度,避免超额计费。

2. OpenClaw对接阿里云百炼API(全环境通用)

# 1. 配置百炼API密钥(替换为你的凭证)
openclaw config set models.providers.bailian.accessKeyId "你的Access Key ID"
openclaw config set models.providers.bailian.accessKeySecret "你的Access Key Secret"

# 2. 配置国内接口地址(降低延迟)
openclaw config set models.providers.bailian.baseUrl "https://dashscope.aliyuncs.com/compatible-mode/v1"

# 3. 设置默认模型(推荐qwen3.5,免费额度足够使用)
openclaw config set models.default "qwen3.5"

# 4. 配置超时时间与优化参数
openclaw config set models.providers.bailian.timeout 60000
openclaw config set models.providers.bailian.skillCooperation true

# 5. 重启服务生效(不同环境重启命令)
# 阿里云/Linux
sudo systemctl restart openclaw
openclaw gateway restart

# MacOS
pkill -f openclaw && nohup openclaw gateway start > ~/.openclaw/logs/gateway.log 2>&1 &

# Windows11(PowerShell)
stop-process -name openclaw -force
start /b openclaw gateway start > %USERPROFILE%\.openclaw\logs\gateway.log 2>&1

(二)方案2:Ollama+Qwen3.5本地模型部署(隐私安全版)

以Windows11为例,详细讲解Ollama安装、Qwen3.5模型部署及OpenClaw对接流程,MacOS/Linux操作类似。

1. Ollama客户端安装

  1. 下载Ollama客户端(无需额外网址,通过命令行一键安装):
    # Windows11 PowerShell(管理员模式)
    irm https://ollama.com/install.ps1 | iex
    
  2. 双击安装包,按默认配置完成安装(自动安装至C盘,过程中若提示缺少Microsoft Visual C++组件,点击“确定”自动补装);
  3. 安装完成后,启动Ollama客户端,点击左上角图标展开列表,选择“Settings”进入设置页面;
  4. 开启“Expose Ollama to the network”开关(允许OpenClaw访问本地模型API),无需其他配置,关闭页面即可。

2. 拉取并启动Qwen3.5模型

  1. 打开命令提示符(CMD)或PowerShell,执行以下命令拉取模型(以INT4量化版为例,性价比最高):
# 拉取Qwen3.5 8B INT4量化版(显存需求~4-5GB)
ollama run qwen:8b-q4_0

# 若硬件达标,可选择更高精度版本
# ollama run qwen:8b-q8_0(INT8量化,显存需求~8-10GB)
# ollama run qwen:8b(FP16高精度,显存需求~16GB)
  1. 首次运行会自动下载模型文件(约4-8GB,取决于量化版本),等待下载完成后,终端会显示“>>>”提示符,说明模型启动成功;
  2. 测试模型:输入帮我生成一份2026年4月工作计划,模型返回结构化回复即为正常。

3. OpenClaw对接Ollama本地模型(全环境通用)

# 1. 配置Ollama本地API地址(默认端口11434)
openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/api/generate"

# 2. 设置默认模型(与Ollama启动的模型一致)
openclaw config set models.default "ollama:qwen:8b-q4_0"

# 3. 配置超时时间(本地模型响应较慢,适当延长)
openclaw config set models.providers.ollama.timeout 120000

# 4. 重启服务生效(不同环境重启命令同上文)

4. 验证对接效果

  1. 登录OpenClaw Web控制台,输入测试指令:帮我分析本地“销售数据.xlsx”文件,生成简单的数据分析报告
  2. 若模型正常读取文件并返回报告,说明对接成功;
  3. 命令行验证:openclaw cli -c "用Markdown格式列出3个本地模型的优势",返回结构化回复即为配置无误。

(三)两种配置避坑要点

1. 阿里云百炼API避坑

  1. 坑1:密钥复制错误→逐字符核对Access Key ID与Secret,避免多余空格或换行,区分两者切勿混淆;
  2. 坑2:接口地址错误→国内部署必须使用指定地址,否则调用超时;
  3. 坑3:免费额度耗尽→登录百炼控制台查看,及时切换至Ollama本地模型;
  4. 坑4:服务未重启→配置后必须重启OpenClaw,否则配置不生效。

2. Ollama本地模型避坑

  1. 坑1:硬件不达标→按量化版本选择模型,避免显存/内存不足导致模型崩溃,可通过任务管理器监控资源占用;
  2. 坑2:未开启网络访问→必须在Ollama设置中打开“Expose Ollama to the network”,否则OpenClaw无法调用;
  3. 坑3:模型名称不一致→OpenClaw配置的模型名称需与Ollama启动的模型完全一致(如“qwen:8b-q4_0”);
  4. 坑4:下载模型超时→检查网络通畅性,若多次失败,可更换网络环境(如手机热点);
  5. 坑5:CPU运行卡顿→无独立显卡时模型会通过CPU运行,响应速度较慢,建议仅用于应急,优先升级硬件。

四、新手高频问题解答

(一)部署类问题

  1. 问题1:OpenClaw启动后提示“端口被占用”?

    • 解决方案:Windows执行netstat -ano | findstr "18789",Mac/Linux执行lsof -i:18789,终止占用进程后重启服务。
  2. 问题2:Mac M系列芯片安装Ollama失败?

    • 原因:Rosetta 2转译兼容性问题;
    • 解决方案:执行arch -arm64 brew install ollama指定ARM架构安装,或从官网下载对应架构的安装包手动安装。
  3. 问题3:阿里云部署后无法访问OpenClaw控制台?

    • 解决方案:检查18789端口是否放行,执行sudo ufw status确认;核对服务器公网IP与Token,确保输入正确。
  4. 问题4:Windows11安装Ollama提示“缺少组件”?

    • 原因:缺少Microsoft Visual C++ 2015-2022 Redistributable组件;
    • 解决方案:按提示自动安装组件,若安装失败,手动下载并安装对应组件。

(二)模型配置类问题

  1. 问题1:阿里云百炼API调用提示“密钥无效”?

    • 解决方案:逐字符核对API密钥,删除多余空格;登录百炼控制台,确认密钥未过期、未被禁用,若丢失,重新创建密钥。
  2. 问题2:OpenClaw无法调用Ollama本地模型?

    • 解决方案:① 检查Ollama是否已启动,模型是否正常运行;② 确认“Expose Ollama to the network”开关已开启;③ 核对OpenClaw配置的API地址与模型名称是否正确;④ 关闭防火墙或添加OpenClaw与Ollama的访问权限。
  3. 问题3:Qwen3.5模型运行卡顿,频繁崩溃?

    • 解决方案:① 降低量化精度(如从INT8改为INT4);② 关闭其他占用显存/内存的程序(如游戏、视频软件);③ 检查显卡驱动是否更新,更新至最新版本;④ 若硬件未达标,更换更低参数的模型(如Qwen3.5 4B)。
  4. 问题4:如何在云端API与本地模型之间切换?

    • 解决方案:修改OpenClaw模型配置并重启服务即可,示例命令:
# 切换至阿里云百炼API
openclaw config set models.default "qwen3.5"
openclaw gateway restart

# 切换至Ollama本地模型
openclaw config set models.default "ollama:qwen:8b-q4_0"
openclaw gateway restart

(三)其他问题

  1. 问题1:忘记OpenClaw访问令牌?

    • 解决方案:执行openclaw token generate重新生成,或查看配置文件:cat ~/.openclaw/openclaw.json | grep "token"(Mac/Linux)、type %USERPROFILE%\.openclaw\openclaw.json | findstr "token"(Windows)。
  2. 问题2:本地模型如何离线运行?

    • 解决方案:首次启动模型时会自动下载完整文件,后续无网络环境下,直接启动Ollama并运行模型即可,无需再次下载。
  3. 问题3:如何卸载Ollama及本地模型?

    • 解决方案:① 卸载Ollama客户端(Windows在控制面板操作,Mac/Linux执行brew uninstall ollama);② 删除模型文件(Windows路径:C:\Users\你的用户名\.ollama\models,Mac/Linux路径:~/.ollama/models)。

五、总结

2026年,OpenClaw的“云端+本地”双部署模式,完美解决了隐私安全与成本控制的核心诉求——阿里云百炼API提供零门槛便捷体验,Ollama+Qwen3.5实现本地私有AI部署,新手可根据场景灵活切换,兼顾效率与安全。

本文通过完整的全平台部署流程、两种模型配置步骤与高频问题解答,助力零基础用户快速落地,核心要点总结:

  1. 部署选择:阿里云适合便捷访问、长期运行,本地部署适合隐私敏感、高频调用场景;
  2. 模型配置:阿里云百炼API核心是正确填写密钥与接口地址,Ollama本地模型关键是硬件达标与网络访问开启;
  3. 避坑核心:确保依赖版本达标(Node.js≥22.0.0)、端口放行、模型名称与配置一致,硬件不足时选择低量化精度模型;
  4. 核心价值:无需专业技术,即可实现“云端便捷用+本地安全用”的双重体验,让AI代理工具真正适配多样化需求。

通过本文的流程与技巧,你可快速解锁OpenClaw的双部署能力,无论是日常轻量任务还是核心数据处理,都能找到合适的解决方案,兼顾隐私、成本与实用性。

目录
相关文章
|
18天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34839 46
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
12天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
11815 37
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
8天前
|
人工智能 JavaScript Ubuntu
低成本搭建AIP自动化写作系统:Hermes保姆级使用教程,长文和逐步实操贴图
我带着怀疑的态度,深度使用了几天,聚焦微信公众号AIP自动化写作场景,写出来的几篇文章,几乎没有什么修改,至少合乎我本人的意愿,而且排版风格,也越来越完善,同样是起码过得了我自己这一关。 这个其实OpenClaw早可以实现了,但是目前我觉得最大的区别是,Hermes会自主总结提炼,并更新你的写作技能。 相信就冲这一点,就值得一试。 这篇帖子主要就Hermes部署使用,作一个非常详细的介绍,几乎一步一贴图。 关于Hermes,无论你赞成哪种声音,我希望都是你自己动手行动过,发自内心的选择!
2488 25
|
30天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45751 157
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
6天前
|
人工智能 弹性计算 安全
Hermes Agent是什么?怎么部署?超详细实操教程
Hermes Agent 是 Nous Research 于2026年2月开源的自进化AI智能体,支持跨会话持久记忆、自动提炼可复用技能、多平台接入与200+模型切换,真正实现“越用越懂你”。MIT协议,部署灵活,隐私可控。
1723 3
|
12天前
|
机器学习/深度学习 存储 人工智能
还在手写Skill?hermes-agent 让 Agent 自己进化能力
Hermes-agent 是 GitHub 23k+ Star 的开源项目,突破传统 Agent 依赖人工编写Aegnt Skill 的瓶颈,首创“自我进化”机制:通过失败→反思→自动生成技能→持续优化的闭环,让 Agent 在实践中自主构建、更新技能库,持续自我改进。
1823 6