本地私有RAG落地:阿里云/本地部署 OpenClaw 及私有化知识库技能搭建+千问/Coding Plan配置与问题全解

简介: 在政企内网、涉密环境、个人隐私场景下,使用外部大模型与在线知识库存在数据泄露、合规风险、网络限制等问题。OpenClaw提供了完全本地化的RAG(检索增强生成)能力,可在**不联网、不付费、数据不出本地**的前提下,让AI读取你的PDF、Markdown、TXT等文档,基于真实资料给出准确回答,杜绝幻觉与编造。

一、前言

在政企内网、涉密环境、个人隐私场景下,使用外部大模型与在线知识库存在数据泄露、合规风险、网络限制等问题。OpenClaw提供了完全本地化的RAG(检索增强生成)能力,可在不联网、不付费、数据不出本地的前提下,让AI读取你的PDF、Markdown、TXT等文档,基于真实资料给出准确回答,杜绝幻觉与编造。
OpenClawo.png

本文完整保留本地私有知识库RAG技能开发、向量检索、文档读取、本地模型调用等核心内容,同时新增2026年4月阿里云轻量服务器部署OpenClaw本地MacOS/Linux/Windows11全平台安装阿里云千问大模型API配置免费Coding Plan模型接入、可直接复制的代码命令、新手避坑指南与常见问题解答,适合个人、政企内网、涉密环境快速落地。阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
OpenClaw部署教程图1.png

二、私有RAG技能核心价值与整体架构

(一)核心能力

  • 完全私有化:数据不联网、不上传、不泄露
  • 多格式支持:PDF、MD、TXT、Word等文档统一读取
  • 向量检索:基于nomic-embed-text实现精准语义匹配
  • 本地大模型:对接Ollama运行qwen2.5:7b,不依赖外部API
  • 可信回答:基于本地资料作答,不编造、不胡说

(二)整体架构

  • 知识库:本地文件夹(存放所有文档)
  • 向量模型:nomic-embed-text(Ollama运行)
  • 检索模块:OpenClaw自定义RAG技能
  • 大模型:qwen2.5:7b(本地Ollama)
  • 执行引擎:OpenClaw 2026.4稳定版

三、2026年4月阿里云轻量服务器部署OpenClaw(最新版)

步骤1:创建实例(官方镜像一键部署)

  1. 登录阿里云控制台,进入轻量应用服务器
  2. 镜像选择:应用镜像 → OpenClaw(Clawdbot)2026.4稳定版
  3. 推荐配置:2核4GB、40GB ESSD、5Mbps带宽
  4. 地域选择:中国香港、新加坡、美国弗吉尼亚
  5. 设置root密码,购买并等待实例运行

    零基础部署 OpenClaw 喂饭级步骤流程

    第一步:点击打开访问阿里云OpenClaw一键部署专题页面
    openclaw666.png
    OpenClaw2.png
    OpenClaw02.png
    OpenClaw03.png
    OpenClaw04.png

第二步:打开选择阿里云轻量应用服务器,配置参考如下:

  • 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
  • 实例:内存必须2GiB及以上。
  • 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
  • 时长:根据自己的需求及预算选择。

轻量应用服务器OpenClaw镜像.png
bailian1.png
bailian2.png

第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

阿里云百炼密钥管理图.png

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
阿里云百炼密钥管理图2.png

  • 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
  • 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
  • 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
  • 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。

阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:

创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
CodingPlan.png

  • 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。
    image.png
  • 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。
    image.png
  • 在服务器概览页面单击应用详情页签,进入服务器详情页面。
    image.png
  • 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。
    image.png
  • 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。
    image.png
  • 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。
    image.png
    image.png

步骤2:一键放行端口(必做)

firewall-cmd --add-port=18789/tcp --permanent
firewall-cmd --reload
firewall-cmd --list-ports | grep 18789

步骤3:初始化与启动服务

openclaw onboard --aliyun
openclaw gateway install
openclaw gateway start

步骤4:验证运行状态

openclaw gateway status

显示 running 即为成功,访问:

http://你的公网IP:18789

四、本地全平台部署OpenClaw(MacOS/Linux/Windows11)

(一)MacOS部署

xcode-select --install
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install node@22
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway start

(二)Linux(Ubuntu/Debian)部署

sudo apt update
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash
sudo apt install -y nodejs
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw onboard --install-daemon
sudo ufw allow 18789/tcp
openclaw gateway start

(三)Windows11部署(WSL2)

wsl --install
wsl --set-default-version 2

进入Ubuntu终端:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway start

五、大模型API配置(阿里云千问 + 免费Coding Plan)

(一)阿里云千问Qwen3-Max配置

cd ~/.openclaw
nano openclaw.json

写入配置:

"models": {
   
  "default": "bailian/qwen3-max-2026-01-23",
  "providers": {
   
    "bailian": {
   
      "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
      "apiKey": "sk-你的千问APIKey",
      "models": [
        {
   "id":"qwen3-max-2026-01-23","maxTokens":65536},
        {
   "id":"qwen3.5-plus","maxTokens":16384}
      ]
    }
  }
}

重启生效:

openclaw gateway restart

(二)免费Coding Plan配置

"models": {
   
  "default": "coding-plan/coding-free",
  "providers": {
   
    "coding-plan": {
   
      "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
      "apiKey": "sk-sp-你的免费APIKey",
      "models": [{
   "id":"coding-free","maxTokens":4096}]
    }
  }
}

六、Ollama与向量模型安装(私有RAG必需)

1. 安装Ollama

# Mac/Linux
curl -fsSL https://ollama.com/install.sh | bash

# Windows
winget install Ollama.Ollama

2. 拉取向量模型与大模型

ollama pull nomic-embed-text
ollama pull qwen2.5:7b

3. 验证运行

ollama list

七、创建本地私有知识库RAG技能

1. 创建技能目录

mkdir -p ~/.openclaw/skills/rag_knowledge
cd ~/.openclaw/skills/rag_knowledge

2. 创建config.json(技能配置)

{
   
  "name": "rag_knowledge",
  "description": "本地私有知识库检索问答,基于RAG机制准确回答",
  "version": "1.0.0",
  "triggerKeywords": ["知识库", "查文档", "笔记", "资料", "手册", "总结文档"]
}

3. 创建index.js(核心RAG逻辑)

const fs = require('fs');
const path = require('path');
const os = require('os');
const {
    execSync } = require('child_process');

// ===================== 配置区 =====================
const KNOWLEDGE_DIR = path.join(os.homedir(), 'AI_KnowledgeBase');
// Windows可改为:'D:\\AI_KnowledgeBase'
const VECTOR_MODEL = 'nomic-embed-text';
const LLM_MODEL = 'qwen2.5:7b';
// ==================================================

// 读取所有知识库文档
function loadAllDocuments() {
   
  let docs = [];
  try {
   
    const files = fs.readdirSync(KNOWLEDGE_DIR);
    files.forEach(file => {
   
      const fp = path.join(KNOWLEDGE_DIR, file);
      if (fs.statSync(fp).isFile()) {
   
        const txt = fs.readFileSync(fp, 'utf8', (err) => {
   });
        if (txt.length > 50) docs.push({
    file, content: txt.slice(0, 20000) });
      }
    });
  } catch (e) {
   }
  return docs;
}

// 关键词检索
function simpleSearch(query, docs) {
   
  const q = query.toLowerCase();
  return docs.filter(d =>
    d.file.toLowerCase().includes(q) ||
    d.content.toLowerCase().includes(q)
  );
}

// 调用本地模型生成回答
function llmAnswer(query, context) {
   
  const prompt = `
你是一名专业的知识助理,基于下面提供的本地文档内容回答问题,不要编造。
问题:${
     query}
参考文档:
${
     context}
请给出清晰、准确、专业的回答。
`;
  try {
   
    return execSync(`ollama run ${
     LLM_MODEL} "${
     prompt.replace(/"/g, '\\"')}"`, {
   
      timeout: 120000
    }).toString();
  } catch (e) {
   
    return '模型处理超时或出错,请检查Ollama是否正常运行。';
  }
}

// 技能入口
module.exports = async (query) => {
   
  if (!query) return "请输入你要查询的问题,例如:什么是双到位制度?";
  const docs = loadAllDocuments();
  if (docs.length === 0) return "知识库文件夹为空,请先放入文档。";
  const hits = simpleSearch(query, docs);
  if (hits.length === 0) return "未在本地知识库中找到相关内容。";
  const context = hits.map(d => `【文档:${
     d.file}】\n${
     d.content.slice(0, 8000)}`).join('\n\n');
  const ans = llmAnswer(query, context);
  return `=== 本地知识库RAG回答 ===\n\n${
     ans}\n\n共检索到相关文档:${
     hits.length}份`;
};

4. 创建知识库目录

mkdir -p ~/AI_KnowledgeBase
# 放入MD、TXT、PDF文档

八、启用RAG技能并测试

1. 重启OpenClaw

openclaw gateway restart

2. 测试指令

  • 帮我查一下银河麒麟系统的加固步骤
  • 这份网络规范里VLAN划分规则是什么
  • 从我的笔记里总结一下服务器运维要点
  • 解释一下电力安全双到位制度,并引用我本地文档

3. 查看结果

AI会自动检索本地文档并给出带依据的回答,不编造、不泄露。

九、进阶优化方向

  1. PDF解析支持:引入pdf-parse库实现PDF文本提取
  2. 向量检索升级:接入Chroma/Milvus实现真正语义搜索
  3. 大文档分片:自动切块避免上下文溢出
  4. 多格式支持:Word、Excel、代码统一读取
  5. 内网安全加固:关闭外网、权限白名单、日志留存

十、OpenClaw常用运维命令

openclaw gateway start
openclaw gateway stop
openclaw gateway restart
openclaw gateway status
openclaw logs -f
openclaw model test
openclaw skills list
openclaw doctor

十一、阿里云+本地部署避坑指南

1. 地域选择错误

  • 必须选择中国香港/新加坡/弗吉尼亚,内地地域易受限
  • 影响模型API与外部访问

2. 端口未放行

  • 18789端口必须在阿里云防火墙+系统防火墙双重放行

3. 内存不足

  • 最低2GB,推荐4GB以上,否则服务易崩溃

4. Ollama未启动

  • 执行ollama list验证,未启动则执行ollama serve

5. 技能不生效

  • 修改后必须openclaw gateway restart
  • 检查目录路径与文件权限

6. 模型API Key错误

  • 千问:sk-开头
  • Coding Plan:sk-sp-开头
  • 不要混用,不要带空格换行

十二、常见问题解答(FAQ)

1. 本地RAG是否需要联网?

不需要,全程本地运行,适合内网、涉密环境。

2. 支持哪些文档格式?

默认支持MD、TXT,可扩展支持PDF、Word、Excel等。

3. 如何更换本地大模型?

修改index.js中的LLM_MODEL为其他Ollama模型即可。

4. 知识库文档放在哪里?

默认:~/AI_KnowledgeBase,Windows可自定义路径。

5. 能否同时使用云端模型?

可以,通过配置文件切换千问/Coding Plan与本地模型。

6. 如何备份知识库?

直接复制AI_KnowledgeBase文件夹即可。

十三、总结

OpenClaw本地私有RAG技能真正实现了数据私有化、运行本地化、回答可信化,完美解决政企内网、涉密环境、个人隐私场景下的AI使用需求。搭配2026年4月最新阿里云轻量服务器部署与本地全平台安装方案,再加上阿里云千问与免费Coding Plan双模型支撑,用户可快速搭建一套安全、可控、可扩展的私有AI知识系统。

目录
相关文章
|
10天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
11192 104
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
10天前
|
人工智能 IDE API
2026年国内 Codex 安装教程和使用教程:GPT-5.4 完整指南
Codex已进化为AI编程智能体,不仅能补全代码,更能理解项目、自动重构、执行任务。本文详解国内安装、GPT-5.4接入、cc-switch中转配置及实战开发流程,助你从零掌握“描述需求→AI实现”的新一代工程范式。(239字)
5827 136
|
8天前
|
人工智能 并行计算 Linux
本地私有化AI助手搭建指南:Ollama+Qwen3.5-27B+OpenClaw阿里云/本地部署流程
本文提供的全流程方案,从Ollama安装、Qwen3.5-27B部署,到OpenClaw全平台安装与模型对接,再到RTX 4090专属优化,覆盖了搭建过程的每一个关键环节,所有代码命令可直接复制执行。使用过程中,建议优先使用本地模型保障隐私,按需切换云端模型补充功能,同时注重显卡温度与显存占用监控,确保系统稳定运行。
2007 6
|
6天前
|
人工智能 自然语言处理 供应链
【最新】阿里云ClawHub Skill扫描:3万个AI Agent技能中的安全度量
阿里云扫描3万+AI Skill,发现AI检测引擎可识别80%+威胁,远高于传统引擎。
1409 3
|
7天前
|
人工智能 Linux API
离线AI部署终极手册:OpenClaw+Ollama本地模型匹配、全环境搭建与问题一站式解决
在本地私有化部署AI智能体,已成为隐私敏感、低成本、稳定运行的主流方案。OpenClaw作为轻量化可扩展Agent框架,搭配Ollama本地大模型运行工具,可实现完全离线、无API依赖、无流量费用的个人数字助理。但很多用户在实践中面临三大难题:**不知道自己硬件能跑什么模型、显存/内存频繁爆仓、Skills功能因模型不支持工具调用而失效**。
3389 7