一、前言
在政企内网、涉密环境、个人隐私场景下,使用外部大模型与在线知识库存在数据泄露、合规风险、网络限制等问题。OpenClaw提供了完全本地化的RAG(检索增强生成)能力,可在不联网、不付费、数据不出本地的前提下,让AI读取你的PDF、Markdown、TXT等文档,基于真实资料给出准确回答,杜绝幻觉与编造。
本文完整保留本地私有知识库RAG技能开发、向量检索、文档读取、本地模型调用等核心内容,同时新增2026年4月阿里云轻量服务器部署OpenClaw、本地MacOS/Linux/Windows11全平台安装、阿里云千问大模型API配置、免费Coding Plan模型接入、可直接复制的代码命令、新手避坑指南与常见问题解答,适合个人、政企内网、涉密环境快速落地。阿里云部署 OpenClaw 只需两步,全网最简单,步骤流程 访问阿里云OpenClaw一键部署专题页面 了解。
二、私有RAG技能核心价值与整体架构
(一)核心能力
- 完全私有化:数据不联网、不上传、不泄露
- 多格式支持:PDF、MD、TXT、Word等文档统一读取
- 向量检索:基于nomic-embed-text实现精准语义匹配
- 本地大模型:对接Ollama运行qwen2.5:7b,不依赖外部API
- 可信回答:基于本地资料作答,不编造、不胡说
(二)整体架构
- 知识库:本地文件夹(存放所有文档)
- 向量模型:nomic-embed-text(Ollama运行)
- 检索模块:OpenClaw自定义RAG技能
- 大模型:qwen2.5:7b(本地Ollama)
- 执行引擎:OpenClaw 2026.4稳定版
三、2026年4月阿里云轻量服务器部署OpenClaw(最新版)
步骤1:创建实例(官方镜像一键部署)
- 登录阿里云控制台,进入轻量应用服务器
- 镜像选择:应用镜像 → OpenClaw(Clawdbot)2026.4稳定版
- 推荐配置:2核4GB、40GB ESSD、5Mbps带宽
- 地域选择:中国香港、新加坡、美国弗吉尼亚
- 设置root密码,购买并等待实例运行
零基础部署 OpenClaw 喂饭级步骤流程
第一步:点击打开访问阿里云OpenClaw一键部署专题页面。




第二步:打开选择阿里云轻量应用服务器,配置参考如下:
- 镜像:OpenClaw(Moltbot)镜像(已经购买服务器的用户可以重置系统重新选择镜像)
- 实例:内存必须2GiB及以上。
- 地域:默认美国(弗吉尼亚),目前中国内地域(除香港)的轻量应用服务器,联网搜索功能受限。
- 时长:根据自己的需求及预算选择。



第三步:打开访问阿里云百炼大模型控制台,找到密钥管理,单击创建API-Key。

前往轻量应用服务器控制台,找到安装好OpenClaw的实例,进入「应用详情」放行18789端口、配置百炼API-Key、执行命令,生成访问OpenClaw的Token。
- 端口放通:需要放通对应端口的防火墙,单击一键放通即可。
- 配置百炼API-Key,单击一键配置,输入百炼的API-Key。单击执行命令,写入API-Key。
- 配置OpenClaw:单击执行命令,生成访问OpenClaw的Token。
- 访问控制页面:单击打开网站页面可进入OpenClaw对话页面。
阿里云百炼Coding Plan API-Key 获取、配置保姆级教程:
创建API-Key,推荐访问订阅阿里云百炼Coding Plan,阿里云百炼Coding Plan每天两场抢购活动,从按tokens计费升级为按次收费,可以进一步节省费用!
- 购买后,在控制台生成API Key。注:这里复制并保存好你的API Key,后面要用。

- 回到轻量应用服务器-控制台,单击服务器卡片中的实例 ID,进入服务器概览页。

- 在服务器概览页面单击应用详情页签,进入服务器详情页面。

- 端口放通在OpenClaw使用步骤区域中,单击端口放通下的执行命令,可开放获取OpenClaw 服务运行端口的防火墙。

- 这里系统会列出我们第一步中创建的阿里云百炼 Coding Plan的API Key,直接选择就可以。

- 获取访问地址单击访问 Web UI 面板下的执行命令,获取 OpenClaw WebUI 的地址。


步骤2:一键放行端口(必做)
firewall-cmd --add-port=18789/tcp --permanent
firewall-cmd --reload
firewall-cmd --list-ports | grep 18789
步骤3:初始化与启动服务
openclaw onboard --aliyun
openclaw gateway install
openclaw gateway start
步骤4:验证运行状态
openclaw gateway status
显示 running 即为成功,访问:
http://你的公网IP:18789
四、本地全平台部署OpenClaw(MacOS/Linux/Windows11)
(一)MacOS部署
xcode-select --install
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install node@22
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway start
(二)Linux(Ubuntu/Debian)部署
sudo apt update
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash
sudo apt install -y nodejs
npm config set registry https://registry.npmmirror.com
npm install -g openclaw@latest
openclaw onboard --install-daemon
sudo ufw allow 18789/tcp
openclaw gateway start
(三)Windows11部署(WSL2)
wsl --install
wsl --set-default-version 2
进入Ubuntu终端:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway start
五、大模型API配置(阿里云千问 + 免费Coding Plan)
(一)阿里云千问Qwen3-Max配置
cd ~/.openclaw
nano openclaw.json
写入配置:
"models": {
"default": "bailian/qwen3-max-2026-01-23",
"providers": {
"bailian": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"apiKey": "sk-你的千问APIKey",
"models": [
{
"id":"qwen3-max-2026-01-23","maxTokens":65536},
{
"id":"qwen3.5-plus","maxTokens":16384}
]
}
}
}
重启生效:
openclaw gateway restart
(二)免费Coding Plan配置
"models": {
"default": "coding-plan/coding-free",
"providers": {
"coding-plan": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "sk-sp-你的免费APIKey",
"models": [{
"id":"coding-free","maxTokens":4096}]
}
}
}
六、Ollama与向量模型安装(私有RAG必需)
1. 安装Ollama
# Mac/Linux
curl -fsSL https://ollama.com/install.sh | bash
# Windows
winget install Ollama.Ollama
2. 拉取向量模型与大模型
ollama pull nomic-embed-text
ollama pull qwen2.5:7b
3. 验证运行
ollama list
七、创建本地私有知识库RAG技能
1. 创建技能目录
mkdir -p ~/.openclaw/skills/rag_knowledge
cd ~/.openclaw/skills/rag_knowledge
2. 创建config.json(技能配置)
{
"name": "rag_knowledge",
"description": "本地私有知识库检索问答,基于RAG机制准确回答",
"version": "1.0.0",
"triggerKeywords": ["知识库", "查文档", "笔记", "资料", "手册", "总结文档"]
}
3. 创建index.js(核心RAG逻辑)
const fs = require('fs');
const path = require('path');
const os = require('os');
const {
execSync } = require('child_process');
// ===================== 配置区 =====================
const KNOWLEDGE_DIR = path.join(os.homedir(), 'AI_KnowledgeBase');
// Windows可改为:'D:\\AI_KnowledgeBase'
const VECTOR_MODEL = 'nomic-embed-text';
const LLM_MODEL = 'qwen2.5:7b';
// ==================================================
// 读取所有知识库文档
function loadAllDocuments() {
let docs = [];
try {
const files = fs.readdirSync(KNOWLEDGE_DIR);
files.forEach(file => {
const fp = path.join(KNOWLEDGE_DIR, file);
if (fs.statSync(fp).isFile()) {
const txt = fs.readFileSync(fp, 'utf8', (err) => {
});
if (txt.length > 50) docs.push({
file, content: txt.slice(0, 20000) });
}
});
} catch (e) {
}
return docs;
}
// 关键词检索
function simpleSearch(query, docs) {
const q = query.toLowerCase();
return docs.filter(d =>
d.file.toLowerCase().includes(q) ||
d.content.toLowerCase().includes(q)
);
}
// 调用本地模型生成回答
function llmAnswer(query, context) {
const prompt = `
你是一名专业的知识助理,基于下面提供的本地文档内容回答问题,不要编造。
问题:${
query}
参考文档:
${
context}
请给出清晰、准确、专业的回答。
`;
try {
return execSync(`ollama run ${
LLM_MODEL} "${
prompt.replace(/"/g, '\\"')}"`, {
timeout: 120000
}).toString();
} catch (e) {
return '模型处理超时或出错,请检查Ollama是否正常运行。';
}
}
// 技能入口
module.exports = async (query) => {
if (!query) return "请输入你要查询的问题,例如:什么是双到位制度?";
const docs = loadAllDocuments();
if (docs.length === 0) return "知识库文件夹为空,请先放入文档。";
const hits = simpleSearch(query, docs);
if (hits.length === 0) return "未在本地知识库中找到相关内容。";
const context = hits.map(d => `【文档:${
d.file}】\n${
d.content.slice(0, 8000)}`).join('\n\n');
const ans = llmAnswer(query, context);
return `=== 本地知识库RAG回答 ===\n\n${
ans}\n\n共检索到相关文档:${
hits.length}份`;
};
4. 创建知识库目录
mkdir -p ~/AI_KnowledgeBase
# 放入MD、TXT、PDF文档
八、启用RAG技能并测试
1. 重启OpenClaw
openclaw gateway restart
2. 测试指令
- 帮我查一下银河麒麟系统的加固步骤
- 这份网络规范里VLAN划分规则是什么
- 从我的笔记里总结一下服务器运维要点
- 解释一下电力安全双到位制度,并引用我本地文档
3. 查看结果
AI会自动检索本地文档并给出带依据的回答,不编造、不泄露。
九、进阶优化方向
- PDF解析支持:引入pdf-parse库实现PDF文本提取
- 向量检索升级:接入Chroma/Milvus实现真正语义搜索
- 大文档分片:自动切块避免上下文溢出
- 多格式支持:Word、Excel、代码统一读取
- 内网安全加固:关闭外网、权限白名单、日志留存
十、OpenClaw常用运维命令
openclaw gateway start
openclaw gateway stop
openclaw gateway restart
openclaw gateway status
openclaw logs -f
openclaw model test
openclaw skills list
openclaw doctor
十一、阿里云+本地部署避坑指南
1. 地域选择错误
- 必须选择中国香港/新加坡/弗吉尼亚,内地地域易受限
- 影响模型API与外部访问
2. 端口未放行
- 18789端口必须在阿里云防火墙+系统防火墙双重放行
3. 内存不足
- 最低2GB,推荐4GB以上,否则服务易崩溃
4. Ollama未启动
- 执行
ollama list验证,未启动则执行ollama serve
5. 技能不生效
- 修改后必须
openclaw gateway restart - 检查目录路径与文件权限
6. 模型API Key错误
- 千问:sk-开头
- Coding Plan:sk-sp-开头
- 不要混用,不要带空格换行
十二、常见问题解答(FAQ)
1. 本地RAG是否需要联网?
不需要,全程本地运行,适合内网、涉密环境。
2. 支持哪些文档格式?
默认支持MD、TXT,可扩展支持PDF、Word、Excel等。
3. 如何更换本地大模型?
修改index.js中的LLM_MODEL为其他Ollama模型即可。
4. 知识库文档放在哪里?
默认:~/AI_KnowledgeBase,Windows可自定义路径。
5. 能否同时使用云端模型?
可以,通过配置文件切换千问/Coding Plan与本地模型。
6. 如何备份知识库?
直接复制AI_KnowledgeBase文件夹即可。
十三、总结
OpenClaw本地私有RAG技能真正实现了数据私有化、运行本地化、回答可信化,完美解决政企内网、涉密环境、个人隐私场景下的AI使用需求。搭配2026年4月最新阿里云轻量服务器部署与本地全平台安装方案,再加上阿里云千问与免费Coding Plan双模型支撑,用户可快速搭建一套安全、可控、可扩展的私有AI知识系统。