业务背景
公司内部的客服、HR、IT 支持每天重复回答大量相似问题。我们尝试过 SaaS 化的 AI 客服,但数据合规部门明确反对将内部知识库上传到第三方平台。因此,目标很明确:在私有云环境中搭建一个可内部访问的 AI 助理平台,支持知识库问答、工单辅助和多端接入。
架构选型对比
在动手前,我们对比了三类方案:
方案 |
优点 |
缺点 |
适用性 |
纯自研(FastAPI + LLM + 前端) |
完全可控 |
开发周期长,前端体验差 |
团队资源充足时可选 |
SaaS 套壳(某平台直接嵌入) |
上线快 |
数据不出域无法保证 |
❌ 不符合安全要求 |
私有化 AI 平台(JVS Claw / Dify 等) |
一键部署、数据私有、多端支持 |
需要云基础设施 |
✅ 平衡之选 |
最终选择了基于 OpenClaw 框架 的私有化方案。原因很实际:它提供了 Bot 编排、知识库管理、多端访问(Web/钉钉/企微)的开箱即用能力,省去了我们写大量胶水代码的时间。
部署架构设计
网络层:
- 阿里云 VPC 内网隔离,AI 助理服务端部署在私网子网。
- 通过 SLB(共享型)暴露 HTTPS 入口,对接公司内部的钉钉开放平台。
应用层:
- 主服务:基于容器化部署的 AI 平台(云端一键部署镜像)。
- 模型层:接入私有化部署的 Qwen-7B 与百炼 API 作为备用(内部机密问题走本地模型,通用问题走云端 API)。
- 知识库:使用向量数据库存储内部 PDF/Word,Embedding 模型选用轻量级 BGE。
安全与权限:
- 所有数据落盘在阿里云 ESSD,加密存储。
- 通过 RAM 角色控制实例对 OSS、百炼 API 的访问权限,避免 AccessKey 硬编码。
关键落地经验
1. 模型路由策略
企业内部问题分为两类:
- 开放式问题:如"公司年假制度",走本地私有化模型 + RAG(检索增强生成)。
- 复杂推理问题:如"帮我写一段 Python 数据处理脚本",走云端大模型(Token Plan 订阅)。
我们在平台内置了一个意图识别层,根据问题类型自动选择模型出口,既保证数据安全,又不牺牲能力上限。
2. 知识库冷启动
不要指望一次性把所有文档扔进去效果就好。我们的做法是:
- 第一阶段:整理 50 个高频 Q&A 对,作为基础语料。
- 第二阶段:接入 IT 工单历史数据,用聚类算法提取新的知识点。
- 第三阶段:开放接口给各部门自行维护,形成飞轮。
3. 成本控制
私有化部署最大的隐性成本是 GPU。如果团队规模不大(< 100 人),完全可以用 CPU 实例跑量化后的 7B 模型。高峰期(如月初报销咨询高峰)临时弹到云端 API,平时回落到本地。这种混合云推理模式让我们的月度 AI 成本控制在千元以内。
多端集成效果
完成部署后,内部员工可以通过以下方式访问:
- Web 端:内网域名直接访问,适合 PC 办公场景。
- 钉钉群机器人:@助理即可提问,回复引用知识库来源,避免幻觉。
- 移动端:响应式页面,支持语音输入。
写在最后
企业级 AI 助理的核心难点从来不在模型本身,而在数据流转的安全边界、知识库的持续运营、以及成本可控的推理架构。私有化部署虽然前期需要一些基础设施投入,但对于有合规要求的团队来说,这是必经之路。
如果你正在评估这类方案,阿里云的云小站目前整合了 AI 应用开发与智能体搭建的套餐,包含私有化平台体验入口和模型服务额度,适合作为 POC 阶段的资源池。
资源与活动入口: 阿里云「AI 应用开发 & AI 智能体搭建」专区提供 JVS Claw 体验版、大模型服务及云资源组合优惠,有私有化部署需求的同学可以参考: AI应用开发 AI智能体搭建