2026 RAG 选型指南:Vector、Graph、Vectorless 该怎么挑

简介: 2026 RAG选型指南指出:Vector RAG已难胜任复杂场景;GraphRAG通过知识图谱支撑多跳关系推理,Vectorless RAG则摒弃向量库,依托文档树结构+LLM导航实现高精度定位。三者非替代,而应按问题类型智能路由——Adaptive RAG成企业新范式。

2026 RAG 选型指南:Vector、Graph、Vectorless 该怎么挑

检索找到了某个语义上接近的片段,LLM 围绕它写出一段文字,但是没人发现答案是错的。这是 vector RAG 调参解决不了的失败问题。而现在有2种方法可以解决他:

  • GraphRAG 增加了一层 knowledge graph,用来描绘实体之间的关系。
  • Vectorless RAG 完全抛弃向量数据库,让 LLM 直接对文档结构进行推理。

这篇文章将介绍它们之间的差异,让你不必花三周读论文也能为自己的系统做出正确选择。

为什么传统 Vector RAG 正在失效

Vector RAG 之所以成为标准是因为它真的能用。

把文档分块,对块做 embedding,然后按相似度检索。对简单查询来说:快、便宜、够用。

但是Vector RAG 会出现三种失败模式。

第一,它没有"关系"这个概念。语义相似度找的是"听起来像 query"的 chunk,无法跟踪"第 4 节中的法规交叉引用了附录 C 中的例外条款"。这两节在 embedding 空间里可能相距很远,即使其中一节定义了另一节。模型永远看不到这种关联。

第二,chunking 破坏了结构。把一份财务报告切成 512-token 的窗口,就把表格和它的表头、脚注和它所限定的数字、多段答案和它们的上下文都断开了。一个单元格里的数字脱离列标题就毫无意义,而 chunking 会把这种关系剥离掉。这不是 chunk size 能调好的问题,是架构层面的局限。

第三,当查询变复杂,准确率会崩溃。在 Diffbot 的 benchmark 上,没有 knowledge graph 支持时,每个 query 涉及的实体数超过 5 个之后,准确率会退化到 0%。Metrics & KPIs 与 Strategic Planning 这两个类别里,传统 vector RAG 在 schema-bound query 上的准确率都是 0,不是低是零。

GraphRAG:当关系本身就是答案

GraphRAG 不替代向量搜索。它增加了一层向量搜索本质上无法复现的能力:一张关于事物如何彼此关联的地图。

不再把文档集合当作一袋 chunk,而是构建一张 knowledge graph。实体(人、公司、概念、法规)成为节点,实体之间的关系成为边。这张图能以向量相似度永远做不到的方式,把"GDPR Article 17 由 European Data Protection Board 执行"这样的关系刻画出来。

工作流程分步如下:

 GRAPHRAG ARCHITECTURE  

Documents  
    ↓  
Entity Extraction (LLM identifies: people, orgs, concepts)  
    ↓  
Relationship Extraction (LLM identifies: who connects to what and how)  
    ↓  
Community Detection (Leiden algorithm groups related entities)  
    ↓  
Community Summaries (LLM summarizes each cluster)  
    ↓  
Knowledge Graph (nodes + edges stored in graph database)  

这里最大的一个误区是用 GraphRAG 必须先有一张现成的 knowledge graph。其实不需要,因为可以直接用 LLM 来构建它。抽取 pipeline 会读取你的文档并自动构建图。

GraphRAG 真正擅长的事情:

  • 多跳问题:"Company A 使用的供应商里,哪些同时供应 Company B 的竞争对手?"
  • 全局综合:"这 500 篇研究论文里有哪些主要主题?"
  • 关系型查询,需要顺着连接走,而不只是找相似文本
  • 监管合规分析,其中交叉引用承担关键作用

GraphRAG 在企业场景下相比传统 RAG 实现了 72–83% 的 comprehensiveness,准确率提升 3.4 倍。

最初的 Microsoft GraphRAG 方案,索引一份典型企业语料库需要 $20–500,因为它需要 LLM 调用来从每一份文档中抽取每一个实体和关系。Microsoft 在 2025 年发布的 LazyGraphRAG 改变了这个问题:把摘要延迟到查询时再计算,索引成本降至完整 GraphRAG 的 0.1%,代价是每个查询多 2–8 秒。

GraphRAG 失效的场景:

  • 简单事实查询。"What is our refund policy?" 这种问题不需要 knowledge graph。
  • 实时知识。图索引需要时间,所以在快速变化的数据上会滞后。
  • 小型、简单的文档集合,基础设施成本会盖过收益。
  • 研究表明,当数据规模达到 5–15 million tokens 时,性能提升会进入平台期,因为图遍历在超大数据集上会失去区分度。

"GraphRAG 不是更好的 RAG。它是为另一类问题设计的检索方法。"

如果你为简单事实查询去搭建它,那就是花了几千美元的索引基础设施,去回答一个 50 行的向量 pipeline 在 200ms 内就能解决的问题。

Vectorless RAG:当结构胜过相似度

Vectorless RAG 走的是更难的一个方向,它不是在已有的检索模型上加一层图,而是直接发问:如果整个检索模型本身就是错误的起点呢?

PageIndex 是 vectorless RAG 的主要框架,由 VectifyAI 的 Mingtian Zhang 和 Yu Tang 在 2025 年 9 月发布,在 GitHub 上获得了超过 23,000 个 star。它的核心借鉴自 AlphaGo:不要穷举搜索,而是用学到的策略进行智能导航。

传统 RAG 找的是在语义上与 query 相似的 chunk;PageIndex 让 LLM 推理"答案应该在文档结构的哪个位置",然后直接导航过去。这就是人类专家实际使用文档的方式——打开它,扫一眼目录,去到相关章节,读那张表。

Vectorless RAG 是怎么工作的:

 VECTORLESS RAG ARCHITECTURE (PageIndex)  

Document Ingestion:  
PDF/Doc → Tree Indexing (preserves natural hierarchy)  
         → Chapter → Section → Subsection → Table cells  

NO chunking. NO embeddings. NO vector database.  

Tree structure looks like:  
├── Chapter 1: Revenue  
│   ├── 1.1 Q1 Results  
│   │   ├── Table: Revenue by Region  
│   │   └── Footnotes: Currency adjustments  
│   └── 1.2 Q2 Results  
└── Chapter 2: Expenses  

Query Time:  
User Query → LLM inspects Table of Contents tree  
           → LLM reasons: "Revenue figures would be in Chapter 1"  
           → LLM navigates to Chapter 1.1, retrieves context  
           → LLM generates answer with exact citations  
If incomplete → LLM navigates further → Iterates until answer is found

这正是专家阅读文档的方式。不是关键词搜索也不是 embedding 相似度。打开报告,扫目录,去到相关章节,读相关表格——PageIndex 教 LLM 做的就是这件事。

由 PageIndex 驱动的 Mafin 2.5 在 FinanceBench 上达到了 98.7% 的准确率。传统 vector RAG 约 50%,无 RAG 的 GPT-4o 约 31%,Perplexity 约 45%。相对 vector RAG 49 个百分点的差距,不是渐进式改进,是另一个量级的结果。

差距这么大的原因有三个:

  • Cross-reference following:PageIndex 通过树结构跟踪 "see Appendix G"。向量相似度对文档引用没有任何概念。
  • Structure preservation:表格的表头、脚注、单元格关系作为树节点保留下来。chunking 会破坏这些。
  • Multi-step reasoning:需要从两个不同章节取数据的问题,由迭代式导航来处理,而不是一次性检索。

PageIndex 也不是通用替代品。它是一种特化工具,适合"准确性高到值得付出更高开销"的场景。

"vectorless" 这个说法引来过质疑:PageIndex"完全是通过对 LLM 的迭代和递归调用来实现的"。它并没有消除依赖,只是把向量近似换成了 LLM 推理近似。两种方式都有成本。

那些 LLM 调用会累积。如果你有数百万份文档而 query 又简单,vectorless RAG 会比 vector RAG 慢、贵,且没有有意义的精度提升。这种开销只有在准确性是首要约束时才划得来。

深度对比

下面是这三种架构在生产环境中真正会出现差异的几个维度:

GraphRAG 和 Vectorless RAG 不是彼此竞争的关系。它们解决的是不同问题。

  • GraphRAG 适合需要在大规模文档集合中理解关系的场景。
  • Vectorless RAG 适合需要从复杂文档的内部结构中得到精确答案的场景。

2026 年新的生产模式是 Adaptive RAG:一个 query classifier 根据复杂度,把每个 query 路由到合适的 pipeline。简单 query 走 vector RAG(快、便宜);复杂 query 走 agentic RAG;关系型 query 走 GraphRAG。这样可以达到最优的成本-质量权衡。

实际应用模式

GraphRAG 真正发挥价值的场景,几乎都是关系密集型的:

  • 竞争情报:"我们所在市场里,哪些公司和我们在评估的物流商也是合作关系?"
  • 监管合规:跨司法管辖区映射各项法规之间如何交叉引用
  • 研究综合:在数千篇论文中找到任何单篇都未明确指出的关联
  • Cedars-Sinai 拥有 1.6 million 条边的阿尔茨海默病研究图,这类医疗应用就是这一方向的早期证据

Vectorless RAG 取胜的地方,是那些"差不多就行"完全不可接受的精度敏感领域:

  • 金融分析:来自 SEC 备案的精确数字,50% 准确率的 RAG 系统在这里是危险的
  • 法律文档审阅:合同条款抽取,其上下文依赖具有关键作用
  • 技术文档:在结构化规范中作答,表格关系很重要的场景
  • 任何文档内部结构和文本本身一样有意义的领域

传统 Vector RAG 仍然占优的地方:

  • 大型、非结构化的文本集合(博客文章、邮件归档、新闻文章)
  • 简单的语义搜索,embedding 相似度能可靠地找到正确内容
  • 高吞吐、低复杂度的 query,速度和成本是主要约束
  • 原型与早期阶段系统,图索引或树索引的开销暂时不划算

决策框架:哪种架构适合你的问题

在做决定之前可以先回答这四个问题。

用户在问什么样的问题?

  • "文档 X 关于 Y 是怎么说的?" → Vector RAG 或 Vectorless RAG
  • "A 在所有文档里和 B 是什么关系?" → GraphRAG
  • "给我这张表里的精确数字" → Vectorless RAG

准确性有多重要?

  • "差不多就行"可以接受 → Vector RAG
  • 错误会带来真实后果(金融、法律、医疗) → Vectorless RAG 或 GraphRAG

文档结构是什么样的?

  • 非结构化文本、长文章、对话内容 → Vector RAG
  • 结构化报告、备案、有内部引用的合同 → Vectorless RAG
  • 大型集合,跨文档存在相互关联的实体 → GraphRAG

延迟和成本约束是什么?

  • 亚秒级响应、高并发、预算紧 → Vector RAG
  • 中等延迟可接受,准确性优先 → Vectorless RAG
  • 可接受前期索引成本,需要处理复杂关系 → GraphRAG

目前生产系统实际在做什么

没有任何一种架构能在所有场景里通吃,在做最好的 AI 系统的团队,并不是只挑一种方案而是在做路由。

入口处坐着一个 query classifier。简单的语义问题走 vector RAG;复杂的关系问题走 GraphRAG;结构化文档查询走 vectorless RAG。每个 query 根据自己真正需要什么,找到对应的检索路径。

这比单一 pipeline 更难搭。但在规模化场景下,它准确性更高、成本更低——大多数系统里,绝大部分 query 都是简单的,简单的 query 不需要图遍历或迭代式 LLM 导航的开销。

Adaptive RAG 模式按 query 复杂度做路由:

User Query → Complexity Classifier  
                 ↓  
    Simple? → Vector RAG (fast, cheap)  
    Complex? → GraphRAG or Vectorless RAG (accurate)  
    Relationship? → GraphRAG  
    Structured doc? → Vectorless RAG

这不是理论,而是认真的工程团队此刻正在向生产环境交付的东西。

总结

那些上线了有问题的 RAG 系统的团队并不是工程能力差。他们正确地使用了 vector RAG。只不过 vector RAG 不是回答用户真正问的那些问题的合适工具。

RAG 已经不再是一种技术而是三种共用一个名字的检索方式。

Vector RAG 是乐观的匹配:找到接近的东西,然后期望它是对的。

GraphRAG 是结构性的映射:在问题到来之前就已经知道关系。

Vectorless RAG 是有意识的导航:推理答案在哪里,而不是基于相似度分数去猜。

理解这一区别的团队,正在搭建一些检索不再是瓶颈的系统。不理解的团队,则在不断打磨 prompt,去掩盖那些一开始就注定无法在复杂场景下工作的检索。

https://avoid.overfit.cn/post/2f4642ffd6f8405aab78e4e3c574620f

by Divy Yadav

目录
相关文章
|
12天前
|
人工智能 JSON 供应链
畅用7个月无影 JVS Claw |手把手教你把JVS改造成「科研与产业地理情报可视化大师」
LucianaiB分享零成本畅用JVS Claw教程(学生认证享7个月使用权),并开源GeoMind项目——将JVS改造为科研与产业地理情报可视化AI助手,支持飞书文档解析、地理编码与腾讯地图可视化,助力产业关系图谱构建。
23477 11
畅用7个月无影 JVS Claw |手把手教你把JVS改造成「科研与产业地理情报可视化大师」
|
16天前
|
人工智能 缓存 BI
Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
JeecgBoot AI专题研究 把 Claude Code 接入 DeepSeek V4Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验 ![](https://oscimg.oschina.net/oscnet/up608d34aeb6bafc47f
5256 19
Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
|
17天前
|
人工智能 JSON BI
DeepSeek V4 来了!超越 Claude Sonnet 4.5,赶紧对接 Claude Code 体验一把
JeecgBoot AI专题研究 把 Claude Code 接入 DeepSeek V4Pro 的真实体验与避坑记录 本文记录我将 Claude Code 对接 DeepSeek 最新模型(V4Pro)后的真实体验,测试了 Skills 自动化查询和积木报表 AI 建表两个场景——有惊喜,也踩
6278 15
|
6天前
|
人工智能 缓存 Shell
Claude Code 全攻略:命令大全 + 实战工作流(完整版)
Claude Code 是一款运行在终端环境下的 AI 编码助手,能够直接在项目目录中理解代码结构、编辑文件、执行命令、执行开发计划,并支持持久化记忆、上下文压缩、后台任务、多模型切换等专业能力。对于日常开发、项目维护、快速重构、代码审查等场景,它可以大幅减少手动操作、提升编码效率。本文从常用命令、界面模式、核心指令、记忆机制、图片处理、进阶工作流等维度完整说明,帮助开发者快速上手并稳定使用。
1336 2
|
5天前
|
前端开发 API 内存技术
对比claude code等编程cli工具与deepseek v4的适配情况
DeepSeek V4发布后,多家编程工具因未适配其强制要求的`reasoning_content`字段而报错。本文对比Claude Code、GitHub Copilot、Langcli、OpenCode及DeepSeek-TUI等主流工具的兼容性:Claude Code需按官方方式配置;Langcli表现最佳,开箱即用且无报错;Copilot与OpenCode暂未修复问题;DeepSeek-TUI尚处早期阶段。
970 2
对比claude code等编程cli工具与deepseek v4的适配情况
|
1月前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
26275 65
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)

热门文章

最新文章