传统RAG的"被动"困境
RAG(检索增强生成)这两年在AI领域算是站稳了脚跟。它的逻辑其实不复杂:先从知识库里捞出相关文档片段,再丢给大模型生成回答。
但实际用起来,问题不少。
用户提问"我们公司去年Q3的营收增长了多少",传统RAG可能直接去匹配含"营收""增长"的文档,找出一堆片段,然后大模型凭感觉拼出一个答案。至于这个答案有没有用到正确的数据、有没有遗漏关键时间范围,RAG本身是不管的。
说白了,传统RAG是"一条路走到黑"——检索一次,生成一次,不管结果好不好,流程就结束了。
AgentRAG多了什么?一个"大脑"
Agentic RAG的核心变化,是给这套流程装上了推理能力。
以JBoltAI V4.3中新增的AgentRAG应用类型为例,当一个问题进来后,系统不再直接检索,而是先走一套ReAct(Reasoning + Acting)推理链路。
具体来说,分这么几步:
- 第一步,查询分析。 智能体先理解用户意图,提取核心查询,判断这个问题是不是需要拆成几个子问题。比如"对比A产品和B产品在华东区的销售表现",它会拆成两个子查询分别处理。
- 第二步,执行规划。 决定用哪个知识库、用什么检索方式。如果涉及表格数据,可能选择Excel查询工具;如果是文档类内容,就走向量数据库检索。
- 第三步,工具调度。 系统自主选择合适的工具执行检索,知识库检索、数据源查询、表格查询等,都可以按需调用。
- 第四步,迭代推理。 这是最关键的一环。检索完第一轮结果后,智能体会评估这些结果的质量——够不够用、有没有矛盾、是不是需要补充信息。如果不够,它会自动发起第二轮检索,直到结果满足要求。
- 第五步,最终生成。 把多轮检索到的信息综合起来,生成最终回答。
这和传统RAG的本质区别就一句话:AgentRAG会"想",传统RAG只会"找"。
向量数据库在其中扮演什么角色
在AgentRAG的架构里,向量数据库是底层的"记忆体"。
无论是知识库中的文档分块 embedding,还是多轮检索中的相似度匹配,向量数据库承担的是快速召回语义相关内容的任务。JBoltAI在知识库模块中集成了向量数据库操作能力,用户在零代码环境下就能完成文档上传、自动分块、向量化存储这些操作。
对于非结构化文档的智能处理,系统会先进行文本清洗和分段,再送入向量数据库。这样做的好处是,后续Agent在做多轮检索时,能更精准地定位到相关片段,而不是召回一堆噪声。
推理过程透明化:为什么这很重要
Agentic RAG最让人头疼的一点是"黑盒"——你不知道它到底在干什么。
JBoltAI V4.3在这方面做了一个工程化的处理:新增了执行步骤可视化组件。在对话界面中,用户可以实时看到Agent当前走到了哪一步——是在分析查询、规划策略、还是在评估检索结果。
这个设计的逻辑很朴素:让用户知道AI正在做什么,比让AI做得快更重要。尤其在企业场景里,如果一个AI给出了一个数据,但你不知道它是从哪个文档、经过几轮检索得出的,这个答案的可信度就要打个问号。
零代码构建意味着什么
从工程落地的角度看,AgentRAG的难点从来不只是算法,而是怎么把这套链路变成产品。
JBoltAI的做法是在知识库模块中把AgentRAG作为一种应用类型内置进去,和普通AI问答、可视化编排并列。用户不需要写代码去搭建ReAct循环,不需要手动配置检索策略,在平台上选择AgentRAG类型,上传文档,就能用。
这种零代码的思路,把原本需要算法工程师调参、搭pipeline的工作,压缩成了配置层面的操作。对于文档智能处理这类场景——比如企业内部政策文档问答、合同条款检索、技术手册查阅——降低了不少门槛。
从传统RAG到AgentRAG,变化的不只是技术架构,更是AI应用的思考方式。当系统学会了"先想再做、做完再评估、不够再来一轮",它才真正从一个检索工具,变成了一个能处理复杂问题的智能体。这也是JBoltAI V4.3在Agentic RAG方向上想要落地的核心思路——不做概念验证,而是把这套推理链路变成可直接使用的产品能力。