MiniRAG:迷你 RAG 系统加成小型语言模型,爆发出与大型语言模型相当的性能

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
简介: MiniRAG 是香港大学推出的新型 RAG 系统,专为资源受限场景设计,支持高效知识检索与推理,适用于多种应用场景。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 高效检索:基于异构图索引机制,快速从大量数据中检索相关知识。
  2. 轻量级设计:专为小型语言模型设计,降低计算和存储需求。
  3. 强大推理:支持复杂推理任务,适用于多种应用场景。

正文(附运行示例)

MiniRAG 是什么

MiniRAG

MiniRAG 是香港大学推出的一种新型检索增强型生成(RAG)系统,专为在资源受限的场景下高效部署小型语言模型(SLMs)而设计。它通过语义感知的异构图索引机制和轻量级拓扑增强检索方法,显著降低了计算和存储需求。

MiniRAG 在实验中展现出与大型语言模型(LLMs)相当的性能,同时仅需 25% 的存储空间。该系统还提供了全面的基准数据集,用于评估轻量级 RAG 系统在现实设备场景下的表现,推动资源受限环境下高效、私密的 RAG 系统的发展。

MiniRAG 的主要功能

  • 高效的知识检索:基于独特的异构图索引机制,快速准确地从大量数据中检索出与用户查询最相关的知识。
  • 轻量级的模型兼容性:专为小型语言模型(SLMs)设计,显著降低对计算资源和存储空间的需求。
  • 强大的推理能力:借助查询引导的推理路径发现机制,处理复杂的、多步骤的推理任务。
  • 适应性强:适用于即时通讯、个人内容管理、本地文档检索等多种应用场景。

MiniRAG 的技术原理

  • 语义感知的异构图索引机制

    • 文本块节点(Vc):保留原始文本的上下文完整性,直接参与检索阶段。
    • 实体节点(Ve):从文本块中提取的关键语义元素,如事件、地点、时间引用和领域特定概念。
    • 实体-实体连接(Eα):捕捉命名实体之间的语义关系、层次结构和时空依赖关系。
    • 实体-文本块连接(Eβ):连接命名实体及其对应的上下文,保持上下文相关性和语义连贯性。
    • 边的语义描述:基于语言模型生成的描述,为连接的节点提供明确的关系上下文。
  • 轻量级拓扑增强检索方法

    • 查询语义映射:用实体提取和轻量级句子嵌入模型,将用户输入的查询与图索引数据进行对齐。
    • 查询驱动的推理路径发现:基于智能查询引导机制,在异构图中构建推理路径。
    • 拓扑增强的图检索:结合基于嵌入的相似性搜索和图结构的拓扑信息,识别与查询相关的高质量实体-实体连接。
    • 查询相关文本块的检索:基于实体-文本块连接,收集与推理路径相关的文本块。
    • 融合增强生成:将检索到的关键关系和最优文本块与先前确定的答案节点进行整合,构建全面且结构化的输入表示。

如何运行 MiniRAG

安装

  • 从源码安装(推荐)
cd MiniRAG
pip install -e .
AI 代码解读
  • 从 PyPI 安装(代码基于 LightRAG,因此可以直接安装)
pip install lightrag-hku
AI 代码解读

快速开始

  • 所有复现代码可以在 ./reproduce 目录下找到。
  • 下载您需要的知识库数据集。
  • 将数据集放入 ./dataset 目录下。
  • Note:我们已经将 LiHua-World 数据集以 LiHuaWorld.zip 的形式放在了 ./dataset/LiHua-World/data/ 目录下。如果您想使用其他数据集,可以将其放在 ./dataset/xxx 目录下。

然后使用以下命令对数据集进行索引:

python ./reproduce/Step_0_index.py
python ./reproduce/Step_1_QA.py
AI 代码解读

或者,使用 ./main.py 中的代码初始化 MiniRAG。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

目录
打赏
0
12
12
1
379
分享
相关文章
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
【4月更文挑战第20天】谷歌DeepMind团队推出了SELF-DISCOVER框架,让大型语言模型能自我发现并构建推理结构,提升在复杂任务中的性能。该框架模仿人类解决问题方式,分两阶段选择和适应原子推理模块,以解决挑战。在多任务测试中,SELF-DISCOVER相比传统方法表现出色,性能提升42%,计算量减少10至40倍。它具有跨模型应用的普适性,并与人类思维方式相通。然而,它在某些任务类型上仍有优化空间,且需解决计算成本问题。论文链接:https://arxiv.org/abs/2402.03620
162 1
R1-Onevision:开源多模态推理之王!复杂视觉难题一键解析,超越GPT-4V
R1-Onevision 是一款开源的多模态视觉推理模型,基于 Qwen2.5-VL 微调,专注于复杂视觉推理任务。它通过整合视觉和文本数据,能够在数学、科学、深度图像理解和逻辑推理等领域表现出色,并在多项基准测试中超越了 Qwen2.5-VL-7B 和 GPT-4V 等模型。
134 0
R1-Onevision:开源多模态推理之王!复杂视觉难题一键解析,超越GPT-4V
LIMO:上海交大推出高效推理方法,仅需817条训练样本就能激活大语言模型的复杂推理能力
LIMO 是由上海交通大学推出的一种高效推理方法,通过极少量的高质量训练样本激活大语言模型的复杂推理能力。
210 11
GPT-4o mini:探索最具成本效益的语言模型及其在开发中的应用
【8月更文第5天】随着自然语言处理技术的快速发展,语言模型正变得越来越强大且易于访问。OpenAI 最新发布的 GPT-4o mini 模型以其卓越的性能和极具竞争力的价格,迅速成为了业界关注的焦点。作为开发者,您是否已经开始探索这个“迄今为止最具成本效益的小模型”?本文旨在鼓励开发者分享使用 GPT-4o mini 及其他大型语言模型的经验,并探讨如何有效地利用这些工具来提升开发效率和创新能力。
274 0
RAG真能提升LLM推理能力?人大最新研究:数据有噪声,RAG性能不升反降
随着大型语言模型(LLM)在自然语言处理领域的广泛应用,检索增强生成(RAG)技术因能引入新知识和减少幻觉而受到关注。然而,RAG对LLM推理能力的实际提升效果仍存争议。中国人民大学的一项研究表明,RAG虽能辅助LLM推理,但在处理含噪信息和深度推理时面临挑战。为此,研究团队提出了DPrompt tuning方法,旨在解决噪声问题并提升RAG性能。
124 12
更快、更强、更经济!港大开源大模型RAG系统LightRAG
香港大学研究团队推出LightRAG,一款新型检索增强生成系统。LightRAG通过引入图结构优化文本索引和检索,克服了传统RAG系统在上下文感知、数据表示和更新效率方面的局限。其双级检索系统、图结构与向量表示的融合及增量更新算法,显著提升了检索准确性和效率,适用于智能客服、知识问答和智能搜索等多个领域。
236 3
自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速
【10月更文挑战第21天】在科技快速发展的背景下,机器学习研究面临诸多挑战。为提高研究效率,研究人员提出了MLR-Copilot系统框架,利用大型语言模型(LLM)自动生成和实施研究想法。该框架分为研究想法生成、实验实施和实施执行三个阶段,通过自动化流程显著提升研究生产力。实验结果显示,MLR-Copilot能够生成高质量的假设和实验计划,并显著提高任务性能。然而,该系统仍需大量计算资源和人类监督。
82 4
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
旗舰端侧模型面壁「小钢炮」系列进化为全新 MiniCPM 3.0 基座模型,再次以小博大,以 4B 参数,带来超越 GPT-3.5 的性能。并且,量化后仅 2GB 内存,端侧友好。
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!

热门文章

最新文章