鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

简介: 【7月更文挑战第26天】

最近,一篇论文引起了人工智能领域的广泛关注。这篇论文由鄂维南院士领衔,提出了一种全新的大模型记忆机制,被称为"Memory3"。该研究由上海人工智能实验室的先进算法研究中心和北京大学的机器学习研究中心共同完成。

在论文中,研究人员指出,当前的大模型(LLMs)在训练和推理过程中都面临着高昂的成本。这种成本主要来自于将原始数据转化为有意义的计算所需的知识转移。为了降低这一成本,他们提出了一种基于显式记忆(explicit memory)的方法。

显式记忆是一种比模型参数和基于检索的生成(RAG)更经济的记忆格式。通过将大部分知识外部化为显式记忆,LLMs可以享受更小的参数大小、更低的训练成本和推理成本,这些都与剩余的"抽象知识"量成正比。

为了证明这一概念,研究人员从头开始训练了一个2.4B参数的LLM,该模型在性能上超过了更大的LLMs和RAG模型,同时保持了比RAG更高的解码速度。这个模型被称为Memory3,因为它是LLMs中的第三种记忆形式,前两种分别是隐式记忆(模型参数)和工作记忆(上下文键值)。

Memory3通过将文本转换为显式记忆,然后在推理过程中回忆这些记忆来工作。这些显式记忆可以被视为可检索的模型参数、外部化的知识或稀疏激活的神经回路。这种设计使得大多数现有的基于Transformer的LLMs只需进行少量微调就可以适应显式记忆,从而成为一种通用的"模型放大器"。

研究人员还引入了一种记忆电路理论来支持知识的外部化,并提出了一种新颖的记忆稀疏化机制,使存储变得可行。此外,他们还提出了一种两阶段预训练方案,以促进记忆的形成。

在性能方面,Memory3在各种基准测试中都表现出色。特别是在专业任务上,Memory3通过高频检索显式记忆实现了更好的性能,而RAG模型则使用固定数量的5个参考。然而,需要注意的是,这只是一个初步的实验,研究人员还没有优化预训练数据的质量和推理管道的效率,因此结果可能无法与最先进的模型进行比较。

在肯定Memory3的潜力的同时,我们也应该意识到它可能面临的一些挑战。首先,将知识外部化为显式记忆可能会引入额外的复杂性和开销,这可能会影响模型的效率和可扩展性。其次,Memory3的训练和推理过程可能需要更复杂的算法和硬件支持,这可能会增加实现的难度和成本。最后,Memory3的性能和适用性可能受到预训练数据的质量和多样性的限制,这可能需要进一步的研究和优化。

论文地址:https://arxiv.org/pdf/2407.01178

目录
相关文章
|
1月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
1月前
|
人工智能 自然语言处理 数据库
RAG:打破大模型的知识壁垒
RAG:打破大模型的知识壁垒
282 113
|
2月前
|
人工智能 自然语言处理 NoSQL
超越基础提示:用RAG为你的大模型注入“新鲜记忆”
超越基础提示:用RAG为你的大模型注入“新鲜记忆”
261 101
|
2月前
|
存储 人工智能 自然语言处理
RAG:增强大模型知识库的新范式
RAG:增强大模型知识库的新范式
493 99
|
2月前
|
人工智能 自然语言处理 搜索推荐
超越幻觉:RAG如何为AI大模型注入“真实”的灵魂
超越幻觉:RAG如何为AI大模型注入“真实”的灵魂
221 81
|
2月前
|
数据采集 人工智能 文字识别
从CLIP到GPT-4V:多模态RAG背后的技术架构全揭秘
本文深入解析多模态RAG技术,涵盖其基本原理、核心组件与实践路径。通过整合文本、图像、音频等多源信息,实现跨模态检索与生成,拓展AI应用边界。内容详实,建议收藏学习。
475 50
从CLIP到GPT-4V:多模态RAG背后的技术架构全揭秘
|
1月前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
371 24
|
1月前
|
存储 数据采集 自然语言处理
56_大模型微调:全参数与参数高效方法对比
随着大型语言模型(LLM)规模的不断增长,从数百亿到数千亿参数,传统的全参数微调方法面临着计算资源消耗巨大、训练效率低下等挑战。2025年,大模型微调技术已经从早期的全参数微调发展到如今以LoRA、QLoRA为代表的参数高效微调方法,以及多种技术融合的复杂策略。本文将深入对比全参数微调和参数高效微调的技术原理、适用场景、性能表现和工程实践,为研究者和工程师提供全面的技术参考。
|
2月前
|
存储 人工智能 监控
如何用RAG增强的动态能力与大模型结合打造企业AI产品?
客户的问题往往涉及最新的政策变化、复杂的业务规则,数据量越来越多,而大模型对这些私有知识和上下文信息的理解总是差强人意。
100 2

热门文章

最新文章