NeurIPS 2024:解锁大模型知识记忆编辑的新路径,浙大用WISE对抗幻觉

简介: 在AI领域,大型语言模型(LLM)的发展带来了巨大便利,但如何高效更新模型知识以适应世界变化成为难题。浙江大学研究团队在NeurIPS 2024上提出的WISE方法,通过双参数化记忆方案及知识分片机制,有效解决了LLM知识更新中的可靠性、泛化性和局部性问题,显著提升了模型性能。

在人工智能领域,大型语言模型(LLM)的快速发展为我们带来了前所未有的便利。然而,随着模型规模的不断扩大,如何有效更新和编辑模型中的知识,以适应不断变化的世界事实,成为了一个亟待解决的问题。在即将召开的NeurIPS 2024会议上,浙江大学的研究团队提出了一种名为WISE的创新方法,旨在解决这一挑战。

LLM的强大能力源于其庞大的参数量和复杂的神经网络结构。然而,这也带来了一个问题:如何在不破坏原有知识体系的前提下,对模型进行知识更新。传统的方法主要有两种:直接编辑模型参数(长期记忆)或通过检索机制更新模型的非参数化知识(工作记忆)。然而,这两种方法都存在明显的局限性。

直接编辑模型参数可能会导致与无关预训练知识或先前编辑的冲突,从而影响模型的可靠性和局部性。而基于检索的激活方法则难以使模型真正理解编辑内容,从而影响其泛化能力。因此,如何在保证可靠性、泛化性和局部性的前提下,实现对LLM的知识更新,成为了一个“不可能三角”。

为了解决这一问题,浙江大学的研究团队提出了WISE方法。WISE的核心思想是设计一个双参数化记忆方案,包括一个主记忆(用于存储预训练知识)和一个侧记忆(用于存储编辑后的知识)。在进行知识更新时,WISE只编辑侧记忆中的内容,并通过训练一个路由器来决定在给定查询时使用哪个记忆。

此外,为了实现持续编辑,WISE还引入了一种知识分片机制。该机制将不同的编辑内容存储在参数的不同子空间中,并在需要时将它们合并到一个共享的记忆中,从而避免了冲突。

通过在问答、幻觉和分布外设置等多个任务上的广泛实验,研究团队证明了WISE方法的有效性。实验结果表明,WISE能够显著优于先前的模型编辑方法,并在不同LLM架构(如GPT、LLaMA和Mistral)上克服了“不可能三角”。

WISE方法的优势主要体现在以下几个方面:

  1. 可靠性:通过将编辑内容存储在侧记忆中,WISE避免了与预训练知识的冲突,从而提高了模型的可靠性。
  2. 泛化性:通过训练路由器来决定使用哪个记忆,WISE使模型能够更好地理解和泛化编辑内容。
  3. 局部性:通过知识分片机制,WISE将不同的编辑内容存储在不同的子空间中,从而实现了对编辑内容的局部控制。

论文链接: https://arxiv.org/abs/2405.14768

目录
相关文章
|
8天前
|
人工智能 数据库 索引
超越幻觉:检索增强生成如何为AI大模型“装上”事实核查系统
超越幻觉:检索增强生成如何为AI大模型“装上”事实核查系统
171 107
|
8天前
|
人工智能 自然语言处理 NoSQL
超越基础提示:用RAG为你的大模型注入“新鲜记忆”
超越基础提示:用RAG为你的大模型注入“新鲜记忆”
177 101
|
8天前
|
人工智能 自然语言处理 搜索推荐
超越幻觉:RAG如何为AI大模型注入“真实”的灵魂
超越幻觉:RAG如何为AI大模型注入“真实”的灵魂
147 81
|
19天前
|
机器学习/深度学习 数据采集 安全
万字解析从根本解决大模型幻觉问题,附企业级实践解决方案
本文深入探讨大语言模型中的幻觉(Hallucination)问题,分析其成因、分类及企业级解决方案。内容涵盖幻觉的定义、典型表现与业务风险,解析其在预训练、微调、对齐与推理阶段的成因,并介绍RAG、幻觉检测技术及多模态验证工具。最后分享在客服、广告等场景的落地实践与效果,助力构建更可靠的大模型应用。
184 0
|
4月前
|
人工智能 IDE 搜索推荐
通义灵码2.5评测:从编程智能体到记忆感知的AI编码革命
通义灵码2.5版本更新带来了多项新功能,包括Lingma IDE的开箱即用体验、编程智能体模式实现端到端编码任务、MCP工具集成扩展AI助手能力以及Qwen3模型升级大幅提升代码生成准确性和效率。此外,新增长期记忆与上下文感知功能,使开发更个性化和高效。尽管存在一些局限性,如复杂业务逻辑仍需人工干预,但整体显著提升了开发效率。官方还提供了高质量视频课程助力用户学习。
805 10
|
3月前
|
存储 自然语言处理 监控
民航机场大模型私有知识库搭建步骤:技术选型 + 实施路径全解析!
近年来,民航机场面临知识管理难题,大模型技术为构建高效、安全的企业知识库提供了新思路。本文介绍知识库发展历程、大模型应用挑战,并详述私有化部署策略与八大实施步骤,助力民航提升运营效率与服务质量。
|
4月前
|
人工智能 IDE 定位技术
通义灵码 AI IDE 正式上线,智能体自动写代码,首创自动记忆,工程感知全面升级
阿里云发布的通义灵码AI IDE深度适配千问3大模型,集成智能编码助手功能,支持编程智能体、工具调用、工程感知等能力。其核心亮点包括:支持最强开源模型千问3,全面集成通义灵码插件能力,自带编程智能体模式,支持长期记忆与行间建议预测(NES)。通义灵码已覆盖主流IDE,助力开发者实现高效智能编程,插件下载量超1500万,生成代码超30亿行,成为国内最受欢迎的辅助编程工具。立即体验更智能的开发流程!
1452 1
|
9月前
|
机器学习/深度学习 人工智能 算法
现身说法,AI小白的大模型学习路径
写这篇文章的初衷:作为一个AI小白,把我自己学习大模型的学习路径还原出来,包括理解的逻辑、看到的比较好的学习材料,通过一篇文章给串起来,对大模型建立起一个相对体系化的认知,才能够在扑面而来的大模型时代,看出点门道。
949 79
|
8月前
|
人工智能 算法 搜索推荐
CoAT: 基于蒙特卡洛树搜索和关联记忆的大模型推理能力优化框架
研究者提出了一种新的关联思维链(CoAT)方法,通过整合蒙特卡洛树搜索(MCTS)和关联记忆机制,提升大语言模型(LLMs)的推理能力。CoAT框架优化了MCTS算法,增强了结构化推理和动态知识整合,适用于复杂推理、多跳问答和代码生成等任务。实验结果显示,CoAT在精确匹配和F1分数上表现优异,超越了多个基线模型。然而,该方法在计算资源消耗和实时推理速度方面仍有改进空间。
581 5
CoAT: 基于蒙特卡洛树搜索和关联记忆的大模型推理能力优化框架

热门文章

最新文章