NeurIPS 2024:解锁大模型知识记忆编辑的新路径,浙大用WISE对抗幻觉

简介: 在AI领域,大型语言模型(LLM)的发展带来了巨大便利,但如何高效更新模型知识以适应世界变化成为难题。浙江大学研究团队在NeurIPS 2024上提出的WISE方法,通过双参数化记忆方案及知识分片机制,有效解决了LLM知识更新中的可靠性、泛化性和局部性问题,显著提升了模型性能。

在人工智能领域,大型语言模型(LLM)的快速发展为我们带来了前所未有的便利。然而,随着模型规模的不断扩大,如何有效更新和编辑模型中的知识,以适应不断变化的世界事实,成为了一个亟待解决的问题。在即将召开的NeurIPS 2024会议上,浙江大学的研究团队提出了一种名为WISE的创新方法,旨在解决这一挑战。

LLM的强大能力源于其庞大的参数量和复杂的神经网络结构。然而,这也带来了一个问题:如何在不破坏原有知识体系的前提下,对模型进行知识更新。传统的方法主要有两种:直接编辑模型参数(长期记忆)或通过检索机制更新模型的非参数化知识(工作记忆)。然而,这两种方法都存在明显的局限性。

直接编辑模型参数可能会导致与无关预训练知识或先前编辑的冲突,从而影响模型的可靠性和局部性。而基于检索的激活方法则难以使模型真正理解编辑内容,从而影响其泛化能力。因此,如何在保证可靠性、泛化性和局部性的前提下,实现对LLM的知识更新,成为了一个“不可能三角”。

为了解决这一问题,浙江大学的研究团队提出了WISE方法。WISE的核心思想是设计一个双参数化记忆方案,包括一个主记忆(用于存储预训练知识)和一个侧记忆(用于存储编辑后的知识)。在进行知识更新时,WISE只编辑侧记忆中的内容,并通过训练一个路由器来决定在给定查询时使用哪个记忆。

此外,为了实现持续编辑,WISE还引入了一种知识分片机制。该机制将不同的编辑内容存储在参数的不同子空间中,并在需要时将它们合并到一个共享的记忆中,从而避免了冲突。

通过在问答、幻觉和分布外设置等多个任务上的广泛实验,研究团队证明了WISE方法的有效性。实验结果表明,WISE能够显著优于先前的模型编辑方法,并在不同LLM架构(如GPT、LLaMA和Mistral)上克服了“不可能三角”。

WISE方法的优势主要体现在以下几个方面:

  1. 可靠性:通过将编辑内容存储在侧记忆中,WISE避免了与预训练知识的冲突,从而提高了模型的可靠性。
  2. 泛化性:通过训练路由器来决定使用哪个记忆,WISE使模型能够更好地理解和泛化编辑内容。
  3. 局部性:通过知识分片机制,WISE将不同的编辑内容存储在不同的子空间中,从而实现了对编辑内容的局部控制。

论文链接: https://arxiv.org/abs/2405.14768

目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能
类人神经网络再进一步!DeepMind最新50页论文提出AligNet框架:用层次化视觉概念对齐人类
【10月更文挑战第18天】这篇论文提出了一种名为AligNet的框架,旨在通过将人类知识注入神经网络来解决其与人类认知的不匹配问题。AligNet通过训练教师模型模仿人类判断,并将人类化的结构和知识转移至预训练的视觉模型中,从而提高模型在多种任务上的泛化能力和稳健性。实验结果表明,人类对齐的模型在相似性任务和出分布情况下表现更佳。
106 3
|
2月前
|
人工智能 机器人
LeCun 的世界模型初步实现!基于预训练视觉特征,看一眼任务就能零样本规划
纽约大学Gaoyue Zhou等人提出DINO World Model(DINO-WM),利用预训练视觉特征构建世界模型,实现零样本规划。该方法具备离线训练、测试时行为优化和任务无关性三大特性,通过预测未来补丁特征学习离线行为轨迹。实验表明,DINO-WM在迷宫导航、桌面推动等任务中表现出强大的泛化能力,无需依赖专家演示或奖励建模。论文地址:https://arxiv.org/pdf/2411.04983v1。
62 21
|
5月前
|
机器学习/深度学习 存储 监控
揭秘微调‘失忆’之谜:如何运用低秩适应与多任务学习等策略,快速破解灾难性遗忘难题?
【10月更文挑战第13天】本文介绍了几种有效解决微调灾难性遗忘问题的方法,包括低秩适应(LoRA)、持续学习和增量学习策略、记忆增强方法、多任务学习框架、正则化技术和适时停止训练。通过示例代码和具体策略,帮助读者优化微调过程,提高模型的稳定性和效能。
156 5
|
7月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
83 1
|
8月前
|
机器学习/深度学习 数据采集 搜索推荐
打开黑盒神经网络!港大推出全新会说话的推荐系统大模型XRec,从黑盒预测到可解释
【7月更文挑战第2天】港大研发XRec模型,将可解释性引入推荐系统。XRec结合大型语言模型的语义理解与协同过滤,生成推荐的文本解释,提升透明度。该模型无关设计允许与各类推荐系统配合,增强用户体验。然而,计算资源需求高、数据质量和用户理解能力可能影响其效果。[查看论文](https://arxiv.org/pdf/2406.02377)**
101 11
|
10月前
|
机器学习/深度学习 自然语言处理 搜索推荐
【传知代码】图神经网络长对话理解-论文复现
在ACL2023会议上发表的论文《使用带有辅助跨模态交互的关系时态图神经网络进行对话理解》提出了一种新方法,名为correct,用于多模态情感识别。correct框架通过全局和局部上下文信息捕捉对话情感,同时有效处理跨模态交互和时间依赖。模型利用图神经网络结构,通过构建图来表示对话中的交互和时间关系,提高了情感预测的准确性。在IEMOCAP和CMU-MOSEI数据集上的实验结果证明了correct的有效性。源码和更多细节可在文章链接提供的附件中获取。
121 4
【传知代码】图神经网络长对话理解-论文复现
|
10月前
|
机器学习/深度学习
药物分子设计新策略,微软条件扩散模型DiffLinker登Nature子刊
【5月更文挑战第5天】微软研究院在Nature子刊发表新成果,提出药物分子设计模型DiffLinker。该深度学习模型利用扩散过程生成具有特定化学性质的分子结构,优化药物效能。DiffLinker能加速设计过程,提高效率,但需大量数据训练,且生成结果可能受数据偏差影响。[[1](https://www.nature.com/articles/s42256-024-00815-9)]
94 2
|
机器学习/深度学习 自然语言处理 算法
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
111 0
|
机器学习/深度学习
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
143 0
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》