NeurIPS 2024:解锁大模型知识记忆编辑的新路径,浙大用WISE对抗幻觉

简介: 在AI领域,大型语言模型(LLM)的发展带来了巨大便利,但如何高效更新模型知识以适应世界变化成为难题。浙江大学研究团队在NeurIPS 2024上提出的WISE方法,通过双参数化记忆方案及知识分片机制,有效解决了LLM知识更新中的可靠性、泛化性和局部性问题,显著提升了模型性能。

在人工智能领域,大型语言模型(LLM)的快速发展为我们带来了前所未有的便利。然而,随着模型规模的不断扩大,如何有效更新和编辑模型中的知识,以适应不断变化的世界事实,成为了一个亟待解决的问题。在即将召开的NeurIPS 2024会议上,浙江大学的研究团队提出了一种名为WISE的创新方法,旨在解决这一挑战。

LLM的强大能力源于其庞大的参数量和复杂的神经网络结构。然而,这也带来了一个问题:如何在不破坏原有知识体系的前提下,对模型进行知识更新。传统的方法主要有两种:直接编辑模型参数(长期记忆)或通过检索机制更新模型的非参数化知识(工作记忆)。然而,这两种方法都存在明显的局限性。

直接编辑模型参数可能会导致与无关预训练知识或先前编辑的冲突,从而影响模型的可靠性和局部性。而基于检索的激活方法则难以使模型真正理解编辑内容,从而影响其泛化能力。因此,如何在保证可靠性、泛化性和局部性的前提下,实现对LLM的知识更新,成为了一个“不可能三角”。

为了解决这一问题,浙江大学的研究团队提出了WISE方法。WISE的核心思想是设计一个双参数化记忆方案,包括一个主记忆(用于存储预训练知识)和一个侧记忆(用于存储编辑后的知识)。在进行知识更新时,WISE只编辑侧记忆中的内容,并通过训练一个路由器来决定在给定查询时使用哪个记忆。

此外,为了实现持续编辑,WISE还引入了一种知识分片机制。该机制将不同的编辑内容存储在参数的不同子空间中,并在需要时将它们合并到一个共享的记忆中,从而避免了冲突。

通过在问答、幻觉和分布外设置等多个任务上的广泛实验,研究团队证明了WISE方法的有效性。实验结果表明,WISE能够显著优于先前的模型编辑方法,并在不同LLM架构(如GPT、LLaMA和Mistral)上克服了“不可能三角”。

WISE方法的优势主要体现在以下几个方面:

  1. 可靠性:通过将编辑内容存储在侧记忆中,WISE避免了与预训练知识的冲突,从而提高了模型的可靠性。
  2. 泛化性:通过训练路由器来决定使用哪个记忆,WISE使模型能够更好地理解和泛化编辑内容。
  3. 局部性:通过知识分片机制,WISE将不同的编辑内容存储在不同的子空间中,从而实现了对编辑内容的局部控制。

论文链接: https://arxiv.org/abs/2405.14768

目录
相关文章
|
5月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
59 1
|
6月前
|
人工智能 算法 数据挖掘
语义熵识破LLM幻觉!牛津大学新研究登Nature
【7月更文挑战第22天】牛津大学研究者在Nature发布"使用语义熵检测大模型幻觉"。语义熵新方法有效识别大模型(LLMs)生成的不实或误导信息,通过聚类分析不同回答的语义等价性并计算概率,展示超越基线的幻觉检测能力,提升LLMs的可靠性。
195 7
|
6月前
|
机器学习/深度学习 数据采集 搜索推荐
打开黑盒神经网络!港大推出全新会说话的推荐系统大模型XRec,从黑盒预测到可解释
【7月更文挑战第2天】港大研发XRec模型,将可解释性引入推荐系统。XRec结合大型语言模型的语义理解与协同过滤,生成推荐的文本解释,提升透明度。该模型无关设计允许与各类推荐系统配合,增强用户体验。然而,计算资源需求高、数据质量和用户理解能力可能影响其效果。[查看论文](https://arxiv.org/pdf/2406.02377)**
80 11
|
8月前
|
机器学习/深度学习 人工智能
【论文速递】PeRConAI2022 - 使用教师助理的多阶段模型压缩和基于提示的训练的蒸馏
【论文速递】PeRConAI2022 - 使用教师助理的多阶段模型压缩和基于提示的训练的蒸馏
|
机器学习/深度学习 人工智能 算法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
152 0
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
|
机器学习/深度学习 数据采集 人工智能
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
277 0
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
|
机器学习/深度学习 计算机视觉
清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下
清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下
167 0
|
存储 机器学习/深度学习 自然语言处理
把Transformer当通用计算机用,还能执行in-context learning算法,这项研究脑洞大开
把Transformer当通用计算机用,还能执行in-context learning算法,这项研究脑洞大开
100 0
|
机器学习/深度学习 人工智能 自然语言处理
超越诺奖?生物界「ChatGPT」首次实现从零合成全新蛋白,登Nature子刊!喂了2.8亿种氨基酸序列
超越诺奖?生物界「ChatGPT」首次实现从零合成全新蛋白,登Nature子刊!喂了2.8亿种氨基酸序列
115 0