大脑分层预测让大模型更卷!Meta最新研究登Nature子刊

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 大脑分层预测让大模型更卷!Meta最新研究登Nature子刊



 新智元报道  

编辑:Ellie 桃子

【新智元导读】近日,Nature子刊发表Meta最新研究成果,揭示目前的语言模型与人类大脑的差异,或将为开发更强大的生成式AI提供启示。


1000亿个神经元,每个神经元有8000个左右的突触,大脑的复杂结构为人工智能研究带来启发。

当前,多数深度学习模型的架构,便是一种受生物大脑神经元启发的人工神经网络。

生成式AI大爆发,可以看到深度学习算法在生成、总结、翻译和分类文本的能力越来越强大。

然而,这些语言模型仍然无法与人类的语言能力相匹配。

恰恰预测编码理论(Predictive coding)为这种差异提供了一个初步的解释:

虽然语言模型可以预测附近的词,但人脑会不断预测跨越多个时间尺度的表征层次。

为了验证这一假设,Meta AI的科学家分析了304位听完短篇故事的人的大脑功能磁共振成像信号。

得出结论是,分层预测编码在语言处理中发挥至关重要的作用。

与此同时,研究说明了神经科学和人工智能之间的协同作用如何能够揭示人类认知的计算基础。

最新研究已发表在Nature子刊Nature Human Behavior上。

论文地址:https://www.nature.com/articles/s41562-022-01516-2

值得一提的是,实验过程中用上了GPT-2,说不定未来这一研究能够启发到OpenAI未开源的模型。

到时候ChatGPT岂不是更强了。

大脑预测编码分层


不到3年的时间,深度学习在文本生成、翻译等方面取得重大进展,要归功于一个训练有素的算法:根据附近语境预测单词。

值得注意的是,这些模型的激活已被证明可以线性地映射到大脑对语音和文字的反应上。

此外,这种映射主要取决于算法预测未来单词的能力,因此表明这一目标足以使它们收敛到类似大脑的计算。

然而,这些算法和大脑之间仍然存在着差距:尽管有大量的训练数据,但目前的语言模型在长篇故事生成、总结和连贯对话以及信息检索方面遇到挑战。

因算法无法捕捉一些句法结构和语义属性,而且对语言的理解也很肤浅。

比如,算法倾向于将动词错误地分配给嵌套短语中的主语。

「the keys that the man holds ARE here」

同样,当文本生成只针对下一个词的预测进行优化时,深度语言模型会生成平淡无奇、不连贯的序列,或者会陷入无限重复的循环中。

当前,预测编码理论为这一缺陷提供了一个潜在的解释:

虽然深层语言模型主要是为了预测下一个词,但这个框架表明,人脑可以在多个时间尺度和皮层层次的表征上进行预测。

此前研究已经证明了大脑中的语音预测,即一个词或音素,与功能磁共振成像(fMRI),脑电图,脑磁图和皮质电图相关联。

为预测下一个单词或音素而训练的模型,可以将其输出简化为一个数字,即下一个符号的概率。

然而,预测表征的性质和时间范围在很大程度上是未知的。

在这项研究中,研究人员提取了304个人的fMRI信号,让每个人听约26分钟的短篇小说 (Y) ,并且输入相同内容激活语言算法 (X)。

然后,通过「大脑分数」量化X和Y之间的相似性,即最佳线性映射W后的皮尔逊相关系数(R)。

为了测试添加预测单词的表示是否改善了这种相关性,将网络的激活 (黑色矩形 X) 连接到预测窗口 (彩色矩形~X) ,再使用PCA将预测窗口的维数降低到X的维数。

最后F量化了通过通过增强语言算法对该预测窗口的激活而获得的大脑得分增益。我们用不同的距离窗口重复这个分析(d)。

通过用跨越多个时间尺度的预测,即远距离预测和分层预测,来增强这些算法,发现可以改善这种大脑映射。

最后,实验结果发现这些预测是分层组织的:额叶皮层比颞叶皮层预测更高层次、更大范围和更多的上下文表征。

实验结果


深度语言模型映射到大脑活动中


科研人员定量了研究输入内容相同时深度语言模型和大脑之间的相似性。

使用Narratives数据集,分析了304个听短故事的人的fMRI(功能性磁共振成像)。

对每个体素和每个实验个体的结果进行独立的线性岭回归,以预测由几个深度语言模型激活而得到的fMRI信号。

使用保留的数据计算了相应的 「大脑分数」,即fMRI信号和输入指定语言模型刺激所得的岭回归预测结果之间的相关性。

为清晰起见,首先关注GPT-2第八层的激活,这是一个由HuggingFace2提供的12层因果深度神经网络,最能预测大脑活动。

与以前的研究一致,GPT-2的激活结果准确地映射到一组分布式双边大脑区域,大脑分数在听觉皮层和前颞区和上颞区达到高峰。

大脑中的长距离预测


Meta团队接着测试了增强对具有长距离预测功能的语言模型的刺激是否能使其获得更高的大脑分数。

对于每个词,研究人员将当前词的模型激活和一个由未来词组成「预测窗口」连接起来。预测窗口的表示参数包括表示当前词和窗口中最后一个未来词之间距离的d和所串联词数量的w。对于每个d,比较有和没有预测表征时的大脑分数,计算「预测分数」。

结果显示,d=8时预测分数最高,峰值出现在与语言处理有关的大脑区域。

d=8对应于3.15秒的音频,即两个连续的fMRI扫描的时间。预测分数在大脑中呈双边分布,除了额叶下部和边缘上回。

通过补充分析,团队还得到如下结果:(1)与当前词距离0到10的每个未来词都对预测结果有明显贡献;(2)预测表征最好用8个左右的词的窗口大小来捕捉;(3)随机预测表征不能提高大脑得分;(4)比起真正的未来词,GPT-2生成的词能够取得类似的结果,但得分较低。

预测的时间范围沿着大脑的层次发生变化


解剖学和功能学研究都表明,大脑皮层分层次的。不同层次的皮层,预测的时间窗口是否相同呢?

研究人员估计了每个体素预测分数的峰值,将其对应的距离表示为d。

结果显示,前额叶区的预测峰值出现时对应的d平均而言要大于颞叶区(图2e),颞下回的d就要大于颞上沟。

最佳预测距离沿颞-顶-额轴的变化在大脑两个半球上基本是对称的。

句法和语义预测的时间范围不同


对于每个词及其前文语境,生成十个可能的未来词,这与真正未来词的句法相匹配。对于每个可能的未来词,提取相应的GPT-2激活并取其平均值。这种方法能够将给定语言模型激活分解为句法成分和语义成分,从而计算其各自的预测分数。

结果显示,语义预测是长距离的(d = 8),涉及一个分布式网络,在额叶和顶叶达到峰值,而句法预测的范围较短(d = 5),集中在上颞区和左额区。

这些结果揭示了大脑中多层次的预测,其中上颞皮层主要预测短期、浅层和句法表征,而下额叶和顶叶区域主要预测长期、上下文、高层和语义表征。

预测的背景沿着大脑层次变得更复杂


仍按照之前的方法计算预测分数,但改变了GPT-2的使用层,为每个体素确定k,即预测分数最大化的深度。

我们的结果表明,最佳预测深度沿着预期的皮质层次而变化,联想皮层比低级语言区有更深的预测的最佳模型。区域之间的差异虽然平均很小,但在不同的个体中是非常明显的。

总的来说,额叶皮层的长程预测比低水平脑区的短期预测背景更复杂,水平更高。

将GPT-2调整为预测性编码结构


将GPT-2的当前词和未来词的表征串联起来可以得到更好的大脑活动模型,特别是在额叶区。

对GPT-2进行微调以预测距离更远、背景更丰富、层次更高的表征,能否改善这些区域的大脑映射呢?

在调整中,不仅使用了语言建模,还使用了高层次和长距离的目标,这里的高层次目标是预训练的GPT-2模型的第8层。

结果显示,用高层次和远距离建模对进行GPT-2微调最能改善额叶的反应,而听觉区和较低层次的脑区并没有从这种高层次的目标中明显受益,进一步反映了额叶区在预测语言的长程、语境和高层次表征方面的作用。

参考资料:https://www.nature.com/articles/s41562-022-01516-2


相关文章
|
6月前
|
机器学习/深度学习 人工智能 算法
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
【4月更文挑战第12天】斯坦福大学研究团队在Nature子刊发表论文,展示人工智能如何从300亿个分子中筛选出6种新型抗生素候选分子,为抗药性问题提供新解决方案。利用深度学习算法,AI模型考虑化学结构及合成可行性,发现独特化合物,加速药物研发。然而,成功应用还需临床试验验证及克服安全性和耐药性挑战。AI技术在药物设计中的角色引起关注,强调平衡使用与基础科学研究的重要性。
58 1
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
|
21天前
|
计算机视觉
ECCV2024 Oral:第一视角下的动作图像生成,Meta等提出LEGO模型
【10月更文挑战第25天】Meta公司提出了一种名为LEGO的新模型,旨在从第一视角生成动作图像,以促进技能传递。LEGO结合了视觉大型语言模型和扩散模型,通过微调和生成技术,实现了更准确的动作图像生成。该研究已在ECCV2024上被选为口头报告。
24 2
|
2月前
|
人工智能 自然语言处理 算法
GPT-4无师自通预测蛋白质结构登Nature子刊!LLM全面进军生物学,AlphaFold被偷家?
【9月更文挑战第17天】近日,《自然》子刊发表的一篇论文展示了GPT-4在预测蛋白质结构方面的惊人能力,这一突破不仅揭示了大型语言模型在生物学领域的巨大潜力,还可能影响传统预测工具如AlphaFold的地位。研究人员发现,GPT-4仅通过自然语言处理就能准确预测蛋白质的三维结构,包括常见的氨基酸序列和复杂的α-螺旋结构。实验结果显示,其预测精度与实际结构非常接近。这一成果意味着自然语言处理技术也可应用于生物学研究,但同时也引发了关于其局限性和对现有工具影响的讨论。论文详情见:https://www.nature.com/articles/s41598-024-69021-2
52 8
|
3月前
|
机器学习/深度学习 自然语言处理
准确率达60.8%,浙大基于Transformer的化学逆合成预测模型,登Nature子刊
【8月更文挑战第29天】浙江大学团队在《Nature》子刊上发表的论文介绍了一款名为EditRetro的基于Transformer架构的化学逆合成预测模型,其准确率高达60.8%,为化学合成领域带来了革命性的变化。此模型无需依赖传统化学反应模板,具备更强的泛化能力和多样化合成路线生成能力,在药物研发和材料科学领域展现出巨大潜力,尽管仍存在一定的错误率和计算资源需求高等挑战。论文详情见:https://www.nature.com/articles/s41467-024-50617-1。
57 3
|
4月前
|
人工智能 算法 数据挖掘
语义熵识破LLM幻觉!牛津大学新研究登Nature
【7月更文挑战第22天】牛津大学研究者在Nature发布"使用语义熵检测大模型幻觉"。语义熵新方法有效识别大模型(LLMs)生成的不实或误导信息,通过聚类分析不同回答的语义等价性并计算概率,展示超越基线的幻觉检测能力,提升LLMs的可靠性。
148 7
|
6月前
|
机器学习/深度学习 人工智能
辉瑞 AI 方法登 Science,揭示数以万计的配体-蛋白质相互作用
【5月更文挑战第15天】辉瑞研究人员在《Science》发表论文,利用深度学习模型PLIN预测和分析数以万计的蛋白质-配体相互作用,有望加速药物研发,提高药物效果和安全性。实验显示模型在1000多对数据上表现良好,但对复杂相互作用和泛化能力仍有待改进。[链接](https://www.science.org/doi/10.1126/science.adk5864)
51 3
|
6月前
|
机器学习/深度学习
药物分子设计新策略,微软条件扩散模型DiffLinker登Nature子刊
【5月更文挑战第5天】微软研究院在Nature子刊发表新成果,提出药物分子设计模型DiffLinker。该深度学习模型利用扩散过程生成具有特定化学性质的分子结构,优化药物效能。DiffLinker能加速设计过程,提高效率,但需大量数据训练,且生成结果可能受数据偏差影响。[[1](https://www.nature.com/articles/s42256-024-00815-9)]
67 2
|
存储 人工智能 自然语言处理
全方位分析大模型参数高效微调,清华研究登Nature子刊(3)
全方位分析大模型参数高效微调,清华研究登Nature子刊
226 0
|
机器学习/深度学习 存储 自然语言处理
全方位分析大模型参数高效微调,清华研究登Nature子刊(1)
全方位分析大模型参数高效微调,清华研究登Nature子刊
1071 0
|
自然语言处理 物联网 异构计算
全方位分析大模型参数高效微调,清华研究登Nature子刊(2)
全方位分析大模型参数高效微调,清华研究登Nature子刊
238 0

热门文章

最新文章

下一篇
无影云桌面