MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率

简介: 【4月更文挑战第16天】研究人员集成12个大型语言模型(LLM)组成“硅基群体”,在预测比赛中与925名人类预测者对比。研究发现,LLM群体的预测准确性与人类群体无显著差异,且通过集成可抵消个体模型的偏差,提高预测准确。GPT-4和Claude 2等模型结合人类预测后,准确度提升17%至28%。然而,个别LLM预测精度不一,模型选择和校准度是提升预测性能的关键,同时LLM在时间跨度和现实场景适应性方面仍有挑战。

20.jpeg
在人工智能领域,大型语言模型(LLM)的预测能力一直是研究的热点。近期,由MIT、伦敦政治经济学院和宾夕法尼亚大学的研究人员共同开展的一项研究,首次深入探讨了集成多个LLM的预测能力,并与人类群体的预测准确性进行了比较。这项研究不仅验证了LLM在预测领域的潜力,也为未来的应用提供了新的思路。

研究团队通过构建一个由十二个不同LLM组成的“硅基群体”,并在一个为期三个月的预测比赛中,将这些模型的预测结果与925名人类预测者的预测结果进行了比较。研究的主要分析结果显示,LLM群体的预测准确性不仅超越了无信息基准,而且与人类群体的预测准确性没有统计学上的显著差异。这一发现表明,通过集成多个LLM的预测结果,可以实现与人类群体相媲美的预测准确性。

此外,研究还发现,尽管LLM群体的预测倾向于肯定的结果,但这种“ acquiescence bias”(顺从偏差)并未影响其整体的预测表现。这表明,即使存在个别模型的偏差,集成的方法仍然能够有效地平衡和减少这些偏差,从而提高整体的预测准确性。

在探索性分析中,研究团队还测试了将人类认知产出融入LLM预测更新过程的可能性。结果显示,通过接触人类群体的中位数预测,GPT-4和Claude 2两种前沿模型的预测准确性得到了提升,准确度提高了17%至28%。这一发现进一步证实了人类预测与LLM预测之间的互补性,以及集成方法在提高预测准确性方面的潜力。

然而,研究也指出了一些局限性和改进空间。首先,尽管LLM群体的预测准确性与人类群体相当,但在个别模型的预测准确性上仍存在显著差异。例如,Coral (Command)模型的表现就明显低于其他模型和人类群体。这表明,并非所有的LLM都同样适合于预测任务,模型的选择和优化仍然是提高预测准确性的关键因素。

其次,研究中的LLM群体虽然表现出了较好的预测准确性,但其预测的校准度却不尽如人意。大多数模型显示出过度自信的倾向,即它们对结果的预测概率高于实际发生的概率。这一点在未来的研究和应用中需要得到改进,因为长期的可靠性和准确性需要建立在良好的校准基础之上。

此外,研究还提出了关于LLM预测能力的一些开放性问题。例如,随着训练数据与预测时期的时间跨度增加,模型的预测准确性可能会下降,因为必要的背景知识可能不再容易获得。此外,研究中使用的预测问题都是精心策划的,而在现实世界中,可能无法获得同样中立和详细的背景信息和问题描述,这可能会对模型的表现产生影响。

论文链接:https://arxiv.org/pdf/2402.19379.pdf

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第17天】近日,谷歌、DeepMind等四大机构联合发布论文,展示大型语言模型(LLMs)在数学问题解决上的显著进步。通过引入元认知知识,研究人员开发了提示引导的交互程序,使LLMs能为数学问题分配合理技能标签并进行语义聚类。实验结果显示,GPT-4在GSM8K和MATH数据集上的准确性分别提升了11.6%和7.52%,展现出巨大潜力。这一成果不仅为AI领域提供了新思路,也为数学教育带来了启示。
42 4
|
2月前
|
人工智能 自然语言处理 数据库
基于RAG和LLM的水利知识问答系统研究
随着全球水资源紧张加剧,我国面临严峻的水资源管理挑战。《十四五规划》提出构建智慧水利体系,通过科技手段提升水情测报和智能调度能力。基于大语言模型(LLM)的水利智能问答系统,利用自然语言处理技术,提供高效、准确的水利信息查询和决策支持,助力水资源管理智能化。该系统通过RAG技术和Agent功能,实现了对水利知识的深度理解和精准回答,适用于水利知识科普、水务治理建议及灾害应急决策等多个场景,推动了水利行业的信息化和智能化发展。
|
2月前
|
机器学习/深度学习 人工智能
昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍
【10月更文挑战第11天】《自然》杂志最新研究介绍了一种新型忆阻器——线性对称自选14位动能分子忆阻器。该技术在神经网络训练和推理中表现出线性对称的权重更新、460倍于现有CPU的高能效及多级编程能力,有望大幅提升AI硬件的能源效率。尽管前景广阔,但仍需解决制造工艺复杂和环境影响等问题。
38 1
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
45 25
|
17天前
|
缓存 算法 关系型数据库
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理
麻省理工学院韩松团队提出DuoAttention框架,旨在提高大型语言模型(LLM)处理长上下文的效率。该框架通过区分检索头和流式头,仅对检索头应用全键值缓存,减少内存消耗和计算时间,同时保持模型长上下文处理能力。实验结果显示,DuoAttention在多种模型架构上显著提升了推理效率,为LLM的实际应用提供了新可能。
45 14
|
21天前
|
自然语言处理 算法
RAG真能提升LLM推理能力?人大最新研究:数据有噪声,RAG性能不升反降
随着大型语言模型(LLM)在自然语言处理领域的广泛应用,检索增强生成(RAG)技术因能引入新知识和减少幻觉而受到关注。然而,RAG对LLM推理能力的实际提升效果仍存争议。中国人民大学的一项研究表明,RAG虽能辅助LLM推理,但在处理含噪信息和深度推理时面临挑战。为此,研究团队提出了DPrompt tuning方法,旨在解决噪声问题并提升RAG性能。
44 12
|
1月前
|
JSON 数据可视化 NoSQL
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
本文介绍了LangChain的LLM Graph Transformer框架,探讨了文本到图谱转换的双模式实现机制。基于工具的模式利用结构化输出和函数调用,简化了提示工程并支持属性提取;基于提示的模式则为不支持工具调用的模型提供了备选方案。通过精确定义图谱模式(包括节点类型、关系类型及其约束),显著提升了提取结果的一致性和可靠性。LLM Graph Transformer为非结构化数据的结构化表示提供了可靠的技术方案,支持RAG应用和复杂查询处理。
121 2
基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第16天】最新研究显示,大型语言模型(LLMs)在数学问题解决上取得显著进展。谷歌、DeepMind等机构的研究人员通过引入元认知知识,使LLMs能更好地理解和解决数学问题,其在GSM8K和MATH数据集上的准确率分别提升了11.6%和7.52%。这一成果不仅为AI领域开辟了新路径,也为数学教育带来了新的可能性。
45 3
|
3月前
|
安全 测试技术
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!
【9月更文挑战第14天】麻省理工学院最近的研究揭示了大型语言模型(LLM)展现出的新潜能,其不仅能模仿真实环境,更在一定程度上理解并模拟程序在特定环境下的运作。通过使用Transformer模型并结合特定探测分类器,研究团队发现模型能逐步掌握程序的形式语义。为了验证这一发现,团队创建了一个独特的干预基准测试,进一步证实了模型的仿真能力,为世界模型的发展提供了新方向。尽管存在模型可能仅习得统计规律而非真正理解语义的争议,这项研究依然为理解复杂系统提供了新工具与视角。论文详情见:https://arxiv.org/abs/2305.11169。
47 1
|
2月前
|
Java Maven Docker
gitlab-ci 集成 k3s 部署spring boot 应用
gitlab-ci 集成 k3s 部署spring boot 应用

热门文章

最新文章

下一篇
DataWorks