AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率

简介: 【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。

在人工智能领域,科学家们一直致力于开发能够辅助用户完成各种重要任务的AI代理,包括进行科学研究。然而,要推动这些AI代理的发展,我们需要具有挑战性的基准,这些基准不仅要与实际任务相关,还要能够直接反映现实世界中的任务。

最近,普林斯顿大学的研究人员提出了一个名为CORE-Bench(Computational Reproducibility Agent Benchmark)的基准,旨在衡量AI代理在科学研究领域中的准确性。这个基准主要关注于科学研究中的一个关键且具有挑战性的方面:计算可重复性。

计算可重复性是指使用作者提供的代码和数据来重现科学研究成果的能力。它是科学过程的基础,对于确保研究的可靠性和透明度至关重要。然而,最近的研究表明,在包括心理学、经济学、医学和计算机科学在内的各个领域中,计算可重复性都存在严重的问题。

许多研究论文提供了代码和数据,但这些代码和数据可能无法在其他环境中重现,或者可能存在其他问题,导致结果无法重现。这可能是由于软件库的版本未指定、研究人员使用不同的机器架构或操作系统、旧的库与新硬件不兼容,或者研究结果本身存在固有的变异性。

为了解决这个问题,普林斯顿大学的研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准。这个基准由270个任务组成,涵盖了90篇科学论文,涉及计算机科学、社会科学和医学三个领域。

每个任务都要求AI代理根据给定的代码和数据重现研究结果,并回答与这些结果相关的问题。这些问题可能涉及提取信息、与终端交互、检索和使用工具等技能。

CORE-Bench具有以下几个特点:

  1. 多样性:它涵盖了三个不同的领域,包括计算机科学、社会科学和医学,每个领域都有不同的挑战和要求。
  2. 难度级别:它包括三个不同的难度级别,从简单到困难,以评估AI代理在不同情况下的能力。
  3. 现实相关性:它基于实际的科学论文和代码库,因此与现实世界中的任务非常相关。
  4. 可扩展性:它基于公共代码库,因此可以定期更新,以反映最新的研究和技术发展。

研究人员使用CORE-Bench评估了两个基准AI代理:通用的AutoGPT和专门为计算可重复性任务设计的CORE-Agent。他们使用两个不同的语言模型(GPT-4o和GPT-4o-mini)作为这些代理的基础。

评估结果显示,即使是最好的代理,在最困难的任务上也只能达到21%的准确率。这表明在自动化计算可重复性方面,仍然存在很大的改进空间。

CORE-Bench的提出为AI代理在科学研究领域的发展提供了一个重要的基准。它具有现实相关性、多样性和难度级别等特点,可以帮助研究人员评估和改进他们的代理。

然而,CORE-Bench也存在一些局限性。首先,它只涵盖了三个领域,而科学研究领域要广泛得多。其次,它的任务可能无法完全代表现实世界中的所有情况和挑战。

尽管如此,CORE-Bench仍然是一个重要的工具,可以帮助推动AI代理在科学研究领域的发展,并提高计算可重复性的水平。通过使用这个基准,研究人员可以更好地理解他们的代理的能力和局限性,并找到改进的方法。

论文链接:https://arxiv.org/pdf/2409.11363v1

目录
相关文章
|
30天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
82 2
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
110 2
|
28天前
|
机器学习/深度学习 人工智能 安全
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
|
1月前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
68 6
|
1月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
52 4
|
1月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
39 6
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
54 1
|
2月前
|
存储 人工智能 算法
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
219 18
|
1月前
|
机器学习/深度学习 存储 人工智能
2024年诺贝尔奖:AI科学家的辉煌时刻 | AI大咖说
在今年的诺贝尔物理学奖和化学奖颁奖典礼上,AI科学家分别摘得了这两项殊荣,这无疑为AI技术的发展和应用注入了新的动力【10月更文挑战第5天】
64 0

热门文章

最新文章