ACL 2024:对25个开闭源模型数学评测,GPT-3.5-Turbo才勉强及格

简介: 【8月更文挑战第6天】在ACL 2024会议上,研究人员提出GSM-Plus对抗性基准,旨在评估大型语言模型(LLMs)如GPT-3.5-Turbo在数学推理上的鲁棒性。通过对25个模型和4种提示技术的测试,结果显示模型们虽能在标准GSM8K数据集上取得好成绩,但在遇到问题变异时表现欠佳,提示技术提升作用有限,揭示了LLMs在数学理解深度上的局限。论文详述了这一发现及其对未来研究的意义。

在人工智能领域,大型语言模型(LLMs)在各种数学推理基准测试中取得了令人印象深刻的成绩。然而,关于这些模型是否真正理解和应用数学知识,还是仅仅依赖于数学推理的捷径,存在着越来越多的争议。为了评估LLMs在数学推理方面的鲁棒性,香港大学和腾讯AI实验室的研究人员引入了一种名为GSM-Plus的对抗性基准测试,该测试基于GSM8K数据集,并增加了各种数学扰动。

数学推理被认为是人工智能发展的关键指标之一,它要求对问题有深入的理解、策略的制定和计算能力的执行。LLMs在各种数学基准测试中表现出色,包括GSM8K、MATH和Theoremqa等。然而,研究人员对这些模型是否真正理解数学知识或仅仅基于表面模式解决问题提出了质疑。

为了评估LLMs在数学推理方面的鲁棒性,研究人员引入了GSM-Plus基准测试。该测试基于GSM8K数据集,并增加了各种数学扰动,以测试模型在面对问题变化时的应对能力。研究人员使用25个LLMs和4种提示技术进行了实验,结果显示,尽管LLMs在数学推理方面表现出不同的能力水平,但它们的性能远非鲁棒。

实验结果表明,LLMs在解决GSM8K问题时表现出色,但在解决GSM-Plus中的变异问题时却遇到了困难。具体来说,当问题中添加了新的陈述或目标被改变时,LLMs可能会犯错误。此外,研究人员还发现,现有的提示技术在提高模型的鲁棒性方面效果有限。

这项研究的主要贡献在于引入了GSM-Plus基准测试,该测试能够系统地评估LLMs在数学推理方面的鲁棒性。通过这个测试,研究人员揭示了LLMs在数学推理方面的局限性,并强调了提高模型鲁棒性的重要性。

尽管这项研究取得了重要的成果,但也存在一些局限性。首先,GSM-Plus基准测试只涵盖了有限的数学问题类型,可能无法全面评估LLMs的数学推理能力。其次,研究人员只使用了特定的提示技术,而没有探索其他可能提高模型鲁棒性的方法。

未来的研究方向可以包括扩展GSM-Plus基准测试以涵盖更广泛的数学问题类型,以及探索其他可能提高模型鲁棒性的技术,如知识蒸馏和模型压缩。此外,研究人员还可以探索如何将LLMs与其他类型的模型(如符号推理引擎)相结合,以进一步提高数学推理能力。

论文地址:https://arxiv.org/pdf/2402.19255

目录
相关文章
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
48 2
|
8天前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
29 4
|
1月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
525 10
|
2月前
|
人工智能 自然语言处理
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]
60 1
|
19天前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
110 60
|
2月前
|
知识图谱
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
|
12天前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
33 6
|
2月前
长上下文能力只是吹牛?最强GPT-4o正确率仅55.8%,开源模型不如瞎蒙
【8月更文挑战第10天】新研究NoCha挑战显示,即使是顶级的大型语言模型GPT-4o,在处理长篇幅文本时正确率仅55.8%,低于人类直观水平。该挑战基于近作英文小说,检验模型对整本书信息的理解与推理能力。结果显示,模型在全局推理上的表现不佳,倾向于依赖局部信息而非整体上下文,尤其是在复杂推理需求高的科幻小说上表现更弱。这一发现揭示了当前模型在处理长上下文任务上的局限性。论文链接: [https://arxiv.org/pdf/2406.16264](https://arxiv.org/pdf/2406.16264)。
121 65
|
2月前
|
人工智能
ECCV 2024:让GPT-4图像理解更易出错,全新策略增强VLP模型对抗迁移性
【8月更文挑战第13天】在AI领域,视觉语言预训练(VLP)模型展现出了强大的图像与文本理解能力,但也易受多模态对抗样本攻击。为此,研究者提出了Cross-Clean-Adversarial Regional Diversification (CCAR-Div)策略,通过增强对抗样本多样性以提升VLP模型的对抗迁移性。此策略在对抗轨迹交集区域采样,增加样本多样性,并利用模态交互作用。经Flickr30K和MSCOCO数据集验证,CCAR-Div能有效提高跨模型与跨任务场景下的对抗迁移性,如使用ALBEF生成的对抗样本攻击TCL时,成功率高达95.58%。
132 60
|
14天前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
31 0

热门文章

最新文章