ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力

简介: 【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。

最近,一篇荣获ACL杰出论文奖的研究引起了广泛关注。该研究由约翰斯•霍普金斯大学(JHU)等机构联合发布,旨在解决当前大模型在心智能力上的缺陷。他们提出了首个多模态心智理论(ToM)测试集——MMToM-QA,为全面提升大模型的心智能力提供了新的思路和方法。

心智理论(ToM)是指理解他人心理状态的能力,包括信念、愿望、意图等。它是人类社交智能的重要组成部分,对于机器与人类进行自然交互至关重要。然而,尽管近年来机器学习模型,尤其是大型语言模型,在ToM理解方面取得了一些进展,但现有的ToM基准测试集都是单模态的,要么基于视频,要么基于文本。这与人类ToM的灵活性和多样性相去甚远。

为了解决这个问题,研究人员引入了MMToM-QA,一个多模态ToM问答基准测试集。它不仅包含多模态数据,还包含关于个人在家庭环境中活动的不同类型的单模态数据。通过这种方式,MMToM-QA能够更全面地评估机器的ToM能力。

为了实现多模态ToM能力,研究人员提出了一种名为BIP-ALM(基于贝叶斯逆规划的语言模型加速)的新颖方法。BIP-ALM从多模态数据中提取统一表示,并利用语言模型进行可扩展的贝叶斯逆规划。这种方法结合了基于模型的心理推理和语言模型的力量,有望在多模态ToM任务中取得更好的性能。

为了评估BIP-ALM的效果,研究人员进行了系统性的比较实验,包括人类性能、BIP-ALM以及最先进的模型,如GPT-4。实验结果表明,尽管大型语言模型和大型多模态模型在ToM能力上取得了一定的进展,但它们仍然缺乏稳健的ToM能力。相比之下,BIP-ALM展现出了令人鼓舞的结果,表明通过结合基于模型的心理推理和语言模型的力量,可以实现更强大的ToM能力。

然而,这项研究也存在一些局限性。首先,MMToM-QA主要关注个人在家庭环境中的活动,可能无法完全代表真实世界中的所有情况。其次,BIP-ALM的性能仍然有待进一步提升,以达到与人类相媲美的水平。此外,将BIP-ALM应用于实际场景时,可能还需要解决一些技术挑战,如数据隐私和计算资源等。

论文地址: https://arxiv.org/abs/2401.08743

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 编解码
OpenAI 最新多模态图像生成模型 GPT-image-1:一句话生成商业图+智能修图
GPT-image-1是OpenAI推出的新一代多模态图像生成模型,通过API提供专业级图像生成与编辑能力,支持多种分辨率、格式和艺术风格定制。
313 10
OpenAI 最新多模态图像生成模型 GPT-image-1:一句话生成商业图+智能修图
|
2月前
|
机器学习/深度学习 人工智能 自动驾驶
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
英伟达推出的DAM-3B多模态大语言模型,通过创新的焦点提示技术和局部视觉骨干网络,实现了对图像和视频中特定区域的精准描述生成,为内容创作和智能交互领域带来全新可能。
252 0
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
|
18天前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
|
1月前
|
机器学习/深度学习 人工智能 监控
实战 | Qwen3大模型微调入门实战(完整代码)
Qwen3是阿里通义实验室最近开源的大语言模型,发布时便登顶了开源LLM榜单第一名。同时,Qwen系列模型也超越LLaMA,成为了开源模型社区中最受欢迎的开源LLM。
1438 23
|
16天前
|
机器学习/深度学习 编解码 文字识别
小米又放大招!MiMo-VL 多模态大模型开源,魔搭推理微调全面解读来了!
今天,小米开源发布两款 7B 规模视觉-语言模型 MiMo-VL-7B-SFT 和 MiMo-VL-7B-RL。
188 9
|
24天前
|
机器学习/深度学习 人工智能 关系型数据库
通义 CoGenAV 大模型音画同步感知,重新定义语音理解边界
CoGenAV 是一种创新的多模态语音理解模型,核心理念是实现“音画同步”的深度理解。通过学习 audio-visual-text 的时序对齐关系,构建更鲁棒、更通用的语音表征框架。它在视觉语音识别(VSR)、音视频语音识别(AVSR)、语音增强与分离(AVSE/AVSS)及主动说话人检测(ASD)等任务中表现出色,尤其在嘈杂环境下性能显著提升。仅需 223 小时数据训练即可媲美传统数千小时数据的效果,大幅降低训练成本。CoGenAV 支持主流平台如 GitHub、HuggingFace 和 ModelScope,助力多场景应用开发。
|
24天前
|
人工智能 安全 Android开发
手机也能跑通义Qwen3大模型,手把手教你部署!
全球开源模型冠军Qwen3与端到端全模态模型Qwen2.5-Omni现已成功在手机上跑通!借助MNN支持,适配Android、iOS及桌面端,实现低延迟、本地化、高安全的AI体验。用户可通过自定义Sampler设置、System Prompt和Max New Tokens调节模型输出风格与长度。
|
2月前
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。

热门文章

最新文章