7月最受欢迎AI研究榜单出炉,马毅最新「标准模型」排名第9

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 7月最受欢迎AI研究榜单出炉,马毅最新「标准模型」排名第9
【新智元导读】近日,有Reddit网友整理了一份七月最受欢迎的AI研究榜单,快来看看都有哪些重量级研究~


七月最受欢迎的AI研究榜单出炉啦!

 

这份由Reddit网友@bycloudai整理的榜单,根据推特点赞、转发和Github星数排序,列入了2022年七月排名前十的AI研究,其中包括DeepMind、Google、MIT CSAIL等知名机构。

 

 

下面一起来看看上榜的都是何方大佬~

 

TOP1: Formal Algorithms for Transformers

 

作者:Mary Phuong,Marcus Hutter

机构:DeepMind

 

 

摘要:本文旨在成为一个独立的、数学上精确的Transformer架构和算法概述。它涵盖了Transformer是什么、它们是如何训练的、它们的用途、它们的关键架构组件以及最突出的模型的预览。

 

Top2:Confident Adaptive Language Modeling

 

作者:Tal Schuster, Adam Fisch, Jai Gupta, Mostafa Dehghani, Dara Bahri, Vinh Q Tran, Yi Tay, Donald Metzler

机构:谷歌,MIT CSAIL

 

 

摘要:基于Transformer 的大型语言模型 (LLM) 的最新进展已推动许多任务的性能显著提高。然而性能提升的同时模型的大小也在急剧增加,这可能导致推理过程复杂以及成本增加。然而在实践中,大型语言模型产生的一系列迭代是由不同程度的难度组成的。

 

在这项工作中,我们介绍了 Confident Adaptive Language Model-ing (CALM),这是一个动态分配不同数量的计算机输入和生成时长的框架。


早期退出解码涉及我们在这里解决的几个问题,例如:(1)使用什么置信度度量;(2) 将序列级约束与本地token的退出决策联系起来;(3) 回溯由于先前token提前退出而丢失的隐藏表示。通过对三种不同文本生成任务的理论分析和实验,我们证明了我们的框架在减少计算方面的功效——潜在加速高达3倍,同时可保持高性能。

 

Top3:Language Models (Mostly) Know What They Know

作者:Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan等

机构:Anthropic

 

 

摘要:本文研究了语言模型是否可以评估自己主张的有效性并预测他们将能够正确回答哪些问题。我们首先表明,当以正确的格式提供较大的模型时,它们可以很好地针对各种多项选择和真/假问题进行校准。因此,我们可以通过要求模型首先提出答案,然后评估其答案正确的概率P(True)来对开放式抽样任务进行自我评估。

 

我们发现 P(True) 在各种任务中的性能、校准和缩放都令人兴奋。当我们允许模型在预测一种特定可能性的有效性之前考虑许多自己的样本时,自我评估的性能会进一步提高。接下来,我们研究是否可以训练模型来预测P(IK),即「我知道问题的答案」的概率,而不参考任何特定的建议答案。

 

Top4:YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time objectdetectors

 

作者:Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao

机构:Institute of Information Science, Academia Sinica

 

 

Top5:Language Model Cascades

 

作者:David Dohan, Winnie Xu, Aitor Lewkowycz等

机构:谷歌

 

 

Top6:Collaborative Neural Rendering using AnimeCharacter Sheets

 

作者:Zuzeng Lin, Ailin Huang, Zhewei Huang等

机构:武汉大学,旷视科技

 

 

Top7:Neural Networks and the Chomsky Hierarchy

 

作者:Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein等

机构:DeepMind

 

 

Top8:Language modelling with Pixels

 

作者:Phillip Rust, Jonas F. Lotz, Emanuele Bugliarello等

机构:哥本哈根大学,约翰霍普金斯大学,乌普萨拉大学

 

 

Top9: On the Principles of Parsimony and Self-Consistencyfor the Emergence of Intelligence

 

作者:马毅,曹颖,沈向洋

机构:加利福尼亚大学伯克利分校,粤港澳大湾区数字经济研究院

 

 

这篇论文是马毅教授联手计算机科学家沈向洋博士、神经科学家曹颖教授发表的一篇对人工智能出现及发展的研究综述,堪称对近70年来AI发展的提纲挈领之作。


Top10:Scaling Laws vs Model Architectures:How does Inductive Bias Influence Scaling

 

作者:Yi Tay, Mostafa Dehghani, Samira Abnar

机构:谷歌,DeepMind

 

 

看完了Top10的各方大佬的论文,再来说说这次榜单有趣的几个细节。

 

众所周知,推特点赞是可以用机器人刷的,作者用点赞数作为榜单的关键指标确实有待商榷。

 

 

另外,此前呼声极高的「无限视觉生成模型NUWA-Infinity」在推特点赞数方面只排在第12位,但Github星数已超过2.4k。

由于NUWA Infinity早在2021年11月就发布了首个版本,而本次榜单只计入了之后的第二版的点赞数,因此只排在第12位。

相关文章
|
1月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
87 2
|
1月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
32 1
|
12天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
35 12
|
11天前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
15天前
|
机器学习/深度学习 人工智能 机器人
何恺明新作出炉!异构预训练Transformer颠覆本体视觉学习范式,AI性能暴涨超20%
【10月更文挑战第29天】在机器人学习领域,训练通用模型面临数据异构性的挑战。近期研究“Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers”提出异构预训练Transformer(HPT),通过大规模预训练学习跨不同本体和任务的共享表示,显著提升了性能。实验结果显示,HPT在未见过的任务上表现优异,性能提升超过20%。
38 6
|
23天前
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
41 4
|
1月前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
69 6
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
52 4
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
57 1
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。

热门文章

最新文章