7月最受欢迎AI研究榜单出炉,马毅最新「标准模型」排名第9

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 7月最受欢迎AI研究榜单出炉,马毅最新「标准模型」排名第9
【新智元导读】近日,有Reddit网友整理了一份七月最受欢迎的AI研究榜单,快来看看都有哪些重量级研究~


七月最受欢迎的AI研究榜单出炉啦!

 

这份由Reddit网友@bycloudai整理的榜单,根据推特点赞、转发和Github星数排序,列入了2022年七月排名前十的AI研究,其中包括DeepMind、Google、MIT CSAIL等知名机构。

 

 

下面一起来看看上榜的都是何方大佬~

 

TOP1: Formal Algorithms for Transformers

 

作者:Mary Phuong,Marcus Hutter

机构:DeepMind

 

 

摘要:本文旨在成为一个独立的、数学上精确的Transformer架构和算法概述。它涵盖了Transformer是什么、它们是如何训练的、它们的用途、它们的关键架构组件以及最突出的模型的预览。

 

Top2:Confident Adaptive Language Modeling

 

作者:Tal Schuster, Adam Fisch, Jai Gupta, Mostafa Dehghani, Dara Bahri, Vinh Q Tran, Yi Tay, Donald Metzler

机构:谷歌,MIT CSAIL

 

 

摘要:基于Transformer 的大型语言模型 (LLM) 的最新进展已推动许多任务的性能显著提高。然而性能提升的同时模型的大小也在急剧增加,这可能导致推理过程复杂以及成本增加。然而在实践中,大型语言模型产生的一系列迭代是由不同程度的难度组成的。

 

在这项工作中,我们介绍了 Confident Adaptive Language Model-ing (CALM),这是一个动态分配不同数量的计算机输入和生成时长的框架。


早期退出解码涉及我们在这里解决的几个问题,例如:(1)使用什么置信度度量;(2) 将序列级约束与本地token的退出决策联系起来;(3) 回溯由于先前token提前退出而丢失的隐藏表示。通过对三种不同文本生成任务的理论分析和实验,我们证明了我们的框架在减少计算方面的功效——潜在加速高达3倍,同时可保持高性能。

 

Top3:Language Models (Mostly) Know What They Know

作者:Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan等

机构:Anthropic

 

 

摘要:本文研究了语言模型是否可以评估自己主张的有效性并预测他们将能够正确回答哪些问题。我们首先表明,当以正确的格式提供较大的模型时,它们可以很好地针对各种多项选择和真/假问题进行校准。因此,我们可以通过要求模型首先提出答案,然后评估其答案正确的概率P(True)来对开放式抽样任务进行自我评估。

 

我们发现 P(True) 在各种任务中的性能、校准和缩放都令人兴奋。当我们允许模型在预测一种特定可能性的有效性之前考虑许多自己的样本时,自我评估的性能会进一步提高。接下来,我们研究是否可以训练模型来预测P(IK),即「我知道问题的答案」的概率,而不参考任何特定的建议答案。

 

Top4:YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time objectdetectors

 

作者:Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao

机构:Institute of Information Science, Academia Sinica

 

 

Top5:Language Model Cascades

 

作者:David Dohan, Winnie Xu, Aitor Lewkowycz等

机构:谷歌

 

 

Top6:Collaborative Neural Rendering using AnimeCharacter Sheets

 

作者:Zuzeng Lin, Ailin Huang, Zhewei Huang等

机构:武汉大学,旷视科技

 

 

Top7:Neural Networks and the Chomsky Hierarchy

 

作者:Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein等

机构:DeepMind

 

 

Top8:Language modelling with Pixels

 

作者:Phillip Rust, Jonas F. Lotz, Emanuele Bugliarello等

机构:哥本哈根大学,约翰霍普金斯大学,乌普萨拉大学

 

 

Top9: On the Principles of Parsimony and Self-Consistencyfor the Emergence of Intelligence

 

作者:马毅,曹颖,沈向洋

机构:加利福尼亚大学伯克利分校,粤港澳大湾区数字经济研究院

 

 

这篇论文是马毅教授联手计算机科学家沈向洋博士、神经科学家曹颖教授发表的一篇对人工智能出现及发展的研究综述,堪称对近70年来AI发展的提纲挈领之作。


Top10:Scaling Laws vs Model Architectures:How does Inductive Bias Influence Scaling

 

作者:Yi Tay, Mostafa Dehghani, Samira Abnar

机构:谷歌,DeepMind

 

 

看完了Top10的各方大佬的论文,再来说说这次榜单有趣的几个细节。

 

众所周知,推特点赞是可以用机器人刷的,作者用点赞数作为榜单的关键指标确实有待商榷。

 

 

另外,此前呼声极高的「无限视觉生成模型NUWA-Infinity」在推特点赞数方面只排在第12位,但Github星数已超过2.4k。

由于NUWA Infinity早在2021年11月就发布了首个版本,而本次榜单只计入了之后的第二版的点赞数,因此只排在第12位。

相关文章
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
当大火的文图生成模型遇见知识图谱,AI画像趋近于真实世界
本文介绍了阿里云机器学习PAI团队开发的名为ARTIST的中文文图生成模型,该模型融合了知识图谱信息,能够生成更加符合常识的图像。ARTIST基于Transformer架构,将文图生成任务分为图像矢量量化和文本引导的图像序列生成两个阶段。在第一阶段,模型使用VQGAN对图像进行矢量量化;在第二阶段,通过GPT模型并结合知识图谱中的实体知识来生成图像序列。在MUGE中文文图生成评测基准上,ARTIST表现出色,其生成效果优于其他模型。此外,EasyNLP框架提供了简单易用的接口,用户可以基于公开的Checkpoint进行少量领域相关的微调,实现各种艺术创作。
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
ai大模型
【5月更文挑战第20天】ai大模型
8 0
|
6天前
|
人工智能 NoSQL atlas
Fireworks AI和MongoDB:依托您的数据,借助优质模型,助力您开发高速AI应用
我们欣然宣布MongoDB与 Fireworks AI 正携手合作让客户能够利用生成式人工智能 (AI)更快速、更高效、更安全地开展创新活动
2548 1
|
6天前
|
人工智能 vr&ar
[译][AI Research] AI 模型中的“it”是数据集
模型效果的好坏,最重要的是数据集,而不是架构,超参数,优化器。
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
大模型和传统ai的区别
在人工智能(AI)领域,大模型一直是一个热议的话题。从之前的谷歌 DeepMind、百度 Big. AI等,再到今天的百度GPT-3,人工智能技术经历了从“有”到“大”的转变。那么,大模型与传统 ai的区别在哪里?这对未来人工智能发展会产生什么影响?
|
6天前
|
人工智能 监控 安全
在园区引入AI大模型
5月更文挑战第5天
20 0
|
6天前
|
存储 机器学习/深度学习 人工智能
RAG:AI大模型联合向量数据库和 Llama-index,助力检索增强生成技术
RAG:AI大模型联合向量数据库和 Llama-index,助力检索增强生成技术
RAG:AI大模型联合向量数据库和 Llama-index,助力检索增强生成技术
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
对大模型和AI的认识与思考
2023年,笔者也参与了各种学习和实践,从大语言模型、多模态算法,文生图(Stable Diffusion)技术,到prompt工程实践和搭建文生图(Stable Diffusion)webui实操环境。在此对谈谈对大模型和AI的认识与思考,是为总结。5月更文挑战第3天
32 1
|
6天前
|
机器学习/深度学习 人工智能
超越Sora极限,120秒超长AI视频模型诞生!
【5月更文挑战第1天】 StreamingT2V技术突破AI视频生成界限,实现120秒超长连贯视频,超越Sora等传统模型。采用自回归方法,结合短期记忆的条件注意模块和长期记忆的外观保持模块,保证内容连贯性和动态性。在实际应用中,展示出优秀的动态性、连贯性和图像质量,但仍有优化空间,如处理复杂场景变化和连续性问题。[链接](https://arxiv.org/abs/2403.14773)
33 3
|
6天前
|
人工智能 前端开发 算法
参加完全球开发者大会之后,我一个小前端尝试使用了一些AI模型
参加完全球开发者大会之后,我一个小前端尝试使用了一些AI模型