谁发表了最具影响力的AI研究?谷歌遥遥领先,OpenAI成果转化率完胜DeepMind(1)

简介: 谁发表了最具影响力的AI研究?谷歌遥遥领先,OpenAI成果转化率完胜DeepMind


统计了近三年引用量最高的 100 篇论文,我们发现……


谁在发表最具影响力的 AI 研究?在如今「百花齐放」的时代,这个问题极具挖掘空间。你可能会猜到一些结论:比如谷歌、微软、OpenAI、DeepMind 这些顶级机构,类似这样的结论只猜对了一半,还有另外一些信息,向我们揭露了原本不为人知的结论。随着 AI 创新的飞速发展,尽快获取一些「情报」是至关重要的。毕竟几乎没人有时间去阅读所有的东西,但可以肯定的是,本文整理的这些论文具备改变人工智能技术发展方向的潜力。对研发团队影响力的真正考验当然是技术如何落地在产品中,OpenAI 在 2022 年 11 月底发布了 ChatGPT,震撼了整个领域,这是继他们 2022 年 3 月的论文「利用人类反馈训练遵循指令的语言模型」(Training language models to follow instructions with human feedback)之后的又一次突破。如此迅速的产品落地是罕见的。所以,为了洞察到更多信息,近日,Zeta Alpha 的统计采用了一个经典的学术指标:


引用次数对 2022 年、2021 年和 2020 年每年被引用次数最多的 100 篇论文的详细分析,可以深入了解目前发表最具影响力的 AI 研究的机构和国家 / 地区。一些初步结论是:美国和谷歌仍然占主导地位,DeepMind 在这一年也取得了辉煌的成就,但考虑到产出量,OpenAI 在产品影响和研究方面确实处于前列,并能快速和广泛地被引用。

资料来源:Zeta Alpha。如上图所示,另外一个重要结论是:中国在研究引用量上的影响力排行第二,但与美国相比仍存在差距,并不像很多报道中描述的那样「追平甚至超越」。利用来自 Zeta Alpha 平台的数据,然后结合人工策划,本文收集了 2022 年、2021 年和 2020 年人工智能领域被引用次数最多的论文,并分析了作者的所属机构和国家 / 地区。这使得能够按照研发影响而不是纯粹的出版数据对这些论文进行排名。为了创建分析结果,本文首先在 Zeta Alpha 平台上收集了每年被引用次数最多的论文,然后手动检查首次发表日期(通常是 arXiv 预印本),以便将论文放在正确的年份中。然后通过在 Semantic Scholar 上挖掘高引用率的人工智能论文来补充这个名单,因为 Semantic Scholar 的覆盖面更广,而且能够按引用次数排序。这主要是发现了来自高影响力的出版商(如 Nature、Elsevier、Springer 和其他期刊)之外的论文。然后,将每篇论文在谷歌学术上的引用次数作为代表指标,并按这个数字对论文进行排序,得出一年中的前 100 名。对于这些论文,本文使用了 GPT-3 来提取作者、隶属机构和国家 / 地区,并手动检查这些结果(如果国家 / 地区在出版物中不明显,就采用该组织总部所在的国家 / 地区)。如果一篇论文有来自多个机构的作者,每个机构算一次。看了这份排行榜之后,大佬 Yann LeCun 表示很欣慰:「在 Meta AI,我们倾向于出版质量而不是数量。这就是为什么在 2022 年被引用最多的 100 篇人工智能论文中,Meta AI 撰写(或共同撰写)了 16 篇,仅次于谷歌的 22 篇,排名第二。我们的研究正在对社会产生巨大的影响。(此外,纽约大学的排名也很赞)。」所以,刚才谈论的这些 Top 论文有哪些?在深入了解这些数字之前,让我们先了解一下过去三年的热门论文。相信你会认出其中的几篇。2022 年热门论文

1、AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models



2、ColabFold: making protein folding accessible to all



3、Hierarchical Text-Conditional Image Generation with CLIP Latents


  • 论文链接:https://arxiv.org/abs/2204.06125
  • 机构:OpenAI
  • 引用次数:718
  • 主题:DALL・E 2, complex prompted image generation that left most in awe


4、A ConvNet for the 2020s


  • 论文链接:https://arxiv.org/abs/2201.03545
  • 机构:Meta,UC 伯克利
  • 引用次数:690
  • 主题:A successful modernization of CNNs at a time of boom for Transformers in Computer Vision


5、PaLM: Scaling Language Modeling with Pathways


  • 论文链接:https://arxiv.org/abs/2204.02311
  • 机构:谷歌
  • 引用次数:452
  • 主题:Google's mammoth 540B Large Language Model, a new MLOps infrastructure, and how it performs


2021 年热门论文1、《Highly accurate protein structure prediction with AlphaFold》


2、《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》


3、《Learning Transferable Visual Models From Natural Language Supervision》

  • 论文链接:https://arxiv.org/abs/2103.00020
  • 机构:OpenAI
  • 引用次数:3204
  • 主题:CLIP, image-text pairs at scale to learn joint image-text representations in a self supervised fashion


4、《On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?》

  • 论文链接:https://dl.acm.org/doi/10.1145/3442188.3445922
  • 机构:U. Washington, Black in AI, The Aether
  • 引用次数:1266
  • 主题:Famous position paper very critical of the trend of ever-growing language models, highlighting their limitations and dangers


5、《Emerging Properties in Self-Supervised Vision Transformers》

  • 论文链接:https://arxiv.org/pdf/2104.14294.pdf
  • 机构:Meta
  • 引用次数:1219
  • 主题:DINO, showing how self-supervision on images led to the emergence of some sort of proto-object segmentation in Transformers


2020 年热门论文1、《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》

  • 论文链接:https://arxiv.org/abs/2010.11929
  • 机构:谷歌
  • 引用次数:11914
  • 主题:The first work showing how a plain Transformer could do great in Computer Vision


2、《Language Models are Few-Shot Learners》


3、《YOLOv4: Optimal Speed and Accuracy of Object Detection》

  • 论文链接:https://arxiv.org/abs/2004.10934
  • 机构:Academia Sinica, Taiwan
  • 引用次数:8014
  • 主题:Robust and fast object detection sells like hotcakes


4、《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》

  • 论文链接:https://arxiv.org/abs/1910.10683
  • 机构:谷歌
  • 引用次数:5906
  • 主题:A rigorous study of transfer learning with Transformers, resulting in the famous T5


5、《Bootstrap your own latent: A new approach to self-supervised Learning》

  • 论文链接:https://arxiv.org/abs/2006.07733
  • 机构:DeepMind,Imperial College
  • 引用次数:2873
  • 主题:Showing that negatives are not even necessary for representation learning



相关文章
|
1月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
98 2
|
1月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
33 1
|
14天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
37 12
|
2月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
328 73
|
13天前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
1月前
|
人工智能 安全 决策智能
OpenAI推出实验性“Swarm”框架,引发关于AI驱动自动化的争论
OpenAI推出实验性“Swarm”框架,引发关于AI驱动自动化的争论
|
1月前
|
数据采集 人工智能 安全
CIO面临更快交付AI成果的压力
CIO面临更快交付AI成果的压力
|
1月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
39 6
|
1月前
|
人工智能 缓存 搜索推荐
OPENAI DevDay 2024:推动AI技术的新边界
在今年的OPENAI DevDay活动中,尽管形式更为低调,但OpenAI依然带来了四项令人瞩目的技术创新,展示了其在推动人工智能开发者生态方面的持续努力,以及向更高效、用户友好的AI工具转型的决心。我将为大家详细介绍这些新产品
150 10
|
1月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
45 2
下一篇
无影云桌面