谁发表了最具影响力的AI研究?谷歌遥遥领先,OpenAI成果转化率完胜DeepMind(1)

简介: 谁发表了最具影响力的AI研究?谷歌遥遥领先,OpenAI成果转化率完胜DeepMind


统计了近三年引用量最高的 100 篇论文,我们发现……


谁在发表最具影响力的 AI 研究?在如今「百花齐放」的时代,这个问题极具挖掘空间。你可能会猜到一些结论:比如谷歌、微软、OpenAI、DeepMind 这些顶级机构,类似这样的结论只猜对了一半,还有另外一些信息,向我们揭露了原本不为人知的结论。随着 AI 创新的飞速发展,尽快获取一些「情报」是至关重要的。毕竟几乎没人有时间去阅读所有的东西,但可以肯定的是,本文整理的这些论文具备改变人工智能技术发展方向的潜力。对研发团队影响力的真正考验当然是技术如何落地在产品中,OpenAI 在 2022 年 11 月底发布了 ChatGPT,震撼了整个领域,这是继他们 2022 年 3 月的论文「利用人类反馈训练遵循指令的语言模型」(Training language models to follow instructions with human feedback)之后的又一次突破。如此迅速的产品落地是罕见的。所以,为了洞察到更多信息,近日,Zeta Alpha 的统计采用了一个经典的学术指标:


引用次数对 2022 年、2021 年和 2020 年每年被引用次数最多的 100 篇论文的详细分析,可以深入了解目前发表最具影响力的 AI 研究的机构和国家 / 地区。一些初步结论是:美国和谷歌仍然占主导地位,DeepMind 在这一年也取得了辉煌的成就,但考虑到产出量,OpenAI 在产品影响和研究方面确实处于前列,并能快速和广泛地被引用。

资料来源:Zeta Alpha。如上图所示,另外一个重要结论是:中国在研究引用量上的影响力排行第二,但与美国相比仍存在差距,并不像很多报道中描述的那样「追平甚至超越」。利用来自 Zeta Alpha 平台的数据,然后结合人工策划,本文收集了 2022 年、2021 年和 2020 年人工智能领域被引用次数最多的论文,并分析了作者的所属机构和国家 / 地区。这使得能够按照研发影响而不是纯粹的出版数据对这些论文进行排名。为了创建分析结果,本文首先在 Zeta Alpha 平台上收集了每年被引用次数最多的论文,然后手动检查首次发表日期(通常是 arXiv 预印本),以便将论文放在正确的年份中。然后通过在 Semantic Scholar 上挖掘高引用率的人工智能论文来补充这个名单,因为 Semantic Scholar 的覆盖面更广,而且能够按引用次数排序。这主要是发现了来自高影响力的出版商(如 Nature、Elsevier、Springer 和其他期刊)之外的论文。然后,将每篇论文在谷歌学术上的引用次数作为代表指标,并按这个数字对论文进行排序,得出一年中的前 100 名。对于这些论文,本文使用了 GPT-3 来提取作者、隶属机构和国家 / 地区,并手动检查这些结果(如果国家 / 地区在出版物中不明显,就采用该组织总部所在的国家 / 地区)。如果一篇论文有来自多个机构的作者,每个机构算一次。看了这份排行榜之后,大佬 Yann LeCun 表示很欣慰:「在 Meta AI,我们倾向于出版质量而不是数量。这就是为什么在 2022 年被引用最多的 100 篇人工智能论文中,Meta AI 撰写(或共同撰写)了 16 篇,仅次于谷歌的 22 篇,排名第二。我们的研究正在对社会产生巨大的影响。(此外,纽约大学的排名也很赞)。」所以,刚才谈论的这些 Top 论文有哪些?在深入了解这些数字之前,让我们先了解一下过去三年的热门论文。相信你会认出其中的几篇。2022 年热门论文

1、AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models



2、ColabFold: making protein folding accessible to all



3、Hierarchical Text-Conditional Image Generation with CLIP Latents


  • 论文链接:https://arxiv.org/abs/2204.06125
  • 机构:OpenAI
  • 引用次数:718
  • 主题:DALL・E 2, complex prompted image generation that left most in awe


4、A ConvNet for the 2020s


  • 论文链接:https://arxiv.org/abs/2201.03545
  • 机构:Meta,UC 伯克利
  • 引用次数:690
  • 主题:A successful modernization of CNNs at a time of boom for Transformers in Computer Vision


5、PaLM: Scaling Language Modeling with Pathways


  • 论文链接:https://arxiv.org/abs/2204.02311
  • 机构:谷歌
  • 引用次数:452
  • 主题:Google's mammoth 540B Large Language Model, a new MLOps infrastructure, and how it performs


2021 年热门论文1、《Highly accurate protein structure prediction with AlphaFold》


2、《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》


3、《Learning Transferable Visual Models From Natural Language Supervision》

  • 论文链接:https://arxiv.org/abs/2103.00020
  • 机构:OpenAI
  • 引用次数:3204
  • 主题:CLIP, image-text pairs at scale to learn joint image-text representations in a self supervised fashion


4、《On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?》

  • 论文链接:https://dl.acm.org/doi/10.1145/3442188.3445922
  • 机构:U. Washington, Black in AI, The Aether
  • 引用次数:1266
  • 主题:Famous position paper very critical of the trend of ever-growing language models, highlighting their limitations and dangers


5、《Emerging Properties in Self-Supervised Vision Transformers》

  • 论文链接:https://arxiv.org/pdf/2104.14294.pdf
  • 机构:Meta
  • 引用次数:1219
  • 主题:DINO, showing how self-supervision on images led to the emergence of some sort of proto-object segmentation in Transformers


2020 年热门论文1、《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》

  • 论文链接:https://arxiv.org/abs/2010.11929
  • 机构:谷歌
  • 引用次数:11914
  • 主题:The first work showing how a plain Transformer could do great in Computer Vision


2、《Language Models are Few-Shot Learners》


3、《YOLOv4: Optimal Speed and Accuracy of Object Detection》

  • 论文链接:https://arxiv.org/abs/2004.10934
  • 机构:Academia Sinica, Taiwan
  • 引用次数:8014
  • 主题:Robust and fast object detection sells like hotcakes


4、《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》

  • 论文链接:https://arxiv.org/abs/1910.10683
  • 机构:谷歌
  • 引用次数:5906
  • 主题:A rigorous study of transfer learning with Transformers, resulting in the famous T5


5、《Bootstrap your own latent: A new approach to self-supervised Learning》

  • 论文链接:https://arxiv.org/abs/2006.07733
  • 机构:DeepMind,Imperial College
  • 引用次数:2873
  • 主题:Showing that negatives are not even necessary for representation learning



相关文章
|
9月前
|
机器学习/深度学习 人工智能 文字识别
UGPhysics:本科物理推理评估基准发布,助力AI+Physics交叉研究
近年来,人工智能快速发展,大语言模型(LLM)在数学、代码等领域展现出强大的推理和生成能力,正在被广泛应用于各种场景。
300 0
|
5月前
|
存储 人工智能 安全
拔俗AI临床大数据科研分析平台:让医学研究更智能、更高效
阿里云原生AI临床大数据科研平台,打通异构医疗数据壁垒,实现智能治理、可视化分析与多中心安全协作,助力医院科研提速增效,推动精准医疗发展。
899 1
|
人工智能 大数据 安全
拔俗AI临床大数据科研分析平台:用智能技术加速医学研究新突破
AI临床大数据科研平台基于云原生架构,融合医疗NLP、联邦学习与智能分析技术,破解非结构化数据处理难、多源数据融合难、统计周期长等痛点,实现数据治理、智能分析与安全协作全链路升级,赋能医学科研高效、安全、智能化发展。
231 0
|
8月前
|
机器学习/深度学习 人工智能 自动驾驶
AI Agent多模态融合策略研究与实证应用
本文从多模态信息融合的理论基础出发,构建了一个结合图像与文本的AI Agent模型,并通过PyTorch代码实现了完整的图文问答流程。未来,多模态智能体将在医疗、自动驾驶、虚拟助手等领域展现巨大潜力。模型优化的核心是提升不同模态的协同理解与推理能力,从而打造真正“理解世界”的AI Agent。
AI Agent多模态融合策略研究与实证应用
|
8月前
|
机器学习/深度学习 人工智能 算法
深度强化学习在异构环境中AI Agent行为泛化能力研究
随着人工智能技术的迅猛发展,AI Agent 在游戏、智能制造、自动驾驶等场景中已逐步展现出强大的自适应能力。特别是深度强化学习(Deep Reinforcement Learning, DRL)的引入,使得智能体能够通过与环境的交互,自动学习最优的行为策略。本文将系统性地探讨基于深度强化学习的AI Agent行为决策机制,并结合代码实战加以说明。
深度强化学习在异构环境中AI Agent行为泛化能力研究
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
原来AI也能“读心术”?——聊聊AI在心理学研究中的那些突破
原来AI也能“读心术”?——聊聊AI在心理学研究中的那些突破
352 1
|
11月前
|
人工智能 测试技术 API
PaperBench:OpenAI开源AI智能体评测基准,8316节点精准考核复现能力
PaperBench是OpenAI推出的开源评测框架,通过8316个评分节点系统评估AI智能体复现学术论文的能力,涵盖理论理解、代码实现到实验执行全流程。
760 30
PaperBench:OpenAI开源AI智能体评测基准,8316节点精准考核复现能力
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
AI 驱动:如何用AI直接生成矢量 Logo? 技术研究与工具选择
AI 技术革新品牌标志设计,通过深度学习分析数据,精准把握市场趋势,智能生成高辨识度 Logo。矢量格式(SVG)确保清晰不失真,适配各类展示场景。AI 工具高效便捷,支持个性化定制,助力品牌快速打造专业视觉形象,成为市场竞争中的有力武器。
501 0
|
10月前
|
人工智能 自然语言处理 安全
💻 Codex 来了:OpenAI 推出多任务软件工程 AI 代理,开发者工作方式将被重塑?
Codex 是 OpenAI 推出的一款云端智能开发代理,基于优化后的 Codex-1 模型,能够执行从代码编写、Bug 修复到 PR 提交的完整工程任务。通过 ChatGPT 的界面,用户可向 Codex 分配任务,它将在独立沙盒中运行并返回结果。Codex 支持多任务异步处理,遵循项目规范(AGENTS.md),并生成日志与测试报告以确保透明性。作为“AI 参与式开发”的里程碑,Codex 不仅提升效率,还可能重塑开发者角色,使他们从具体编码转向指导 AI 完成任务,推动软件工程进入意图驱动的新时代。
988 16
|
11月前
|
人工智能 搜索推荐 开发者
GPT-4o测评准确率竟不到1%!BrowseComp:OpenAI开源AI代理评测新基准,1266道高难度网络检索问题
OpenAI最新开源的BrowseComp基准包含1266个高难度网络检索问题,覆盖影视、科技、艺术等九大领域,其最新Deep Research模型以51.5%准确率展现复杂信息整合能力,为AI代理的浏览能力评估建立新标准。
767 4
GPT-4o测评准确率竟不到1%!BrowseComp:OpenAI开源AI代理评测新基准,1266道高难度网络检索问题