研究了 50 篇论文后,他发现 AI 领域的某些进步其实就是炒作

简介: 人工智能(AI)似乎变得越来越聪明。每一部 iPhone 都比上一部更了解你的脸、声音和习惯,人工智能对隐私的威胁也在不断增加,职位也在不断增加。这种激增反映了更快的芯片、更多的数据和更好的算法。

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

人工智能(AI)似乎变得越来越聪明。每一部 iPhone 都比上一部更了解你的脸、声音和习惯,人工智能对隐私的威胁也在不断增加,职位也在不断增加。这种激增反映了更快的芯片、更多的数据和更好的算法。但是,麻省理工学院的计算机科学研究生 Davis Blalock 说,有一些改进是来自微调,而不是发明者声称的核心创新,而有些改进可能根本就不存在。Blalock 和他的同事比较了几十种改进神经网络的方法(大致模仿大脑的软件架构)。他说,“在研究了 50 篇论文之后,事情已经变得很清晰,当时的技术水平到底如何并不是一件显而易见的事情。”

研究人员评估了 81 种剪枝算法、程序,它们通过对不需要的连接进行剪枝来提高神经网络的效率。这些方法差别不大,但所有人都宣称自己具有优越性。然而,很少有人对它们进行恰当的比较——当研究人员设法把它们放在一起评估时,并没有明确的证据可以表明近 10 年来它们的性能有什么改善。今年 3 月,在机器学习与系统大会上公布的这一结果让 Blalock 的博士生导师、麻省理工学院的计算机科学家 John Guttag 感到意外,他指出,这种无规则的对比本身就说明了技术发展的停滞。Guttag 说,“老话说得好,无法度量就无法改进,对吧?”

研究人员逐渐意识到,人工智能的许多子领域的进展都出现了问题。2019 年开展的一项针对搜索引擎中使用的信息检索算法的元分析表明,“最高点……实际上出现在 2009 年。”2019 年的另一项研究再现了 7 个神经网络推荐系统,这类系统主要用于流媒体服务。研究发现,有六种算法的性能没有超过多年前开发的简单许多的非神经算法(这些早期的技术当时都经过了调优),揭示了该领域的“进展幻象”。

今年 3 月,来自康奈尔大学的计算机科学家 Kevin Musgrave 在 arXiv 网站上发表了一篇论文,他研究了损失函数,这是这类算法的一部分,从数学上明确了算法的目标。Musgrave 在一项涉及图像检索的任务中,基于同样的标准对其中的 12 种方法进行了比较,结果发现,与开发人员的说法相反,准确性自 2006 年以来就再没有提高。Musgrave 说:“这一直以来都是炒作。”

机器学习算法的性能增强可以来自其架构、损失函数或优化策略(如何使用反馈进行改进)的根本性变化。来自卡耐基梅隆大学的计算机科学家 Zico Kolter 表示,对上述任何一种技术进行细微的调整都可以提高性能。Kolter 的研究内容是经过训练后能够对黑客的“对抗性攻击”免疫的图像识别模型。一种被称为投影梯度下降(PGD)的早期对抗性训练方法(该方法会同时在真假样例上进行简单的训练),似乎已经被更复杂的方法所超越。但在今年 2 月 arXiv 发表的一篇论文中,Kolter 和他的同事们发现,当使用一个简单的技巧来对它们进行增强时,所有方法的效果都差不多。

5eddd38e0e2eb

在经过适度调整后,旧的图像检索算法和新算法的性能一样好,这表明,实际的创新很少。

“这非常令人惊讶,这一点我们以前没有发现,”Kolter 的博士生 Leslie Rice 说。而 Kolter 表示,他的发现表明,像 PGD 这样的创新很难做到,而且很少有实质性的改进。“很明显,PGD 实际上就是一种正确的算法,”他说,“这显而易见,而人们希望找到更为复杂的解决方案。”
其他主要算法的进步似乎也经受住了时间的考验。1997 年,一种被称为长短时记忆(LSTM)的架构在语言翻译方面取得了重大突破。在经过适当的训练后, LSTM 的性能可以与 20 年后开发的更先进的架构相媲美。另一个机器学习的突破出现在 2014 年的生成对抗网络(GAN)中,举例来说,它可以将网络以生成 - 判别循环的方式进行配对,以提高它们生成图像的能力。据 2018 年的一篇论文报道,只要计算能力足够,原始的 GAN 方法就可以与后续几年的方法相媲美。

Kolter 说,与调整现有算法相比,研究人员更愿意去创造一种新的算法,并对其进行调整,直到达到最先进的水平。他指出,调整现有算法可能显得不那么新颖,使得“发表论文的难度大大增加”。

Guttag 说,算法的发明者不希望与他人的算法进行彻底的性能比较,结果却发现他们的突破性进展并不是他们所认为的那样。“比较太仔细是有风险的。”同时,那也是一项艰苦的工作:人工智能研究人员使用不同的数据集、调优方法、性能指标和基线。“完全的横向对比是不现实的。”

一些夸大性能的说法可以归因于该领域的爆炸性增长,该领域的论文数量超过了有经验的审稿人。Blalock 说,“这似乎是成长的烦恼”。他敦促审稿人,要坚持与基准进行更好地比较,并表示,更好的工具将有所帮助。今年早些时候,Blalock 的合著者、麻省理工学院研究员 Jose Gonzalez Ortiz 发布了一款名为 ShrinkBench 的软件,它可以让人们更轻松地比较剪枝算法。

研究人员指出,即使新方法在本质上并不比旧方法更好,但他们所实现的调整也可以应用到之前的算法上。每隔一段时间,就会有一个新的算法出现。“这几乎就像一个风险投资组合,”Blalock 说,“其中一些业务并没有真正发挥作用,但有些却非常成功。”

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/zhibo

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-06-11
本文作者:Matthew Hutson
本文来自:“InfoQ ”,了解相关信息可以关注“InfoQ

相关文章
|
2月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
33 1
|
21天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
38 12
|
20天前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
2月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
40 6
|
2月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
49 2
|
3月前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
42 1
|
3月前
|
人工智能 开发者
Nature曝惊人内幕:论文被天价卖出喂AI!出版商狂赚上亿,作者0收入
【9月更文挑战第8天】《自然》杂志近日揭露,学术出版商如泰勒·弗朗西斯与微软签订千万美元合约,及威利获高额报酬,将论文提供给科技巨头训练AI模型,引发学界对版权与收益分配的热议。此现象反映了AI对高质量数据的渴求,但亦使研究人员担忧成果被无偿商用,且可能影响学术独立性。尽管AI训练使用学术资源能提升模型科学性,助力科研进展,但如何保障作者权益及维持学术纯粹性仍是亟待解决的问题。https://www.nature.com/articles/d41586-024-02599-9
52 4
|
4月前
|
边缘计算 人工智能 监控
边缘计算与AI结合的场景案例研究
【8月更文第17天】随着物联网(IoT)设备数量的爆炸性增长,对实时数据处理的需求也随之增加。传统的云计算模型在处理这些数据时可能会遇到延迟问题,尤其是在需要即时响应的应用中。边缘计算作为一种新兴的技术趋势,旨在通过将计算资源更靠近数据源来解决这个问题。本文将探讨如何将人工智能(AI)技术与边缘计算结合,以实现高效的实时数据分析和决策制定。
269 1
|
5月前
|
数据采集 机器学习/深度学习 人工智能
AI小分子药物发现的百科全书,康奈尔、剑桥、EPFL等研究者综述登Nature子刊
【7月更文挑战第12天】康奈尔、剑桥及EPFL科学家合作,详述AI在药物发现中的突破与挑战[^1]。AI现用于新化合物生成、现有药物优化及再利用,加速研发进程。尽管取得进展,可解释性不足、数据质量和伦理监管仍是待解难题。 [^1]: [论文链接](https://www.nature.com/articles/s42256-024-00843-5)
67 3
|
6月前
|
人工智能 安全 网络安全
简述AI漏洞修复研究现状及发展方向
鲁军磊先生的演讲聚焦AI在网络安全中的应用,特别是自动化漏洞修复。他讨论了大模型技术的最新进展,AI如何增强漏洞发现与修复,并介绍了AI智能体的三种协作模式。传统漏洞修复流程从手工审计到智能化挖掘逐步演进,而AI技术通过智能决策和自动化执行提高效率。未来趋势包括智能化防御、跨域协同、安全合规自动化、隐私保护强化和安全技能普及,以及可持续安全生态建设。AI正重塑网络安全领域,推动更高效、精准的防御策略。