《主算法》作者Pedro Domingos:做机器学习硬件不能只考虑深度学习

简介:

当前,软件进步的速度已经远远超过了芯片制造商可以实现的进步,这使得他们不知道该从何处开始,更不要说如何将它们已经年老的智慧整合起来。

【编者按】本文选自The Next Platform,由机器之心编译,作者:Nicole Hemsoth,参与:Rick、吴攀

在信息技术漫长的历史发展过程中,一直以来都是软件在努力跟进硬件的高速发展——以便开拓新的功能和大胆地实现从未有过的基准。

但是,随着机器学习和深度学习对静态应用程序的替代,我们进入了一个新时代:软件进步的速度已经远远超过了芯片制造商可以实现的进步,硬件设备制造商正在争先恐后地追赶。

这个问题本身就已经足够重大了,而且它是一种完全不同的架构上的问题,而不是通用设备曾经涉足的任何领域。不断缩小的芯片尺寸和不断增长的可靠性与速度已是司空见惯,但是随着新算法的出现和初具规模,以及不可思议地年轻且丰富的代码生态环境的涌现和进化,芯片制造商甚至不知道该从何处开始,更不要说如何将它们已经年老的智慧整合起来。

应对这个过渡期的一个简单方法是购买专业知识,相对更难的是自己开发构建。而且因为机器学习的代码基础非常丰富且在快速改变,现在还不存在什么标准的"正确方法"。据华盛顿大学计算机科学教授、《主算法(The Master Algorithm)》的作者 Pedro Domingos 说,在这所有的问题中间的根本分歧是设备想要满足新型用户的方式与部署代码实际所需的硬件之间的差异。

“过去没有让人信服的理由去生产机器学习芯片,但这种情况已经改变。”Domingos告诉The Next Platform。随着机器学习和深度学习的复兴,在GPU的硬件和软件上的成果得到了大规模地证明,这样发展下来,从而为其它研究领域的加速发展提供了路径。而且也正巧,GPU非常擅长深度学习所需要的基于矩阵乘法的问题。

《主算法》作者Pedro Domingos:做机器学习硬件不能只考虑深度学习

我们需要能够通过从大规模数据中提取出重要模式以便减少信息负载的计算机。这具有很多深刻的和令人着迷的科学问题:一台计算机如何自动决定对于目标知识哪种表征是最好的?它可以如何将真正的规律和机缘巧合区分开?可以如何利用预先存在的知识?计算资源有限的计算机如何学习?我们可以通过怎样的方式理解所得到的结果?

这些问题汇集起来让NVIDIA尤其在深度学习训练的市场中有了一个明确的起点,但正如我们在过去几年所见过的报道那样,其它专用架构(包括FPGA、定制ASIC、神经形态芯片等)也在迎合这一部分市场的不同硬件需求上看到了机会。当然,英特尔也看到了机会,抢先拿下了Nervana Systems和Movidius——这两家都是研发带有为机器学习优化过的软件的硬件的设备制造商。尽管在争夺多种机器学习用户的处理器份额上存在这样的追赶和战争,但通用处理器玩家和不断演进的多样化机器学习社区的需求仍旧存在根本上的脱节。

“现在的大公司——英特尔和英伟达——仍然还在试图搞清楚这个领域。这是一种不同的思维方式。从机器学习的角度看,我们可以说出需要从硬件制造商那里得到什么具体的基本能力,但其中的问题是更深层次的……搞机器学习的人可以告诉做硬件的人他们想要什么,但做硬件的人也需要告诉研究机器学习的人他们实际上能做到和不能做到什么。这样的互动才能得到有价值的结果。”而现在的情况是,先把硬件设备做出来,然后看哪种方法的研发是一种浪费——甚至在快速演化的代码基础上的应用价值也更少。

“深度学习只是一种类型的机器学习。不能因为某种芯片在深度学习上表现好就意味着它也适合其它类型的机器学习。”Domingos说,“硬件制造商真正需要考虑的问题是当一股仍旧较新的机器学习浪潮到来时,硬件可以如何足够灵活地支持它,而如果存在一些可被部署在硬件中的基本元素,那么它们也就可以随时间改变。”在过去五年这个机器学习的新黄金时代期间,有一些基本元素并没有发生太大的变化。Domingos说,通过关注这些方面,英特尔等公司可以获得早期的立足点。

微芯片的发明过去是且现在仍然是一件激动人心的事;它是超级可靠的,它是完全确定性的;而且因为固态电子器件是如此可靠,它能让我们不断研发新事物。没有其它领域有这种了不起的天赋。化学工程没有,机械工程也没有——它们必须忍受所有的垃圾和噪声以及会碎裂的事物。但在计算机科学领域内,我们并不是活在真实世界中——而是一个我们开发程序的世界中。而机器学习正在将我们带回真实世界。它是关于统计的,它是关于概率的。而且我们不会总是知道为什么这会有效或为什么它不会一直有效。

这可能会让我们机器学习领域里面的人感到迷惑,但像英特尔这样的公司——那里的人们习惯于可靠但僵化的东西——对机器学习抱有一种非常不同的心态。“对于以统计学作为开始的机器学习,不是所有东西都需要被固定和定义的。这里有一个巨大的机遇,但这种做事方式的心理转换——应用中80%的时间有效vs.几乎100%的时间有效——总比没有任何东西好,而且也好过于拥有一堆只能抓取5%的潜在使用案例的预编程规则。”

但通用硬件的阵营目前正在大力开发机器学习,而它们这么做却形成了软件上的劣势;害怕错过一个可能有利可图的市场。毕竟就在不久前,英特尔刚刚声明其在数据中心运行的超过半数的工作负载将会拥有一个机器学习组件。技术层面上听起来很夸张——人们不得不想要知道英特尔所说的机器学习意味着什么。这是一个包罗万象的对高级分析的定义?或者实际上是作为一个顶层智能带——叠加在所有其它数据库、数据管理和其他工具与应用程序顶层的一层新技术?如果这不算夸张,我们是否可以说,我们将在未来五年内看到静态分析的死亡?无论哪种方式,大公司正在大踏步地在这一广阔领域抢夺先机——有几家同时押注了几种不同的机器学习负载;事实情况也在证明着这一说法:英特尔的Knights Mill和对Nervana/Movidius的收购以及英伟达为深度学习训练和推理所研发的众多芯片(Pascal、M40/M40、Tesla系列等)。

因此我们已经理解了,在广泛的实际价值方面,通用处理方法的发展仍然滞后,仍然在延长机器学习的应用名单,这会给我们带来什么,又会让我们失去什么?一个答案是寻求定制ASIC,这方面有一些创业公司(尤其是那些专注于深度学习的公司)将其视为前进的方向。

“有关机器学习的关键一点是:该问题具两面性;机器学习所产生的学习和模型。一旦你学习了一个模型,那真的只是一个简单的程序,而且它很容易在一个ASIC中实现。但问题是你不知道那会是什么,直到你有了数据——这意味着这会是一种在学习的第一部分不同的ASIC。”那样前期代价就太大了,此外模型的发展会让没有快速重新配置能力的ASIC毫无用处——而FPGA应该在这方面效果很好 。

数据决定方法。更好的算法是灵活的,而更灵活的算法在ASIC中更难实现。这与我们在计算机科学中过去已经习惯的不同,但这是机器学习的本质;它不是确定的。这是硬件公司的学习曲线。它需要一种完全不同的思维方式。

事实上FPGA尤其是深度学习神经网络的另一种可能的加速器——深度学习神经网络可以被看作是一种“柔软(soft)”版的神经网络。和使用定制ASIC一样,其问题在于:直到收到数据通知否则我们无法知晓该问题。换句话说,你可以从一个FPGA或神经网络中得到的所有东西就是一个子网络(subnetwork)。因此尽管它或许可以在部分工作负载效果良好,但却不能完成所有工作。

当然,GPU、FPGA和定制ASIC不是目前唯一有希望的硬件发展趋势。Domingos指出神经形态设备也是一个有希望的领域。“使用数字器件来构建用于深度学习的神经元的效率已经远比用一般硬件和软件组合高了。意见分歧就在这儿,但在很好地处理这些工作负载上,这是一个很有前途的研发高效半导体器件的路径。”

Domingos的希望就是,我们将开始看到一些融入硬件的核心元素,以及那些为了进一步统一软件工具以支持不同机器学习负载的核心元素。“我们会看到,软件层面的统一框架将迁移到硬件层面(逻辑、图形模型、贝叶斯网络等)。它们必须在关键领域成为机器学习的标准,尤其是图形和相似度计算。这是一个会产生进步的地方。”Domingos说到,但他也同意,在硬件方面仍然是任何人都可以参与的——而且涉及到很多不同的领域。


原文发布时间: 2016-09-12 15:25
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。
相关文章
|
2月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
164 8
|
2月前
|
机器学习/深度学习 人工智能 供应链
从概念到商业价值:AI、机器学习与深度学习全景指南
在这个科技飞速发展的时代🚀,人工智能正以惊人的速度渗透到我们的生活和工作中👀。但面对铺天盖地的AI术语和概念,很多人感到困惑不已😣。"AI"、"机器学习"、"深度学习"和"神经网络"到底有什么区别?它们如何相互关联?如何利用这些技术提升工作效率和创造价值?
92 0
|
3月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
154 6
|
4月前
|
机器学习/深度学习 存储 算法
基于MobileNet深度学习网络的活体人脸识别检测算法matlab仿真
本内容主要介绍一种基于MobileNet深度学习网络的活体人脸识别检测技术及MQAM调制类型识别方法。完整程序运行效果无水印,需使用Matlab2022a版本。核心代码包含详细中文注释与操作视频。理论概述中提到,传统人脸识别易受非活体攻击影响,而MobileNet通过轻量化的深度可分离卷积结构,在保证准确性的同时提升检测效率。活体人脸与非活体在纹理和光照上存在显著差异,MobileNet可有效提取人脸高级特征,为无线通信领域提供先进的调制类型识别方案。
|
5月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
5月前
|
人工智能 编解码 算法
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
|
3月前
|
机器学习/深度学习 编解码 人工智能
计算机视觉五大技术——深度学习在图像处理中的应用
深度学习利用多层神经网络实现人工智能,计算机视觉是其重要应用之一。图像分类通过卷积神经网络(CNN)判断图片类别,如“猫”或“狗”。目标检测不仅识别物体,还确定其位置,R-CNN系列模型逐步优化检测速度与精度。语义分割对图像每个像素分类,FCN开创像素级分类范式,DeepLab等进一步提升细节表现。实例分割结合目标检测与语义分割,Mask R-CNN实现精准实例区分。关键点检测用于人体姿态估计、人脸特征识别等,OpenPose和HRNet等技术推动该领域发展。这些方法在效率与准确性上不断进步,广泛应用于实际场景。
455 64
计算机视觉五大技术——深度学习在图像处理中的应用
|
6月前
|
机器学习/深度学习 运维 安全
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
262 22
|
7月前
|
机器学习/深度学习 传感器 数据采集
深度学习在故障检测中的应用:从理论到实践
深度学习在故障检测中的应用:从理论到实践
514 6

热门文章

最新文章