AI芯片的战场更加热闹了。4月18日,Facebook宣布招聘ASIC和FPGA设计工程师,向设计自己的AI芯片迈出了第一步。
4月19日,国内巨头阿里巴巴宣布正在自主研发AI芯片。这款由阿里巴巴达摩院研发的AI芯片是一款神经网络芯片,名叫Ali-NPU,将用于图像和视频分析、云计算等商业场景的AI推理运算问题。
Facebook和阿里巴巴的入局,表明互联网巨头自主研发AI芯片已是大势所趋。在此之前,谷歌、苹果、微软、亚马逊等公司,都纷纷自研AI芯片。
谷歌从2012年左右开始研发名为张量处理器(TPU)的专用AI芯片,现在已经公布到第二代,既能推理也能训练,针对谷歌的深度学习框架TensorFlow做了优化;2017年谷歌开放Cloud TPU云服务,任何人都能通过谷歌云租借TPU。此外,谷歌还自研了图像专用芯片Pixel Visual Core,用于谷歌的智能手机Pixel 2,今年下半年发布的Google Pixel 3也采用自主研发的SoC芯片。
苹果公司则为iPhone设计芯片,并在去年随着iPhone 8和iPhone X的发布,公布了神经引擎(Neural Engine),作为其A11仿生芯片的一部分。微软早前投注FPGA,这已经成为微软Azure云计算系统的基础,提供比GPU更灵活的架构和更低的功耗;微软也在为下一代HoloLens混合现实头戴设备研发专门的AI芯片。至于亚马逊,则是在今年初宣布为智能音箱Echo/Alexa打造专用AI芯片,同时也有外媒报道,亚马逊可能正在为其云计算部门AWS开发AI处理器。芯片支撑未来发展,但如今似乎软件定义硬件的趋势愈加明显。
芯片是支撑AI的基础。而由于AI芯片受算法和模型影响非常大,因此掌握算法和模型,自己做软件和服务的公司,如果精确地了解自己要什么,比如谷歌,比如最新加入战局的Facebook和阿里,与其等待英特尔和英伟达等传统硬件商,自己出手造芯反而能更快更准,更能满足自己特定的需求。
同时,像谷歌这样,将TPU与谷歌云和TensorFlow绑定——TensorFlow在TPU上会有更好的运行效果,而谷歌也将TPU实现的AI计算优势通过谷歌云提供,为自己构建起生态闭环。
所有这些,无疑都对传统的硬件制造商,提出了更大的挑战。在AI芯片战火更旺的当下,CPU巨头英特尔通过收购Nervana Systems(神经网络专用加速器NNP)、Mobileye(自动驾驶)、Movidius(视觉处理芯片)、Altera(FPGA)等公司,在AI芯片领域构建起从云到端各种应用比较完善的布局。然而,收购这一行为本身,从一定程度上反映了自主研发的滞后。
在谷歌、阿里等巨头纷纷进军AI芯片,众多AI芯片初创公司涌现的当下,英特尔如何应对?
日前,英特尔人工智能事业部副总裁、人工智能实验室和软件总经理Arjun Bansal博士接受了新智元的专访,对AI芯片局势以及AI技术的发展做了分析。
英特尔人工智能事业部副总裁、人工智能实验室和软件总经理Arjun Bansal。在2016年8月英特尔收购Nervana System之前,他是Nervana的联合创始人兼算法副总裁,领导机器学习软件与数据科学部。他的研究领域包括神经生理学和大规模机器学习。Arjun在加州理工大学获得了计算机科学学士学位,在布朗大学获得了神经科学博士学位,并在波士顿儿童医院和哈佛医学院完成了博士后研究。
Bansal博士是Nervana的联合创始人之一,他表示英特尔的优势在于从芯片设计、制造到销售一整套流程和生态的强大。作为曾经的AI芯片初创公司的一份子,他十分了解初创芯片公司面临的挑战。要真正实现原型的量产,有很多具体的细节需要去考虑,包括市场和销售。“英特尔的优势并不是只在芯片本身,而是结合了产品、技术、生态系统的一个合力。”Bansal博士说。
或许这也是在众多公司进军AI芯片,众多初创公司喊出在速度或性能上超越CPU多少多少倍,而英特尔Nervana神经网络专用处理器延迟发布,英特尔仍然游刃有余的一个原因。
同时,这也再次印证了AI芯片创业和市场开拓的艰难。中国的众多AI芯片初创公司,即使拥有很好的产品,前路也似乎依然坎坷。
采访中的另一个重点,是英特尔的定位——Bansal博士在介绍英特尔智能医疗布局时表示,英特尔要做的,是成为对客户和合作伙伴来说,能够实现选择最大化的一家公司。
“我们英特尔主要还是根据不同客户的需求,在全栈的不同层级上都有相应的能力匹配,英特尔并不认为可以一刀切。”
这一点也体现在英特尔的AI处理器——英特尔Nervana神经网络处理器(NNP)上面。英特尔Nervana NNP是专为深度学习设计的架构。这种新架构的目标是提供深度学习所需的灵活性,以支持所有深度学习元语(primitives),同时使核心硬件组件尽可能高效。
Nervana从2016年前开始规划神经网络处理器(也即现在英特尔Nervana NNP),Bansal博士说,如今AI的发展符合他们的预期,虽然市面上出现了众多AI芯片,但他们仍然有自信NNP能满足当前以及未来深度学习所需。
与谷歌、亚马逊专门为了自己的软件和应用而设计的AI芯片相比,英特尔Nervana NNP可以称得上是“大家的AI处理器”。
PC时代X86架构一统天下的时代已经过去,未来也不大可能出现一款AI芯片统领一切。然而,还是会有胜利者,在各个不同的垂直领域,分得更大的蛋糕。
以下为整理后的采访录音。
深度学习发展保持稳定,软件整合是痛点
新智元:对于计算机体系结构来说现在是一个令人激动的新时代。得益于深度学习,AI芯片领域出现了很多新的架构,在这些众多新架构里面,有英特尔没有考虑过的吗?考虑过但没有继续深入的原因是什么?
Arjun Bansal:的确现在有很多新的面向深度学习的架构,英特尔在这方面有自己的Nervana神经网络处理器(NNP),NNP专为加速神经网络设计,采用标准缓存层次结构,在片上片下都有大量存储,并使用软件来管理片上内存,连接也使用大的带宽,从而为深度学习模型实现更快的训练时间。另外比如说Movidius架构,用于要求低功耗和边缘计算应用,它和X86非常不一样,能够用在AR相机或无人机上进行视频分析。英特尔还收购了Mobileye公司,它的能力主要是在汽车领域。还有FPGA,很灵活,实际上有很多自动驾驶公司使用FPGA,因为算法和模型在不断演变。还有一种是集成GPU,很多产品比如笔记本,都已经使用,可以用于语音识别、图像识别等任务。现在市面上有很多新的想法,英特尔不会轻易追随,但是我们会仔细地观察每一个新的想法。
新智元:设计芯片需要对技术的发展进行预判。Nervana在2016年之前就考虑做神经网络加速器,现在看AI技术发展是否符合你们当初的预期?
Arjun Bansal:设计处理器的目的是优化深度学习的元语(primitives),而我们看深度学习中进行的计算,主要是卷积、密集矩阵乘积、elementwise operations、非线性等等,过去三四年里,这些primitives基本保持稳定,没有超出我们当时的预期,未来三到四年也将继续如此。因此,我们仍然很有能力满足当前和今后神经网络计算所需。在编译器方面,我们有nGraph,能够让开发人员比较简单易行地从事相关的开发,可以运行在英特尔至强可扩展处理器上。
新智元:刚才您提到nGraph,去年Facebook、亚马逊等联合发布了ONNX,同样作为深度学习的中间表示,现在已经获得相当大的受众和竞争力。nGraph如何与ONNX以及其他类似的IR竞争?您如何看未来深度学习软件整合的发展?
Arjun Bansal:我们与ONNX并不是直接竞争关系,英特尔也是ONNX联盟的一分子,也参与一些标准界定工作,nGraph也支持ONNX中间表示(IR),nGraph有编译器和执行器,可以在CPU上实现,可以在NNP上实现,也可以在GPU上实现,支持不同的框架。目前nGraph的IR只支持推理,因此很显然我们还需要能够支持训练的。
目前ONNX在做的和nGraph在做的更多是互补,我们还需要继续工作,确保一个API或者一个中间表示能够适用于不同的框架,这样数据科学家就可以无缝的“开箱即用”。nGraph和ONNX都是开源的项目,我们也邀请其他感兴趣的方面可以一起参与到我们的合作中。我们的重点就在于把研究开发的成果尽早、尽快的体现在具体的产品当中。目前的一个技术难点是在模型研究、数据中心部署、边缘计算方面有很多不同的方法,但是这些方法之间彼此切换并不容易,这是英特尔想要解决的一个痛点。
单靠芯片并不能赢得市场,创业公司难以撬动既有生态
新智元:英特尔Nervana神经网络处理器是业界非常关注的一款处理器产品,但一直没有发布。与此同时,以谷歌TPU为代表,各种AI芯片产品问世,今年很多AI芯片创业公司也都发布产品,冲击市场。这种情况下您是否感到有压力?
Arjun Bansal:我不会用“压力”这个词,我觉得现在正是进入市场一个非常有趣的时间点。把一个产品带入市场是非常复杂的过程,我们的信心来自于英特尔在制造的能力、算法和模型的能力,并且和客户已有的pipeline、工具链进行集成的能力。英特尔有自己专业的技术,但更重要的是我们和现有的整个生态系统的配合非常好,比如不同的用户对于功耗、对于尺寸、对于形态都会有自己的想法和考虑,英特尔在这方面有很丰富和专业的经验。
作为Nervana的联合创始人之一,我非常了解初创芯片公司面临的挑战。要真正实现原型的量产,实际上是有很多具体的细节需要去考虑,包括市场和销售。现在加入英特尔,我们能有效利用英特尔和整个生态系统不同的相关方之间的关系。我们的优势并不是只在芯片本身,而是结合了产品、技术、生态系统的一个合力。
新智元:基础算法发展会给行业带来很多不确定性,五年以后可能算法全都变了,英特尔为此做了哪些准备?
Arjun Bansal:我们做了大量的研究工作,密切关注追踪这些趋势的发展。英特尔有自己的研究院,还有专门的AI部门,也在做大量工作。我们会关注业界最新发布的成果,我们和学界,包括面向整个产业,服务于整个产业的研究机构之间都有配合,看看能够怎么比较好的把研究成果和我们的硬件匹配起来。在研究和硬件开发之间我们有非常紧密的配合,不会说市场突然出现一个东西,忽然让我们大吃一惊,这种情况不会出现。
未来四五年的重点是将AI能力变为产品原型
新智元:您怎么看未来算法的发展?有什么值得关注的趋势?
Arjun Bansal:现在推动AI发展的主导力量是监督学习,需要大量带标签的数据集。未来值得关注的方向是无监督学习、半监督学习、强化学习,其中有的会不需要那么多数据但需要更多计算,还有的则需要在模拟和计算之间有新的动态,从硬件的角度看,这些都是值得关注的趋势。从AI研究的角度,则是如何让AI技术赋能产品。所以未来四五年的重点,是将这些AI能力变为产品原型,比如将语音识别或图像识别模型融入pipeline,为各行各业带来能力。再远一点,则是构建能够综合语音、图像等能力的系统,结合强化学习,甚至类脑计算系统,得到更加有常识的机器。
新智元:硬件团队最该过硬的是软件部门。作为软件部门负责人,你们在招收人才时有怎样的标准?如何吸引人才?
Arjun Bansal:对外界来说“软件”只是一个词,实际上软件可以细分到四五个层级,在比较低的层级上,比如说驱动、固件、系统级的软件,在此之上是优化层,这里面可以用到NNP,这之上是编译器,比如NGraph,还要确保它们能够在框架当中正常运行,各家都有自己的框架,比如TensorFlow、BigDL,在系统编译器方面我们能够为数据科学家提供他们所需要的编译器。在上述几个领域我们都要招募人才。
英特尔对产业有很大影响力,基本上你走到世界上任何一个屋子里都能找到一个用到英特尔的东西,从这一点上说,我们对人才还是很有吸引力的。在AI方面,实际上英特尔做了很多工作,也有很多的部署,虽然并不是家喻户晓,但从事这一行的人还是知道的,英特尔对于AI的影响还是非常大。所以我们能够吸引到人才。
新智元:那这些人都从哪里来?
Arjun Bansal:各方各面都有。在数据科学家方面,我们关注Kaggle专业类竞赛,也会招收神经科学、物理学博士,在硬件还有系统级方面,英特尔现有人才已经非常丰富了。
英特尔的定位:实现选择最大化
新智元:英特尔与许多医疗相关的企业和研究机构合作,在选择合作伙伴和项目方面的标准是什么?
Arjun Bansal:英特尔在智能医疗领域的合作伙伴,比如说生物技术公司、医院还有医药公司,很多都是我们既有的客户,他们已经大量使用英特尔的计算和存储产品。我们和这些既有的合作伙伴一起,在新的AI领域当中合作。有一些合作方可能没有自己的数据科学家资源,我们会为他们提供相应的能力,有一些合作方有自己的数据科学家资源,我们英特尔帮他们做的主要是对模型进一步优化,比如软件或者芯片。因为我们能够提供全栈式解决方案,所以具体的合作取决于合作方的需求和他们内部的能力,比如需要获得诊断能力的医院,我们会按照他们需要的方式,将技术或者原型投入到主流的实际产品当中去。
新智元:英特尔对于精准医疗的生态有怎样的设想和布局?最先落地的或者说目前成果最多的是哪方面的应用?
Arjun Bansal:我们密切关注着这个市场的变化,精准医疗需要大量的技术支撑,所以算法和模型会很关键。我们有和数据收集和分析有关的项目,也有针对个人用户的核磁共振和CT扫描的解决方案,还有对系统收集和观察到的东西进行分析的能力。我们在智能医疗上大力投入,但我们的工作目标并不是生产面向最终消费者的产品,而是与合作伙伴,包括独立软件开发商共同合作。英特尔拥有端到端的、业界领先的人工智能全栈解决方案,我们会与合作方配合,针对不同的使用目的,提供特定的解决方案。
我认为落地比较快的是CPU方面的成果。从数据科学家角度来说,第一步还是从CPU开始的。再下一步要看具体的情况,比如说对于计算能力的要求、对于数据分析能力的要求、对于延时的要求、对于速度的要求、对于内存规模的要求,不同的要求会有不同的解决方案,这取决于最终的用途到底是什么。所以,英特尔的优势是在于我们提供选择的空间,你可以根据自己的实际需要来选择,是使用FPGA还是CPU还是NNP(神经网络处理器)。
至于应用,在辅助医生阅片方面,我们与浙江医院合作,已经有实际部署,病人已经在使用了。算法有一定的能力,准确度也在不断提高,但是仍然处在将原型带到这个市场变成实际产品的过程当中。在这个过程当中,还是要针对不同的用途,面向不同的挑战来进行处理。比如说有一些我们的合作方或者客户,它面临的是政府监管的挑战,还有一些是社会认知上的误解,觉得这些新技术的采用会让很多人失去饭碗。还有一些人比较关注个人隐私,数据会不会被泄露。所以还是要看不同用途、不同挑战,根据合作伙伴的实际需要相应的加以处理。在中国和印度这种人口很多,但相对来说医生数量又不够的国家,相应的部署速度还是非常快的。
新智元:现在医疗领域很大一部分数据是图像数据,而说到影像处理,GPU有天然的优势,英伟达也在智能医疗领域大量投入,建立了生态。与之相比,英特尔的特点和优势在哪里?
Arjun Bansal:前面我提到英特尔与浙江医院的合作,甲状腺检测,就是处理医疗影像。另外我们与GE医疗合作,主要是做CT扫描,还有合作方做核磁共振,以及做肿瘤检测、人体器官扫描分析,这些都涉及图像处理。实际上现在在医学影像方面,我们做得还是不错的,也有实际客户在使用。医学影像一个很大的挑战,就是需要在内存里面放大量的数据组,这意味着要实现深度学习的能力,需要占用很大的字节空间,而CPU在处理大量数据的时候,精度是比GPU更高的。在自然语言处理和字节空间上我们有一定的技术优势,这也是我们接下来继续努力的方向,就是如何把大规模的数据放在内存里面。然后在此基础上,还要有空间去训练模型,这也是英特尔可以做的。
总之,对客户也好、对供应商也好、对伙伴也好,我们是可以实现选择最大化的那一家公司。
原文发布时间为:2018-04-20
本文作者:闻菲
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。