谷歌的操作系统无疑是地球上最大的计算机网络,该系统由遍布四大洲15个地点的巨大数据中心组成。大约六年前,当该公司在Android手机上发布一种新的语音识别系统时,工程师们曾担心这个网络还不够大。这些工程师意识到,如果世界上所有的安卓手机用户每天使用谷歌语音搜索3分钟,那么该公司将需要更大规模的数据中心,其可以是目前的两倍。
当时,谷歌刚刚开始应用度神经网络、复杂的数学系统来提供语音识别服务。其通过分析海量数据,可以执行特定的任务。近年来,机器学习技术不仅改变了语音识别,还有图像识别、机器翻译、网络搜索诸多应用都发生了改变。在采用这种方法的过程中,谷歌发现错误率下降了25%。但这一转变需要额外的动力。
谷歌并没有将数据中心的规模扩大一倍,而是开发了自己的电脑芯片,专门用于运行深度神经网络,称为“张量处理单元”TPU。TPU工程师Norm Jouppi指出:“这种解决方案的性能更高。”事实上,相比于标准处理器,TPU的功耗效率(TOPS/Watt)提升了 30到 80倍。
谷歌称人工智能芯片让他们省了15个数据中心!
谷歌神经网络芯片
去年5月首次向公众展示了这一定制化芯片,但没有透露更多细节。现在,Jouppi和他的团队其他成员已经发表了一篇论文,详细解释了芯片是如何运作的,以及它所解决的具体问题。谷歌把芯片单独用于执行神经网络,当有人在安卓手机上发出相关指令时,就会运行这些芯片。它并没有被用于预先训练的神经网络。但正如Jouppi所解释的那样,即使是这样也节约了大量开支。它不需要再建造15个数据中心。
这种芯片也代表了计算机处理器一个巨大转变。随着谷歌、Facebook、微软和其他互联网巨头利用深度神经网络提供越来越多的服务,它们都需要专门的芯片来训练和执行这些人工智能模型。大多数公司都使用GPU来训练他们的模型,这些芯片最初用于游戏和其他视觉应用程序,但也适用于神经网络核心的数学运算。包括微软和中国互联网巨头百度在内的一些公司,在执行这些模型时也使用了替代芯片,就像谷歌在TPU上所做的那样。
区别在于,谷歌从零开始打造自己的芯片。该公司通过建立自己的数据中心,包括建设服务器和网络设备来提高效率、降低成本。现在,它把这项工作一直细化到各个处理器上。
在此过程中,它也改变了原有的片市场。例如,由于谷歌自己设计了自己的产品,它不会再购买其他处理器来适应神经网络的额外负荷。此举会对芯片行业产生广泛影响,比如Facebook、亚马逊和微软,都是世界上最大的芯片采购商。与此同时,包括英特尔在内的大型芯片制造商正在构建一种新的处理器,以捍卫自己的市场主导地位。
专注人工智能但用途多样
Jouppi于2013年底加入谷歌,专门研究TPU。其曾在惠普和DEC等公司担任硬件研究人员,这是谷歌许多顶级硬件设计师的发源地。他说,公司考虑将其神经网络转移到微软曾使用的可编程芯片FPGA之上。这不会花费太长时间,而FPGA的适应性意味着公司可以根据需要重新为其他任务进行编程。但测试表明,这些芯片并没有提升性能。他解释说:“可编程芯片的开销很大。”“我们的分析显示,FPGA的速度并不比GPU快。”
最后,团队选定了ASIC,这是一种为某一特定任务而打造的芯片。根据Jouppi的说法,谷歌专门为神经网络设计了芯片,它可以比类似技术制造的普通芯片速度快15到30倍。也就是说,这种芯片适合任何类型的神经网络,其中包括图像识别中使用的卷积神经网络以及用于识别语音指令的长短期记忆网络。他说:“这种专用芯片与模式无关。”
两年来谷歌的TPU效果不错,谷歌已经将其应用于从图像识别到机器翻译的所有任务,去年春天破解围棋的人工智能系统AlphaGo也是TPU这种芯片,其表现并不算糟。
本文转自d1net(转载)