揭秘Google人工智能FPU之Tensor处理单元

简介:

2013年,Google意识到自己越来越依赖于机器学习,这迫使它不得不扩建数据中心使其数量翻一番,以应对预期的工作负载。

根据Google提供的数据中心运营(包括15个主要数据中心站点)的信息,Google正在考虑增加150亿美元的额外支出,如果Google的一个大型数据中心成本大约是10亿美元。

Google成立了一个团队开发定制的芯片,来处理部分神经网络工作流也就是推理工作,其中软件通过耗费时间和计算密集型的训练阶段产生的数据来进行预测。处理器在PCIe总线上,接受来自主机CPU的命令,这类似于以前的离散FPU或者数学协同处理器,但显然改善达到了今天的标准。

揭秘Google人工智能FPU之Tensor处理单元

目标是将GPU(Graphic Processing Unit,图形处理器)的性价比提高10倍。据Google自己的估计,这已经成功了,虽然芯片被超越以来一直与内部开发的硬件处于竞争中。

在硅谷计算机历史博物馆举行的National Academy of Engineering会议上,技术演示文稿中提及了一篇文章,称Google的工程师们公布了Google的Tensor Processing Unit(TPU)——一个专门处理TensorFlow机器学习任务的定制ASIC——是如何在数据中心中运作的。

Google在Google I/O 2016大会上推出了他们的TPU。知名硬件工程师、MIPS CPU顶级架构师Norm Jouppi在一篇博客文章中表示,Google从2015年开始就在自己的数据中心内运行TPU,这种专有的芯片“为机器学习提供的每瓦性能有指数级的增长。”

Jouppi甚至表示,这种改进领先了7年时间,大约是摩尔定律下更新3代。

Google高管此前宣称,人工智能——包括机器学习和相关技术——对于Google的未来至关重要。针对人工智能进行的硬件定制强调了这个说法。

现在,Google与英特尔Hashwell CPU以及Nvidia Tesla K80 GPU的性能测试似乎验证了它的做法。

Jouppi在本周发表的一篇博客文章称,基于神经网络推理涉及的工作负载,“TPU要比当前GPU和GPU快15-30倍”,而且实现“30-80倍改善”是以每瓦TOPS计算的。

斯坦福视觉实验室的博士生Justin Johnson在一篇博客文章中指出,Google的研究院人员将其与Tesla K80 GPU进行了对比,后者已经推出了两袋,缺乏对TPU中计算的硬件支持。

“对比结果看起来并不是特别突出,仅次于现有的Tesla P40 GPU,据称P40提供了47 INT8 TOP/s at 250W TDP;与P40相比,TPU快1.9倍,能效提高6.5倍。”

尽管如此,Google的结果表明,“成本能源表现的重大改进来自于特定的硬件”,换句话说,半导体制造商可能更倾向于将他们设计的硬件与预期应用进行匹配。

Johnson解释说,TPU是设计旨在加速神经网络推理阶段的专用硬件,一部分是通过将32位浮点计算量化为较低精度的8位计算。

“这使其相比通用GPU实现更高的速度和能效。能源效率在大规模数据中心场景下尤为重要,改善能源效率可以显著降低大规模运营的成本。”

Johnson表示,他不太确定TPU是否具有广泛意义。“因为它不是专门用于训练的,我认为研究人员可能会在不久的将来坚持使用Nvidia。涉及你自己的定制硬件是一项庞大的工程设计,可能超出了大多数公司的能力,所以我不期望在不久的将来每家公司都拥有自己定制的TPU芯片。”

尽管如此,他推测TPU将有助于Google Cloud Platform减少来自AWS的竞争,至少在客户在生产中训练神经网络方面。



原文发布时间为:2017年4月7日

本文作者:杨昀煦 

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
7月前
|
人工智能 编解码 安全
[AI Google] 基于我们对提供负责任的人工智能的承诺
今天,我们宣布了新的人工智能保障措施,以防止滥用,并推出了利用人工智能使学习更具吸引力和可访问性的新工具
[AI Google] 基于我们对提供负责任的人工智能的承诺
|
6月前
|
机器学习/深度学习 人工智能 数据处理
人工智能平台PAI产品使用合集之PAI-DSW实例服务器ping不通google.com,该如何排查
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
人工智能 自然语言处理 数据可视化
Google SGE 正在添加人工智能图像生成器,现已推出:从搜索中的生成式 AI 中获取灵感的新方法
Google SGE 正在添加人工智能图像生成器,现已推出:从搜索中的生成式 AI 中获取灵感的新方法
274 1
|
机器学习/深度学习 数据采集 人工智能
好饭不怕晚,Google基于人工智能AI大语言对话模型Bard测试和API调用(Python3.10)
谷歌(Google)作为开源过著名深度学习框架Tensorflow的超级大厂,是人工智能领域一股不可忽视的中坚力量,旗下新产品Bard已经公布测试了一段时间,毁誉参半,很多人把Google的Bard和OpenAI的ChatGPT进行对比,Google Bard在ChatGPT面前似乎有些技不如人。 事实上,Google Bard并非对标ChatGPT的产品,Bard是基于LaMDA模型对话而进行构建的,Bard旨在构建一个对话式的AI系统,使其能够更好地理解人类语言,并且具备进行多轮对话的能力。而GPT的目标是生成自然语言文本。
好饭不怕晚,Google基于人工智能AI大语言对话模型Bard测试和API调用(Python3.10)
|
机器学习/深度学习 人工智能 城市大脑
Google替代、阿里协作,人工智能不只有乐观与悲观之争
身在轮椅,却时不时心系一下宇宙、人类未来的霍金,几年前抛出的“人工智能的发展可能意味着人类的灭亡”言论,无疑把人工智能威胁这个讨论了几十年的陈年老话题又搬上了台面。
Google替代、阿里协作,人工智能不只有乐观与悲观之争
|
机器学习/深度学习 人工智能 自然语言处理
从新一代TPU到Google.ai,详解谷歌I/O首日人工智能五大亮点
当地时间 5 月 17 日,谷歌在山景城开启了本年度的谷歌 I/O 开发者大会。昨日机器之心对此次大会上将出现的有关人工智能和机器学习的内容进行了梳理。机器之心作为谷歌官方受邀媒体来到现场,近距离为大家报道谷歌人工智能的最新进展。
534 0
从新一代TPU到Google.ai,详解谷歌I/O首日人工智能五大亮点
|
机器学习/深度学习 人工智能 算法
2018年AI 8大趋势:人工智能将助力Google、Facebook等大公司稳赢?
计算分析大数据远远没有过时。反而,随着数据量不断增大,数据分析的水平也逐渐提高。我们看到的预测分析(Predictive Analytics)的应用,仅仅只是冰山一角。很多公司采用数据挖掘,机器学习和人工智能的方法预测销售额,从而达到优化市场营销的目的。
3260 0
|
新零售 机器学习/深度学习 人工智能
|
人工智能 Android开发 机器学习/深度学习