谷歌称人工智能芯片让他们省了15个数据中心!

简介:

谷歌的操作系统无疑是地球上最大的计算机网络,该系统由遍布四大洲15个地点的巨大数据中心组成。大约六年前,当该公司在Android手机上发布一种新的语音识别系统时,工程师们曾担心这个网络还不够大。这些工程师意识到,如果世界上所有的安卓手机用户每天使用谷歌语音搜索3分钟,那么该公司将需要更大规模的数据中心,其可以是目前的两倍。

当时,谷歌刚刚开始应用度神经网络、复杂的数学系统来提供语音识别服务。其通过分析海量数据,可以执行特定的任务。近年来,机器学习技术不仅改变了语音识别,还有图像识别、机器翻译、网络搜索诸多应用都发生了改变。在采用这种方法的过程中,谷歌发现错误率下降了25%。但这一转变需要额外的动力。

谷歌并没有将数据中心的规模扩大一倍,而是开发了自己的电脑芯片,专门用于运行深度神经网络,称为“张量处理单元”TPU。TPU工程师Norm Jouppi指出:“这种解决方案的性能更高。”事实上,相比于标准处理器,TPU的功耗效率(TOPS/Watt)提升了 30到 80倍。

谷歌称人工智能芯片让他们省了15个数据中心!

  谷歌神经网络芯片

去年5月首次向公众展示了这一定制化芯片,但没有透露更多细节。现在,Jouppi和他的团队其他成员已经发表了一篇论文,详细解释了芯片是如何运作的,以及它所解决的具体问题。谷歌把芯片单独用于执行神经网络,当有人在安卓手机上发出相关指令时,就会运行这些芯片。它并没有被用于预先训练的神经网络。但正如Jouppi所解释的那样,即使是这样也节约了大量开支。它不需要再建造15个数据中心。

这种芯片也代表了计算机处理器一个巨大转变。随着谷歌、Facebook、微软和其他互联网巨头利用深度神经网络提供越来越多的服务,它们都需要专门的芯片来训练和执行这些人工智能模型。大多数公司都使用GPU来训练他们的模型,这些芯片最初用于游戏和其他视觉应用程序,但也适用于神经网络核心的数学运算。包括微软和中国互联网巨头百度在内的一些公司,在执行这些模型时也使用了替代芯片,就像谷歌在TPU上所做的那样。

区别在于,谷歌从零开始打造自己的芯片。该公司通过建立自己的数据中心,包括建设服务器和网络设备来提高效率、降低成本。现在,它把这项工作一直细化到各个处理器上。

在此过程中,它也改变了原有的片市场。例如,由于谷歌自己设计了自己的产品,它不会再购买其他处理器来适应神经网络的额外负荷。此举会对芯片行业产生广泛影响,比如Facebook、亚马逊和微软,都是世界上最大的芯片采购商。与此同时,包括英特尔在内的大型芯片制造商正在构建一种新的处理器,以捍卫自己的市场主导地位。

专注人工智能但用途多样

Jouppi于2013年底加入谷歌,专门研究TPU。其曾在惠普和DEC等公司担任硬件研究人员,这是谷歌许多顶级硬件设计师的发源地。他说,公司考虑将其神经网络转移到微软曾使用的可编程芯片FPGA之上。这不会花费太长时间,而FPGA的适应性意味着公司可以根据需要重新为其他任务进行编程。但测试表明,这些芯片并没有提升性能。他解释说:“可编程芯片的开销很大。”“我们的分析显示,FPGA的速度并不比GPU快。”

最后,团队选定了ASIC,这是一种为某一特定任务而打造的芯片。根据Jouppi的说法,谷歌专门为神经网络设计了芯片,它可以比类似技术制造的普通芯片速度快15到30倍。也就是说,这种芯片适合任何类型的神经网络,其中包括图像识别中使用的卷积神经网络以及用于识别语音指令的长短期记忆网络。他说:“这种专用芯片与模式无关。”

两年来谷歌的TPU效果不错,谷歌已经将其应用于从图像识别到机器翻译的所有任务,去年春天破解围棋的人工智能系统AlphaGo也是TPU这种芯片,其表现并不算糟。

本文转自d1net(转载)

目录
相关文章
|
7月前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
7月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
28天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
66 12
|
25天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
1月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
48 0
|
1月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
46 0
|
2月前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
2月前
|
人工智能 自然语言处理 安全
Gemini 人工智能:谷歌AI重磅来袭!好消息,国内可用
Gemini 是 Google 🧠 开发的革命性人工智能模型,旨在打造一个功能强大的多模态 AI 系统。
|
2月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
2月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。