谷歌第二代TPU再“飞升” 动摇英伟达GPU市场主导地位

简介:

相较于只能使用在深度学习推论(inferencing)的第一代Tensor Processing Unit (TPU)芯片,Google第二代人工智能(AI)芯片Cloud TPU不仅处理速度更快,还多了训练算法的能力,因此可望对NVIDIA绘图处理器(GPU)芯片在AI市场的主导地位造成更大的威胁。

富比士(Forbes)报导指出,深度学习是一种利用大量资料对算法进行训练的AI技术,并已普遍应用在影像与语音辨识功能上。在TPU问世以前,算法的训练多是交由NVIDIA的GPU负责处理。GPU原本是专为电动游戏等专业图形处理任务所设计,但其能将训练深度学习网络所需时间,从几个星期缩短至几天,因此深受AI开发人员青睐。

不过由4块芯片组成最新的Cloud TPU,每秒浮点运算量号称可达180tera FLOPS,比起NVIDIA最新一代GPU Tesla V100的120tera FLOPS高出不少。此外,Google也正尝试将多个TPU集成为单一的TPU Pod系统。TPU Pod与NVIDIA的NVLink技术概念相似,并可望达到每秒11.5petaFLOPS的运算能力。

对Google而言,GPU训练深度学习模型所需时间还是太长。像是Google翻译应用如果使用市面上最新的32片GPU芯片进行训练,仍需要一整天的时间才能完成训练,但如果换成TPU Pod,只需要8分之1的运算能力,就可在6个小时内完成训练。

Google资深科学家Jeff Dean表示,第二代TPU提供了更强大的运算能力,而Google将能藉此打造规模更大、更准确的机器学习模型。

第二代TPU芯片除了将运用在Google的内部服务外,也将透过Google Cloud开放给外部开发人员,而Cloud TPU的租用方式与费用将与目前GPU的租用规则相似。Google更计划推出TensorFlow Research Cloud,并免费发送1,000份TPU芯片供开放AI研究使用。

尽管Google的云端业务起步较亚马逊(Amazon)及微软(Microsoft)晚了一些,但第二代TPU的加入将可给予Google更多竞争优势。

不过也有不少人对Google的芯片事业发展持较保留的看法。分析师Patrick Moorhead便认为,有监于机器学习框架随时都在改变,且其深度与复杂程度都不是单靠TPU就能应付,Google未来仍将不能完全摆脱对GPU的依赖。

另一方面,由于TPU是专为Google的TensorFlow框架所设计,因此外部开发人员如果要将TPU所开发的AI应用移植至Google外的平台,可能会面临一定的风险,而这也表示Google将更有机会把这些应用锁定在自家的云端平台。

本文转自d1net(转载)

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
机器学习/深度学习 并行计算 图形学
CPU、GPU、TPU、NPU等到底是什么?
CPU、GPU、TPU、NPU等到底是什么?
3089 3
|
29天前
|
机器学习/深度学习 人工智能 芯片
42_大语言模型的计算需求:从GPU到TPU
随着2025年大语言模型技术的持续突破和规模化应用,计算资源已成为推动AI发展的关键驱动力。从最初的CPU计算,到GPU加速,再到专用AI加速器的崛起,大语言模型的计算需求正在重塑全球数据中心的基础设施架构。当前,全球AI半导体市场规模预计在2027年将达到2380亿美元(基本情境)甚至4050亿美元(乐观情境),这一增长背后,是大语言模型对计算能力、内存带宽和能效比的极致追求。
|
7月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
3355 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
8月前
|
人工智能 vr&ar 图形学
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
牛津大学与谷歌联合推出的Bolt3D技术,能在单个GPU上仅用6.25秒从单张或多张图像生成高质量3D场景,基于高斯溅射和几何多视角扩散模型,为游戏、VR/AR等领域带来革命性突破。
300 2
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
|
9月前
|
存储 人工智能 算法
Magic 1-For-1:北大联合英伟达推出的高质量视频生成量化模型,支持在消费级GPU上快速生成
北京大学、Hedra Inc. 和 Nvidia 联合推出的 Magic 1-For-1 模型,优化内存消耗和推理延迟,快速生成高质量视频片段。
397 3
Magic 1-For-1:北大联合英伟达推出的高质量视频生成量化模型,支持在消费级GPU上快速生成
|
10月前
|
人工智能 文字识别 异构计算
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
NVIDIA-Ingest 是英伟达开源的智能文档提取工具,支持 PDF、Word、PPT 等多种格式,提供并行处理和 GPU 加速,适用于企业内容管理和生成式应用。
374 18
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
2743 0
|
机器学习/深度学习 人工智能 并行计算
【人工智能】CPU、GPU与TPU:人工智能领域的核心处理器概述
在人工智能和计算技术的快速发展中,CPU(中央处理器)、GPU(图形处理器)和TPU(张量处理器)作为核心处理器,各自扮演着不可或缺的角色。它们不仅在性能上各有千秋,还在不同的应用场景中发挥着重要作用
930 2
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
存储 人工智能 安全
探秘英伟达显卡的制造之路 | 英伟达断供GPU,中国大模型何去何从?
在当今时代,人工智能技术正以前所未有的速度发展,推动着各个领域的创新与变革。作为人工智能技术的核心引擎之一,高性能GPU扮演着至关重要的角色。在这个领域,英伟达的H100无疑是一款备受瞩目的高端产品。它针对高性能计算和人工智能应用而设计,具备强大的计算能力和高内存容量,以及先进的互连技术,可以有效提升集群中的计算效率,加速深度学习、计算机视觉、自然语言处理等领域的AI训练和推理任务。
1282 0

热门文章

最新文章

下一篇
开通oss服务