英伟达回应谷歌威胁论:Volta GPU性能远强于二代TPU

简介:

据CNBC北京时间5月25日报道,谷歌上周推出了第二代TPU,专注于人工智能领域。外界普遍认为,谷歌此举最终会削弱图形芯片厂商英伟达的增长势头,毕竟,英伟达的增长主要得益于那些使用其芯片进行人工智能处理的企业客户。不过,英伟达CEO黄仁勋周三驳斥了这种说法,称即将推出的Volta GPU的运算能力远远超过谷歌第二代TPU。

过去几年,英伟达与此类计算形式建立了紧密联系,由于投资者看好英伟达的前景,加上销售量不断增长,该公司股价持续走高。英伟达股价在去年上涨了逾200%,而从2017年初到现在也累计上涨了30%。上周,在谷歌发布第二代TPU以后,英伟达股价应声下跌,不过随后出现反弹。谷歌第二代TPU也是英伟达在芯片市场面临的最大竞争对手。

英伟达CEO黄仁勋(Jensen Huang)周三在一篇博文中强调了该公司与谷歌的合作,同时间接驳斥了有关谷歌TPU对英伟达构成严重威胁的说法。此外,英伟达还宣布计划在开源许可模式下推出特定人工智能软件。

黄仁勋写道:“我们想要看到人工智能在各地快速普及。但别人根本不需要投资开发TPU(就像谷歌所做的那样)。我们就有可以免费提供的版本,是由世界上最优秀的一些芯片设计师设计的。”不同于英伟达的芯片销售模式,谷歌TPU并不向企业客户公开出售,而是通过谷歌云平台(Google Cloud Platform)对外出租。

作为一种人工智能形式,深度学习通常涉及两个阶段。在第一个阶段,研究人员通过向计算机(通常配备GPU)提供大量数据,训练它们从事各类活动,比如识别照片中的汽车。在第二阶段,一旦计算机得到充分训练,研究人员开始向它们发送新数据,指导它们基于自己所掌握的知识,对这些数据进行预测。近年来,谷歌和其他许多科技公司都在深度学习领域加大投入,用于各种各样的目的。

谷歌在去年发布了第一代TPU,但仅用于推理(inference)——这也是描述深度学习第二阶段的专用词。上周推出的第二代TPU可同时处理训练(深度学习的第一阶段)和推理,使得谷歌自家TPU对英伟达GPU带来更大的威胁。

黄仁勋指出,目前企业客户仍可以在谷歌云平台上访问英伟达GPU,而英伟达也在与谷歌携手改善TensorFlow的性能。TensorFlow是谷歌开源的深度学习系统。“人工智能是人类历史上最大的科技力量,我们非常乐意看到推动人工智能大众化及加速人工智能普及速度的努力,”黄仁勋写道。

黄仁勋还表示,谷歌第二代TPU每秒可处理45万亿次浮点运算,而英伟达最新GPU(代号为“Volta”)每秒处理的浮点运算可达120万亿次。不久,谷歌将允许第三方开发者使用Cloud TPU,每个Cloud TPU将在含有四个TPU的主板上进行操作,提供总计180万亿次的每秒浮点运算。

本文转自d1net(转载)

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
4月前
|
人工智能 缓存 调度
技术改变AI发展:RDMA能优化吗?GDR性能提升方案(GPU底层技术系列二)
随着人工智能(AI)的迅速发展,越来越多的应用需要巨大的GPU计算资源。GPUDirect RDMA 是 Kepler 级 GPU 和 CUDA 5.0 中引入的一项技术,可以让使用pcie标准的gpu和第三方设备进行直接的数据交换,而不涉及CPU。
134612 6
|
24天前
|
人工智能 芯片 异构计算
台积电董事长预测:未来15年每瓦GPU性能提升1000倍,GPU晶体管数破万亿!
台积电董事长预见到未来15年内GPU性能每瓦提升1000倍,晶体管数量将破万亿,展示半导体行业激动人心的前景。这将增强GPU计算能力,但同时也带来制造工艺复杂性、散热管理和能效提升的挑战。3D集成技术有望解决部分问题,但需克服技术与经济障碍。
22 5
台积电董事长预测:未来15年每瓦GPU性能提升1000倍,GPU晶体管数破万亿!
|
1月前
|
人工智能 芯片 异构计算
GPU震撼发布:性能飙升,功耗惊人,液冷成新宠?
Blackwell推出新一代GPU,性能比H100提升5倍,浮点运算速度惊人,但最高1200W功耗需液冷散热。产品线包括B100、B200和GB200超级芯片,后者结合72核CPU,计算性能达40petaflops,内存384GB。新NVLink技术助力GB200构建NVL72系统,可处理27万亿参数的AI模型。
19 1
|
1月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
5月前
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
|
1月前
|
机器学习/深度学习 存储 弹性计算
阿里云GPU服务器价格多少钱?2024年阿里云GPU服务器价格配置及性能测评
2024年阿里云GPU服务器是一款高性能的计算服务器,基于GPU应用的计算服务,多适用于视频解码、图形渲染、深度学习、科学计算等应用场景。阿里云GPU服务器具有超强的计算能力、网络性能出色、购买方式灵活、高性能实例存储等特点。 阿里云提供了多种配置的GPU服务器,包括gn6v、gn6i、vgn6i-vws和gn6e等,这些服务器配备了不同型号的GPU计算卡、不同规格的内存和存储空间,可以满足不同用户的计算需求。同时,阿里云还为新用户提供了特惠价格,包年购买更是低至3折起,使得用户可以更加经济地购买到高性能的GPU服务器。
155 0
|
6月前
|
机器学习/深度学习 人工智能 芯片
一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?
近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。
|
5月前
|
存储 人工智能 安全
探秘英伟达显卡的制造之路 | 英伟达断供GPU,中国大模型何去何从?
在当今时代,人工智能技术正以前所未有的速度发展,推动着各个领域的创新与变革。作为人工智能技术的核心引擎之一,高性能GPU扮演着至关重要的角色。在这个领域,英伟达的H100无疑是一款备受瞩目的高端产品。它针对高性能计算和人工智能应用而设计,具备强大的计算能力和高内存容量,以及先进的互连技术,可以有效提升集群中的计算效率,加速深度学习、计算机视觉、自然语言处理等领域的AI训练和推理任务。
|
10月前
|
存储 算法 数据可视化
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
158 0