英伟达发布 Hopper H100 新架构芯片:面向 AI、自动驾驶汽车及 Metaverse 领域

简介: 英伟达发布 Hopper H100 新架构芯片:面向 AI、自动驾驶汽车及 Metaverse 领域

3 月 22 日,芯片设计巨头英伟达( Nvidia)在其 GTC 2022 大会上重磅发布了全新架构的 Nvidia Hopper H100 芯片,主要致力于为 AI、自动驾驶汽车、 Metaverse 工具及数字产品提供动力,进一步加速了图形、科学计算和 AI 方面的探索能力。

image.png

英伟达发布 Hopper H100 AI 芯片

作为 Nvidia A100 的“继承者”,全新的 Hopper H100 AI 芯片,采用了向计算机科学先驱 Grace Hopper 致敬的命名方式(Hopper 曾在世界上最早从事计算机科学工作的一批先驱,她发明了被称为“编译器”的关键编程工具,并对 COBOL 编程语言进行了代码开发,且创造了“bug”一词),在秉承了 Nvidia 架构性能翻倍优势的同时,还赋予了更多“超级”能力。

image.png

英伟达(Nvidia)创始人、CEO 黄仁勋在会上分享称,在该公司的 NVLink 高速通信通道中,客户可将多达 256 个 H100 芯片链接到“本质上是 one mind-blowing 的 GPU”上。

image.png

据介绍,全新 Hopper H100 芯片由台积电 5nm 定制版本制程(4N)打造,由高达 800 亿个晶体管共同构成其数据处理电路,有着 40 terabyte 每秒的 IO 带宽,是全球首款 PCI-E 5 和 HBM 3 显卡。

算力方面,全新 Hopper H100 的 FP8 算力达到了 4PetaFLOPS,FP16 为 2PetaFLOPS,TF32 算力为 1PetaFLOPS,FP64 和 FP32 算力为 60TeraFLOPS。

相比上一代 A100 的 400W 功率,全新 Hopper H100 的功率高达 700W,AI FP8 精度算力为 A100 上 FP16 的 6 倍,实现了英伟达“历代最大的性能提升”。

image.png

据悉,英伟达已经计划将 Hopper H100 封装到其 DGX 计算模块中,这些模块可连接到名为 SuperPads 的大型系统中。由于早期 DGX 的客户是 Meta(以前是 Facebook,且 Meta 拥有一台新的巨型 AI 超级计算机用来打造 Metaverse),而英伟达则希望通过自己的 DGX SuperPod 系统 Eos 来超越它。

据黄仁勋透露,Hopper H100 GPU 将在第三季度发货,而Grace“有望在明年发货”。

除了 Hopper H100 之外,此次大会上英伟达还推出了其安培系列图形芯片新成员 —— RTX A5500 ,用于动画、产品设计和视觉数据处理等 3D 任务,主要面向需要图形功能的专业人士。该芯片的推出也与 Nvidia 在 Omniverse 方面的探索相吻合(Omniverse 致力于构建 metaverse 的 3D 领域所需的工具和云计算服务)。

芯片“之争”

对于全新 Hopper H100 的到来,有媒体评论称“不知道会否给很多竞争对手带来压力”,比如英特尔即将推出的 Ponte Vecchio 处理器(该处理器拥有 1000 多亿个晶体管),以及苹果的M1 Ultra、 Graphcore、SambaNova Systems 和 Cebranas 等初创公司推出的一系列专用 AI 加速器的芯片。

image.png

由于 Hopper H100 芯片也会面向自动驾驶汽车领域,因此在英伟达的竞争对手里面有个比较引人注目的厂商,那就是特斯拉(其 D1 芯片为其 Dojo 技术提供动力以训练自动驾驶汽车)。此前,特斯拉制造商方面还曾表示,Dojo 在投入使用后,将会取代 Nvidia 芯片。

在芯片方面,英伟达可能不如英特尔、苹果知名,但在新一代技术实用化方面,英伟却不容小觑。比如其在 Omniverse 方面的探索已跨越了多个领域,包括通过云和数字孪生技术进行的协同 3D 设计等工作,均已反映了计算系统中真实世界的一部分。

尽管对手如云,但英伟达依旧在不断进取且已取得进展。英伟达计划将于 2026 年推出新一代 Hyperion 汽车芯片系列,并预计未来 6 年将从汽车芯片中盈利 110 亿美元。至于在 metaverse 方面的进一步发展和探索,也更值得我们期待。

nvidia人工智能ai芯片

相关文章
|
10天前
|
传感器 机器学习/深度学习 人工智能
AI在自动驾驶汽车中的应用与未来展望
AI在自动驾驶汽车中的应用与未来展望
58 9
|
27天前
|
机器学习/深度学习 人工智能 语音技术
Fugatto:英伟达推出的多功能AI音频生成模型
Fugatto是由英伟达推出的多功能AI音频生成模型,能够根据文本提示生成音频或视频,并修改现有音频文件。该模型基于增强型的Transformer模型,支持复杂的组合指令,具有强大的音频生成与转换能力,广泛应用于音乐创作、声音设计、语音合成等领域。
67 1
Fugatto:英伟达推出的多功能AI音频生成模型
|
24天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
64 12
|
26天前
|
人工智能 自然语言处理 知识图谱
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
英伟达提出nGPT(Normalized Transformer),通过单位范数归一化和超球面上的表示学习,显著提升了Transformer模型的训练速度和性能。实验显示,nGPT在处理4k长度序列时,训练速度比传统Transformer快10倍,且在多个下游任务中表现出色。论文地址:https://arxiv.org/pdf/2410.01131
38 12
|
21天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
27天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
48 0
|
27天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
45 0
|
21天前
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
|
1月前
|
Cloud Native Devops 云计算
云计算的未来:云原生架构与微服务的革命####
【10月更文挑战第21天】 随着企业数字化转型的加速,云原生技术正迅速成为IT行业的新宠。本文深入探讨了云原生架构的核心理念、关键技术如容器化和微服务的优势,以及如何通过这些技术实现高效、灵活且可扩展的现代应用开发。我们将揭示云原生如何重塑软件开发流程,提升业务敏捷性,并探索其对企业IT架构的深远影响。 ####
43 3
|
1月前
|
Cloud Native 安全 数据安全/隐私保护
云原生架构下的微服务治理与挑战####
随着云计算技术的飞速发展,云原生架构以其高效、灵活、可扩展的特性成为现代企业IT架构的首选。本文聚焦于云原生环境下的微服务治理问题,探讨其在促进业务敏捷性的同时所面临的挑战及应对策略。通过分析微服务拆分、服务间通信、故障隔离与恢复等关键环节,本文旨在为读者提供一个关于如何在云原生环境中有效实施微服务治理的全面视角,助力企业在数字化转型的道路上稳健前行。 ####