英伟达最强 AI 芯片、人形机器人模型炸场!黄仁勋放言英语将成最强大编程语言

简介: 在2024年的GTC大会上,英伟达创始人黄仁勋揭幕了新一代AI芯片Blackwell,号称是史上最强AI芯片,目标是推动AI领域的重大进步。

北京时间凌晨4点,天还未亮,美国加利福尼亚州圣何塞SAP中心内已是星光璀璨。聚光灯打在黄仁勋的身上,英伟达的技术盛宴GTC 2024吸引了全世界的目光。AI科技大本营带你直击英伟达GTC2024现场。

“我希望你们意识到,这不是一场音乐会,你们来参加的是一场开发者盛会。”黄仁勋在开场时说道。

史上最强AI芯片

新一代AI图形处理器被命名为Blackwell。该GPU平台以数学家David Harold Blackwell命名。据英伟达称,Blackwell架构系列芯片是迄今为止功能最强大的AI芯片系列。

(黄仁勋展示继Hopper之后的Blackwell)


据黄仁勋介绍,B200拥有2080亿个晶体管(而 H100/H200 上有 800 亿个晶体管),采用台积电4NP工艺制程,可以支持多达10万亿个参数的 AI 模型,而 OpenAI 的 GPT-3 由 1750 亿个参数组成。它还通过单个 GPU 提供20 petaflops(每秒千万亿次浮点运算)的AI性能——单个H100最多可提供 4 petaflops的AI计算。

Blackwell GPU 很大。Blackwell B200并不是传统意义上的单一GPU。它由两个紧密耦合的芯片组成,这两个芯片通过10 TB/s NV-HBI(即Nvidia高带宽接口)进行连接,以确保它们能够作为单个一致的芯片正常运行。

Blackwell架构在 AI 安全方面又向前迈进了重要一步。Blackwell通过100%系统内自测试RAS服务和全性能加密提供安全的AI,也就是说数据不仅在传输过程中安全,而且在静止状态和计算时也安全。

GB200将两个B200 Blackwell GPU与一个基于 Arm的Grace CPU 配对。在具有 1750 亿个参数的 GPT-3 基准测试中,英伟达表示 GB200 的性能是 H100 的 7 倍,训练速度是 H100 的 4 倍。

英伟达没有提供新 GB200 以及所使用的系统成本。据分析师估计,Nvidia基于Hopper的 H100 每个芯片的成本在 2.5万美元到 4万美元之间,整个系统的成本高达20万美元。

亚马逊、谷歌、微软和甲骨文将通过云服务出售 GB200 的访问权限。英伟达表示,AWS、戴尔科技、谷歌、Meta、微软、OpenAI 和特斯拉计划使用 Blackwell GPU,其中亚马逊网络服务将构建一个包含 2万个 GB200 芯片的服务器集群。

英伟达表示,该系统可以部署27万亿参数的模型。这甚至比最大的模型(例如 GPT-4)还要大得多,据报道 GPT-4 有 1.7 万亿个参数。许多人工智能研究人员认为,具有更多参数和数据的更大模型可以释放新功能。

“生成式人工智能是我们这个时代的决定性技术,”黄仁勋在演讲时表示,“Blackwell GPU 是推动这场新工业革命的引擎。与世界上最具活力的公司合作,我们将实现人工智能对每个行业的承诺。”

新配套设备为AI芯片保驾护航

英伟达还发布了 GB200 NVL72 液冷机架系统,其中包含 36 颗 GB200 Grace Blackwell 超级芯片,拥有 1440 petaflops(又名 1.4 exaflops)的推理能力,它内部有近两英里长的电缆,共有 5000 根单独的电缆。

英伟达表示,与用于推理用途的相同数量的 H100 Tensor Core 图形处理单元相比,GB200 NVL72 性能提升高达 30 倍。此外,该系统还可将成本和能耗降低多达 25 倍。

例如,训练一个 1.8 万亿参数模型之前需要 8000 个 Hopper GPU 和 15 兆瓦的功率。如今,只需要 2000 个 Blackwell GPU 就可以做到这一点,而功耗仅为 4 兆瓦。

此外,英伟达称还将推出一款名为 HGX B200 的服务器主板,它基于在单个服务器节点中使用 8个B200 GPU和一个x86 CPU(可能是两个 CPU)。每个B200 GPU 可配置高达1000W,并且 GPU 提供高达 18 petaflops 的 FP4 吞吐量,因此比 GB200 中的GPU慢10%。

目前,企业客户可以通过 HGX B200 和 GB200(将 B200 GPU 与 英伟达的 Grace CPU 结合在一起)访问 B200。

首款人形机器人模型

英伟达还发布了人形机器人通用基础模型Project GROOT,希望通过发布这个新API集合 Project GROOT来推动人形机器人的开发。黄仁勋表示:“这是AI领域中最令人兴奋的课题之一。”

Project GROOT 是一个人形机器人模型,与 Jetson Thor 一起生产。Jetson Thor 是一款 SoC,也是 Nvidia Isaac的升级版。英伟达表示,GROOT 机器人将理解自然语言并模仿人类动作来学习灵活性。Jetson Thor 运行基于 Blackwell 的 GPU,可在 8 位数据处理中提供 800 teraflops 的 AI 性能。

GROOT驱动的机器人将能够理解自然语言,并通过观察人类行为来模仿动作。其能快速学习协调各种技能,具备更好的灵活性,以适应现实世界并与之互动。在黄仁勋的演讲中,他通过视频展示了数台这样的机器人是如何完成各种任务的。

其中包括医疗和物流搬运、分拣用的机械臂,以及可以做打果汁等家务的人形家用机器人,还有的机器人可以模仿人类打架子鼓,也能够从视频中学习人类的舞蹈动作并进行模拟。基于大语言模型,有的人形机器人还可以理解人类的口头指令,并做出回应。

英伟达正在为人形机器人公司开发一个综合的AI平台,如1X Technologies、Agility Robotics、Apptronik、波士顿动力公司等等。

(来到演讲现场的迪士尼机器人Green)

“下一代机器人很有可能是人形机器人,因为我们有更多的模仿训练数据可以提供给和我们构造相似的机器人们。人形机器人可以更有效率地部署在人类设计的工作站、制造和物流环节中。”黄仁勋说。

推理微服务NIM

在GTC 2024上,英伟达还推出了名为NIM(Nvidia Inference Microservice)的推理微服务。该软件将使人工智能的部署变得更加容易。英伟达高管表示,该公司正在不再是一个唯利是图的芯片提供商,而更像是一个平台提供商,就像微软或苹果一样,其他公司可以在平台上构建软件。

NIM 使使用旧版 Nvidia GPU 进行推理或运行人工智能软件的过程变得更加容易,并将允许公司继续使用他们已经拥有的数亿个 Nvidia GPU。与新人工智能模型的初始训练相比,推理所需的计算能力更少。NIM 使想要运行自己的 AI 模型的公司能够使用,而不是从 OpenAI 等公司购买 AI 结果作为服务。

英伟达将与微软或 Hugging Face 等人工智能公司合作,确保他们的人工智能模型能够在所有兼容的英伟达芯片上运行。然后,使用 NIM,开发人员可以在自己的服务器或基于云的英伟达服务器上高效地运行模型,而无需冗长的配置过程。

英伟达表示,该软件还将帮助人工智能在配备 GPU 的笔记本电脑上运行,而不是在云端服务器上运行。

“Hopper 太棒了,但我们需要更大的 GPU。”黄仁勋加在开发者大会上表示,“Blackwell 不是芯片,而是一个平台的名称。”

(黄仁勋展示Blackwell架构的平台能力)

此前,英伟达副总裁Manuvir Das在接受采访时表示。“可销售的商业产品是GPU,而软件都是为了帮助人们以不同的方式使用 GPU,当然,我们仍然这样做。但真正改变的是,我们现在真正拥有了商业软件业务。”Das表示,Nvidia的新软件将使在任何 Nvidia GPU 上运行程序变得更加容易,甚至是那些可能更适合部署但不适合构建人工智能的旧 GPU。

Das说:“如果你是一名开发人员,你有一个有趣的模型,希望人们采用,如果你将它放入 NIM 中,我们将确保它可以在我们所有的 GPU 上运行,这样你就能接触到很多人。”

拥抱AI,共赴未来

黄仁勋表示英伟达已经推出了数十种企业级生成式 AI 微服务,企业可以使用这些服务在自己的平台上制作应用程序,同时保留对其知识产权的完全所有权和控制权。他还宣布将Omniverse Cloud流传输至Apple Vision Pro耳机。

黄仁勋表示,英伟达表示正认真考虑从根本上重新设计整个底层软件堆栈,希望借 AI 之力为人类生成更优质的代码。之所以会有这样的想法,原因非常简单:几十年来,整个世界一直受制于围绕 CPU 发展出的传统计算框架,即由人类编写应用程序以检索数据库中准备好的信息。

黄仁勋在发布会上指出,“我们今天的计算方式,首先需要确定信息是由谁编写、由谁创建的,也就是要求信息先要被记录下来。”而英伟达的 GPU 为加速计算开辟出一条通往算法化计算的新路,可以依托创造性推理(而非固有逻辑)来确定相关结果。

黄仁勋表示,“未来,我们将步入持续学习的时代。我们可以决定是否部署持续学习的成果,而且与计算机的交互不会再借助 C++。”

黄仁勋认为,英语将成为最强大的编程语言,而个性化交互则是缩小技术鸿沟的关键因素。

黄仁勋表示,大语言模型将帮助人类通过计算机把自己的灵感转化为现实,也就是说人类将可以专注于领域专业知识,而生成式 AI 将补齐编程技能这块短板。黄仁勋认为这将彻底颠覆软件的开发格局。

AI时代,让我们联合广大开发者一起,共赴未来。

相关链接:

https://www.youtube.com/watch?v=Y2F8yisiS6E

https://www.cnbc.com/2024/03/18/nvidia-announces-gb200-blackwell-ai-chip-launching-later-this-year.html

————————————————

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明                

原文链接:https://blog.csdn.net/csdnnews/article/details/136849755

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
28天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
77 2
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
105 2
|
28天前
|
机器人
1024 云上见 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建 “文旅领域知识问答机器人” 领精美计时器
1024 云上见 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建 “文旅领域知识问答机器人” 领精美计时器
84 3
|
5天前
|
XML 算法 自动驾驶
ROS进阶:使用URDF和Xacro构建差速轮式机器人模型
【11月更文挑战第7天】本篇文章介绍的是ROS高效进阶内容,使用URDF 语言(xml格式)做一个差速轮式机器人模型,并使用URDF的增强版xacro,对机器人模型文件进行二次优化。
|
20天前
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
39 4
|
29天前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
67 6
|
26天前
|
机器人
1024 云上见 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建 “文旅领域知识问答机器人” 领 200个 精美计时器等你领
1024 云上见 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型,搭建 “文旅领域知识问答机器人” 领 200个 精美计时器等你领
72 2
|
27天前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
1月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
50 4