黄仁勋教主再发威:刚刚推出GPU服务器标准平台

简介: 3月份的2018 GTC结束后,英伟达今天在台湾开了个“专场”,发布了不少新产品,其中包括英伟达GPU服务器标准平台HGX-2和全新的RTX技术,并且黄教主还坚称英伟达GPU“买得越多,省的越多”。

黄仁勋说,今天这场演讲聚焦三大主题:

1、如何持续强化GPU运算能力。

2、庞大的系统、基础架构以及软件生态系统正在围绕英伟达的平台而建立。

3、庞大的终端市场商机以及英伟达建立的软件平台将合作运作。

在新品方面,英伟达宣布推出英伟达HGX-2以及全新的NVIDIA RTX技术。黄教主还不忘“推销”英伟达世界最大的GPU,售价39.9万美元,“好便宜啊!”

计算力还在增长,英伟达GPU“买得越多,省的越多”

黄仁勋还讲了计算力:五年成长30倍。

这是OpenAI最近公布一张图表,表示训练AI模型的运算五年内将成长30万倍,这比摩尔定律快3万倍。

09c44b21a2ecb1b01805a648289eb50d0a214e08

通过增加数据和GPU效能,机器可以编写非常复杂的软件,不需要人工编写,并解决近期无法解决的问题。

未来的运算将融合模拟和机器学习方法,这对英伟达提出了挑战。黄仁勋提出“GPU再造”的口号,创造了Tensor Core GPU,它融合了HPC和AI运算的新架构。

42d69a0cf973f9fa87fadb43ac05463c2351635d

Tensor Core GPU具有多种精度,支持高运算 FP64、FP32、FP16、Int8和单周期4X4矩形乘法累加起来进行深度学习。

Volta是第一款Tensor Core GPU,并采用125张Tensor TFLOPS来增强AI,比以前的GPU快10倍。

NVSwith是一种新型高频宽交换器,其协议可扩展跨16个Volta Tensor 核心GPU的单晶片内建记忆体。程序员可看到具有2 PFLOPS性能的单一512GB GPU。

3月GTC发布的英伟达DGX-2是有史以来最大的GPU,世上第一个2 PFLOPS系统,512GB HBM2,重350磅(相当于两个黄仁勋)。

231e30d493ca02db200d1ce114d269f5a198794b

6个月前, DGX-2的加速套件比DGX-1的性能提高了10倍!

售价39.9万美元让黄仁勋直呼“便宜”,更关键的是,一台DGX-2的效能媲美300台双CPU服务器,且只要1/8的价格与1/18的功率。

“买的越多,省得越多。”

重磅发布HGX-2平台,全新NVIDIA RTX技术亮相

现在,打造HPC与AI的服务器相当复杂,几乎已达到系统设计的极限。

英伟达今天宣布推出NVIDIA GPU服务器标准平台HGX-2。

dec3289e87b95ccbb60c304b9820b7d617b649bf

HGX-2为DGX-2的组件,包含16个Volta Tensor核心GPU,完全连接。

目前,HGX-2加入英伟达服务器系列平台,提供全新模式的超效能运算。下面是平台家族一览:

d47e62d2b349aca45e42305ed6714efbe5ed61d9 HGX-T对于超大规模训练及HPC
d47e62d2b349aca45e42305ed6714efbe5ed61d9 HGX-I针对超大规模推理及IVA

d47e62d2b349aca45e42305ed6714efbe5ed61d9SCX-E针对资料中心、HPC、IVA、VDI及渲染

7ffa712f6259f2b6a2819cad402a7ac59d4b8e4f

售价方面,英伟达没有官方公布,不过黄仁勋在演讲时随口说了句“20万美元”(还是以官方为准)。

另外,在GPU的效能和应用方面,黄仁勋举了几个例子:

42daf0d738e49156aea9030be5039508cca87511

5年前Alex Krizhevsky用两个GTX 580 GPU花6天时间成功训练AlexNet,而一台DGX-2仅需18分钟就能够相同目标,提升了500倍。

除了用于AI等领域,GPU在媒体与娱乐方面每年对超过十亿张影像进行渲染。

电脑绘图是GPU发展的驱动力,用不满足于运算效能,同时这也是一个巨大的产业。

93451734f5fb16557a0a4e8d8d4c0877227357fa

英伟达还宣布推出全新集10年研究大成于一身的NVIDIA RTX技术。NVIDIA RTX结合即时绘图、加速光线追踪与深度学习的各项突破性技术,首度针对高逼真度图像渲染进行加速。

RTX 是15年前自NVIDIA发明可编程即时渲染技术以来最重要的突破。


原文发布时间为:2018-05-30

本文作者:克雷格、肖琴、子涵

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。

原文链接:黄仁勋教主再发威:刚刚推出GPU服务器标准平台

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
11天前
|
弹性计算 运维 安全
云服务器 ECS产品使用问题之是否可以搭建ERP平台
云服务器ECS(Elastic Compute Service)是各大云服务商阿里云提供的一种基础云计算服务,它允许用户租用云端计算资源来部署和运行各种应用程序。以下是一个关于如何使用ECS产品的综合指南。
|
15天前
|
openCL Linux 异构计算
Linux服务器如何查询GPU型号
【6月更文挑战第13天】Linux服务器如何查询GPU型号
25 1
|
17天前
|
机器学习/深度学习 人工智能 网络安全
人工智能平台PAI产品使用合集之在本地可以成功进入模型流,但在服务器上无法进入,是什么原因
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
17天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能平台PAI产品使用合集之进入DSW后,如何把工作环境切换为GPU状态
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
24天前
|
存储 关系型数据库 测试技术
蓝易云 - 站长平台:云服务器可以怎么玩?
以上只是云服务器的一些基本用途,实际上,你可以根据你的需求,使用云服务器做任何你想做的事情。
17 0
|
26天前
|
异构计算 弹性计算 并行计算
|
1月前
|
机器学习/深度学习 弹性计算 自然语言处理
【阿里云弹性计算】深度学习训练平台搭建:阿里云 ECS 与 GPU 实例的高效利用
【5月更文挑战第28天】阿里云ECS结合GPU实例为深度学习提供高效解决方案。通过弹性计算服务满足大量计算需求,GPU加速训练。用户可按需选择实例规格,配置深度学习框架,实现快速搭建训练平台。示例代码展示了在GPU实例上使用TensorFlow进行训练。优化包括合理分配GPU资源和使用混合精度技术,应用涵盖图像识别和自然语言处理。注意成本控制及数据安全,借助阿里云推动深度学习发展。
152 2
|
1月前
|
负载均衡 固态存储 Linux
阿里云轻量应用服务器、云服务器、gpu云服务器最新收费标准参考
轻量应用服务器、云服务器、gpu云服务器是阿里云服务器产品中,比较热门的云服务器产品类型,不同类型的云服务器产品收费模式与收费标准是不一样的,本文为大家展示这几个云服务器产品的最新收费标准情况,以供参考。
阿里云轻量应用服务器、云服务器、gpu云服务器最新收费标准参考
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能平台PAI产品使用合集之如何在CPU服务器上使用PAIEasyRec进行分布式训练
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
1月前
|
机器学习/深度学习 弹性计算 人工智能
什么是阿里云GPU云服务器?GPU云服务器产品优势及应用场景介绍
GPU云服务器是阿里云的云服务器ECS产品之一,是提供 GPU 算力的弹性计算服务,具有超强的计算能力,服务于深度学习、科学计算、图形可视化、视频处理多种应用场景。本文为大家介绍阿里云GPU云服务器产品优势、应用场景以及阿里云GPU云服务器实例规格有哪些。
什么是阿里云GPU云服务器?GPU云服务器产品优势及应用场景介绍