昨天的NVIDIA(英伟达)GTC(中国台北)2018大会上,CEO黄仁勋正式发布了首款同时适用于人工智能与高性能计算的统一计算平台——NVIDIA HGX-2。
说起来,大家应该对NVIDIA在GTC 2018(美国圣何塞)大会上发布的“全球最大GPU”DGX-2多少还有些印象,据称,这个系统就是采用HGX-2构建的。而在昨天的大会上,NVIDIA方面也表示,DGX-2系统将在第三季度销售,售价约为399000美元。
黄仁勋在大会上表示:“计算领域已不同从前。计算需求猛增,而 CPU 扩展的速度却呈放缓之势。配备Tensor Core GPU的NVIDIA HGX-2为业界提供了融合HPC和AI的多功能计算平台,这一强大的计算平台将助力解决全球面临的重大挑战。”
HGX-2采用了最新的NVSwitch互联技术,将16个Tesla V100 Tensor Core GPU连接为单一巨型GPU,据介绍,它可提供每秒2千万亿次浮点计算的AI性能。作为参考,它的上代产品——去年于Computex 2017上发布的HGX-1,只装载了8个GPU。NVSwitch是NVIDIA在圣何塞GTC 2018大会上发布的最新GPU互联结构,在NVLink的基础上进一步进行了扩展创新,它的带宽比最好的 PCIe 交换机高出5倍,它可使多达16个Tesla V100 GPU同时以2.4 TB /秒的速度进行通信。
接力登场的HGX-2平台具备多精度计算能力,可提供独特的灵活性。该平台能够针对科学计算和模拟进行高精度的FP64和FP32运算,并针对 AI训练和推理进行 FP16 和 Int8 运算,以“多功能性”满足先进越来越多融合HPC和AI的应用对计算的需求。
NVIDIA称,HGX-2在ResNet-50训练基准下,创下了每秒15500幅图像的AI训练速度记录,可取代高达300台仅配备CPU的服务器。从这个角度来看,该产品可以说确实贯彻了黄仁勋始终坚持的“省钱”理念。在大会上,黄仁勋也笑称:“买得越多,省得越多。”
HGX-2的卖点在于,它既可以用于AI训练,也可以用于推理,同时还能够为HPC应用提供计算支持。在NVIDIA的命名体系中,HGX-T用于AI训练,HGX-I用于推理,而SCX系统则用于HPC。
NVIDIA将HGX-2描述为“构建模块”,制造商可使用它来构建适用于AI和HPC的系统。事实上,现在已经有多家计算系统制造商宣布计算推出基于HGX-2计算平台的系统。包括联想、云达科技、超微和纬颖科技四家服务器制造商,他们宣布计划于今年下半年将各自的基于HGX-2系统推向市场。此外,全球四大原始设备制造商(ODM)富士康、英业达、广达和纬创也正在设计基于 HGX-2 的系统,有望于下半年在全球几家最大型的云数据中心投入使用。
NVIDIA在面向人工智能工作负载的GPU市场上是毫无争议的领导者,但仍不可避免地要面临日益激烈的竞争。2016年英特尔收购了Nervana 公司,目前在英特尔Nervana 神经网络处理器(NPU)方面也一直在进行大量投入与研发,在人工智能领域,它将是NVIDIA GPU的一个有力竞争对手。
与此同时,市场上可提供的FPGA(现场可编程门阵列)也越来越强大,这些FPGA可用于AI推理。虽然FPGA在AI训练方面缺乏与GPU对抗的性能,但它可以被编程来处理一个神经网络的每一个层次,在推理方面拥有理想的灵活性。
原文发布时间为:2018-06-1
本文作者:谢涛