IBM推出云深度学习图形芯片Tesla P100 GPU加速器

简介:

IBM加大云托管服务力度,日前宣布推出Nvidia 的Tesla P100 图形处理器(GPU),成为在云里提供Tesla P100 图形处理器的第一大云提供商。

 IBM推出云深度学习图形芯片Tesla P100 GPU加速器

IBM在旗下的云平台上推出Tesla P100 GPU,标志着企业可以更迅速、更有效地用Nvidia的加速技术运行大型计算工作负载,如人工智能、深度学习和高性能数据分析等。

Nvidia GPU与服务器的中央处理器(CPU)一起可以提高应用程序的性能,因此大型计算数据工作负载可以更快、更高效地运行。各种不同的领域用了GPU后取得突破性成果,如欺诈检测和预防、基因组治病研究、利用更好的库存管理方法消除数百万吨的废物、对于人类来说太危险的自动化生产任务等等。

IBM和Nvidia之间的关系并是新建立的。自2014年以来两家公司就一直在合作将最新的GPU技术推向云里,蓝色巨人曾于2015年在云里部署了NVIDIA Tesla K80 GPU, 2016年又部署了Tesla M60 GPU。

IBM在一份声明中表示,”IBM是第一个在全球云里提供Tesla P100 GPU的云提供商,此举令各行业的企业都可以使用GPU从大数据里提取有价值的资料,如医疗保健、金融服务、能源和制造业等行业。”潜在使用案例包括,金融服务行业客户在IBM Cloud上使用GPU在几秒钟内完成复杂风险计算的运行,医疗保健公司可以更快地分析医学图像,能源公司可以找到新方法改进操作。

Tesla P100在IBM云里的推出对于英伟达(NVIDIA)而言是又一个胜利。NVIDIA最初制造的是游戏图形芯片,后来利用游戏图形芯片经验将图形处理功能销售到数据中心,最终成了深度学习GPU的首选制造商。今年3月,NVIDIA宣布与中国最大的社交媒体和在线娱乐公司腾讯达成协议,将旗下的GPU芯片推至腾讯云里。NVIDIA之前的交易包括为微软Azure云提供Nvidia GPU加速器,NVIDIA公司与谷歌、亚马逊网络服务电子商务及中国的阿里巴巴集团也达成过的交易。

想获取最新Nvidia GPU的IBM客户可选择在IBM Bluemix裸机服务器配备两个Nvidia Tesla P100加速器卡。IBM客户可在5月用上Tesla P100 GPU加速器。



原文发布时间为:2017年4月6日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
8月前
|
机器学习/深度学习 人工智能 并行计算
GPU如何成为AI的加速器
GPU如何成为AI的加速器
164 0
|
机器学习/深度学习 虚拟化 数据中心
NVIDIA T4和A10:不同应用场景下的GPU加速器选择
在数据中心和云计算领域,GPU加速器扮演着至关重要的角色。NVIDIA T4和A10是两款适用于不同应用场景的GPU加速器。本文将比较它们的性能和适用场景,帮助读者更好地选择适合自己需求的GPU实例。
5223 0
|
2月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
91 5
|
4月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
374 2
|
5月前
|
机器学习/深度学习 并行计算 PyTorch
如何搭建深度学习的多 GPU 服务器
如何搭建深度学习的多 GPU 服务器
164 5
如何搭建深度学习的多 GPU 服务器
|
5月前
|
机器学习/深度学习 人工智能 调度
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
358 7
|
7月前
|
机器学习/深度学习 并行计算 算法框架/工具
为什么深度学习模型在GPU上运行更快?
为什么深度学习模型在GPU上运行更快?
85 2
|
7月前
|
机器学习/深度学习 并行计算 PyTorch
【从零开始学习深度学习】20. Pytorch中如何让参数与模型在GPU上进行计算
【从零开始学习深度学习】20. Pytorch中如何让参数与模型在GPU上进行计算
|
8月前
|
机器学习/深度学习 弹性计算 自然语言处理
【阿里云弹性计算】深度学习训练平台搭建:阿里云 ECS 与 GPU 实例的高效利用
【5月更文挑战第28天】阿里云ECS结合GPU实例为深度学习提供高效解决方案。通过弹性计算服务满足大量计算需求,GPU加速训练。用户可按需选择实例规格,配置深度学习框架,实现快速搭建训练平台。示例代码展示了在GPU实例上使用TensorFlow进行训练。优化包括合理分配GPU资源和使用混合精度技术,应用涵盖图像识别和自然语言处理。注意成本控制及数据安全,借助阿里云推动深度学习发展。
284 2
|
8月前
|
机器学习/深度学习 并行计算 TensorFlow
TensorFlow与GPU加速:提升深度学习性能
【4月更文挑战第17天】本文介绍了TensorFlow如何利用GPU加速深度学习, GPU的并行处理能力适合处理深度学习中的矩阵运算,显著提升性能。TensorFlow通过CUDA和cuDNN库支持GPU,启用GPU只需简单代码。GPU加速能减少训练时间,使训练更大、更复杂的模型成为可能,但也需注意成本、内存限制和编程复杂性。随着技术发展,GPU将继续在深度学习中发挥关键作用,而更高效的硬件解决方案也将备受期待。