IBM推出云深度学习图形芯片Tesla P100 GPU加速器

简介:

IBM加大云托管服务力度,日前宣布推出Nvidia 的Tesla P100 图形处理器(GPU),成为在云里提供Tesla P100 图形处理器的第一大云提供商。

 IBM推出云深度学习图形芯片Tesla P100 GPU加速器

IBM在旗下的云平台上推出Tesla P100 GPU,标志着企业可以更迅速、更有效地用Nvidia的加速技术运行大型计算工作负载,如人工智能、深度学习和高性能数据分析等。

Nvidia GPU与服务器的中央处理器(CPU)一起可以提高应用程序的性能,因此大型计算数据工作负载可以更快、更高效地运行。各种不同的领域用了GPU后取得突破性成果,如欺诈检测和预防、基因组治病研究、利用更好的库存管理方法消除数百万吨的废物、对于人类来说太危险的自动化生产任务等等。

IBM和Nvidia之间的关系并是新建立的。自2014年以来两家公司就一直在合作将最新的GPU技术推向云里,蓝色巨人曾于2015年在云里部署了NVIDIA Tesla K80 GPU, 2016年又部署了Tesla M60 GPU。

IBM在一份声明中表示,”IBM是第一个在全球云里提供Tesla P100 GPU的云提供商,此举令各行业的企业都可以使用GPU从大数据里提取有价值的资料,如医疗保健、金融服务、能源和制造业等行业。”潜在使用案例包括,金融服务行业客户在IBM Cloud上使用GPU在几秒钟内完成复杂风险计算的运行,医疗保健公司可以更快地分析医学图像,能源公司可以找到新方法改进操作。

Tesla P100在IBM云里的推出对于英伟达(NVIDIA)而言是又一个胜利。NVIDIA最初制造的是游戏图形芯片,后来利用游戏图形芯片经验将图形处理功能销售到数据中心,最终成了深度学习GPU的首选制造商。今年3月,NVIDIA宣布与中国最大的社交媒体和在线娱乐公司腾讯达成协议,将旗下的GPU芯片推至腾讯云里。NVIDIA之前的交易包括为微软Azure云提供Nvidia GPU加速器,NVIDIA公司与谷歌、亚马逊网络服务电子商务及中国的阿里巴巴集团也达成过的交易。

想获取最新Nvidia GPU的IBM客户可选择在IBM Bluemix裸机服务器配备两个Nvidia Tesla P100加速器卡。IBM客户可在5月用上Tesla P100 GPU加速器。



原文发布时间为:2017年4月6日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
机器学习/深度学习 人工智能 并行计算
GPU如何成为AI的加速器
GPU如何成为AI的加速器
355 0
|
机器学习/深度学习 虚拟化 数据中心
NVIDIA T4和A10:不同应用场景下的GPU加速器选择
在数据中心和云计算领域,GPU加速器扮演着至关重要的角色。NVIDIA T4和A10是两款适用于不同应用场景的GPU加速器。本文将比较它们的性能和适用场景,帮助读者更好地选择适合自己需求的GPU实例。
6564 0
|
12月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
928 5
|
机器学习/深度学习 并行计算 PyTorch
如何搭建深度学习的多 GPU 服务器
如何搭建深度学习的多 GPU 服务器
如何搭建深度学习的多 GPU 服务器
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
1044 3
|
机器学习/深度学习 人工智能 调度
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
905 7
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
2785 0
|
机器学习/深度学习 并行计算 算法框架/工具
为什么深度学习模型在GPU上运行更快?
为什么深度学习模型在GPU上运行更快?
|
持续交付 测试技术 jenkins
JSF 邂逅持续集成,紧跟技术热点潮流,开启高效开发之旅,引发开发者强烈情感共鸣
【8月更文挑战第31天】在快速发展的软件开发领域,JavaServer Faces(JSF)这一强大的Java Web应用框架与持续集成(CI)结合,可显著提升开发效率及软件质量。持续集成通过频繁的代码集成及自动化构建测试,实现快速反馈、高质量代码、加强团队协作及简化部署流程。以Jenkins为例,配合Maven或Gradle,可轻松搭建JSF项目的CI环境,通过JUnit和Selenium编写自动化测试,确保每次构建的稳定性和正确性。
194 0
|
机器学习/深度学习 并行计算 TensorFlow
GPU加速TensorFlow模型训练:从环境配置到代码实践的全方位指南,助你大幅提升深度学习应用性能,让模型训练不再等待
【8月更文挑战第31天】本文以随笔形式探讨了如何在TensorFlow中利用GPU加速模型训练,并提供了详细的实践指南。从安装支持GPU的TensorFlow版本到配置NVIDIA CUDA及cuDNN库,再到构建CNN模型并使用MNIST数据集训练,全面展示了GPU加速的重要性与实现方法。通过对比CPU与GPU上的训练效果,突显了GPU在提升训练速度方面的显著优势。最后,还介绍了如何借助TensorBoard监控训练过程,以便进一步优化模型。
2108 0

热门文章

最新文章