浪潮发布GPU 深度学习一体机,大幅提升性能及生产力

简介:

美国当地时间11月16日,在盐湖城举行的全球超算大会SC16上,浪潮发布了深度学习一体机D1000,该产品部署了采用NVIDIA® Tesla™ GPU技术的浪潮高性能计算集群,运行多节点并行深度学习框架Caffe-MPI,可大幅提升在人脸识别、图片分类、物体识别等应用场景的深度学习计算性能,并有效提高用户在实际业务使用深度学习的生产力。

浪潮发布GPU 深度学习一体机,大幅提升性能及生产力 

强强联手产硕果

D1000产品整合了浪潮深度学习领域的最新技术成果,包括浪潮推动开发的并行版开源深度学习框架Caffe-MPI,英伟达专为深度学习定制的Tesla GPU及CuDNN库。浪潮展示了6节点的D1000产品方案,该方案的节点是浪潮专为深度学习开发的专用GPU服务器,每个节点配置2颗处理器及4块NVIDIA® Tesla™ M40 GPU。

浪潮发布GPU 深度学习一体机,大幅提升性能及生产力 

浪潮集团海外总部副总经理Jay Zhang现场讲解

浪潮集团海外总部副总经理Jay Zhang表示,D1000在性能、扩展性等方面都大幅领先于以往的深度学习方案,可以满足大部分客户的应用需求。浪潮一直在加强深度学习前沿技术开发并致力于构建良好的生态系统,并联合NVIDIA等业界领先技术伙伴,将最新的技术整合为产品方案,转化为用户的实际应用价值。

浪潮发布GPU 深度学习一体机,大幅提升性能及生产力 

Nvidia解决方案和工程架构副总裁 Marc Hamilton演讲

高性能深度学习框架Caffe-MPI 

   Caffe-MPI是浪潮团队推动开发并开源发布的集群版Caffe,这使得Caffe这一业界最重要的深度学习框架实现了高效多节点并行。Caffe-MPI不仅在单机多GPU方案中表现出高效的训练性能,而且支持分布式集群扩展。浪潮展示了6节点D1000产品方案在配置24块Tesla M40 GPU,并部署Caffe-MPI,训练GoogLeNet(Inception V1)网络,每秒可以处理2000张图片,在短短18小时内将GoogLeNet网络的精确度提高至78%。随着训练时间的增加,Caffe-MPI的正确率将进一步提升。此外,Caffe-MPI具有较高的可扩展性,其节点的扩展效率达到72%,并且Caffe-MPI完全保留了原始Caffe架构的特性,纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口等多种编程方式,上手快,十分易用。

浪潮发布GPU 深度学习一体机,大幅提升性能及生产力 

D1000发布现场

让用户专注于业务应用

深度学习正在重新定义什么叫可能性,从初创时期的公司到大型互联网运营商,都在努力把深度学习融入实际业务中来拓展商业边界。Jay Zhang表示,浪潮为客户提供的是开箱即用的深度学习解决方案以及全程贴心服务,把用户从平台部署配置优化等繁琐工作中解放出来。

 浪潮发布GPU 深度学习一体机,大幅提升性能及生产力

SC16现场吸睛的浪潮产品与方案

据了解,D1000统一整合了经过优化设计的浪潮高性能计算集群硬件、Caffe-MPI并行计算框架和依赖库、经过充分测试验证的OS和CUDA环境及集群管理调度平台 ClusterEngine,产品实现在产线进行软硬件一体化安装、配置,用户打开D1000即可使用Caffe-MPI进行深度学习业务应用。


原文发布时间为: 2016年11月17日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
23天前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的注意力机制:提升模型性能的关键
在深度学习的世界里,注意力机制如同一位精明的侦探,专注于细节之中发现线索。不同于传统方法的全局视角,它通过聚焦于输入数据的关键部分来提升模型性能。本文将带你领略注意力机制的魅力,从其工作原理到在各领域的应用实例,一探究竟如何让深度学习模型更“专注”。
|
2月前
|
测试技术 异构计算
|
25天前
|
机器学习/深度学习 算法 开发者
探索深度学习中的优化器选择对模型性能的影响
在深度学习领域,优化器的选择对于模型训练的效果具有决定性作用。本文通过对比分析不同优化器的工作原理及其在实际应用中的表现,探讨了如何根据具体任务选择合适的优化器以提高模型性能。文章首先概述了几种常见的优化算法,包括梯度下降法、随机梯度下降法(SGD)、动量法、AdaGrad、RMSProp和Adam等;然后,通过实验验证了这些优化器在不同数据集上训练神经网络时的效率与准确性差异;最后,提出了一些基于经验的规则帮助开发者更好地做出选择。
|
2月前
|
缓存 算法 测试技术
|
3月前
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
182 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
|
2月前
|
机器学习/深度学习 算法 决策智能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
【机器学习】揭秘深度学习优化算法:加速训练与提升性能
|
3月前
|
机器学习/深度学习 存储 人工智能
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考
阿里云的GPU云服务器产品线在深度学习、科学计算、图形渲染等多个领域展现出强大的计算能力和广泛的应用价值。本文将详细介绍阿里云GPU云服务器中的gn6v、gn7i、gn6i三个实例规格族的性能特点、区别及选择参考,帮助用户根据自身需求选择合适的GPU云服务器实例。
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的编程实践:从Python到深度学习的探索之旅
【9月更文挑战第6天】 在人工智能的黄金时代,编程不仅仅是一种技术操作,它成为了连接人类思维与机器智能的桥梁。本文将通过一次从Python基础入门到构建深度学习模型的实践之旅,揭示编程在AI领域的魅力和重要性。我们将探索如何通过代码示例简化复杂概念,以及如何利用编程技能解决实际问题。这不仅是一次技术的学习过程,更是对人工智能未来趋势的思考和预见。
|
3月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
282 2