【20 亿美元赌注】英伟达推出深度学习芯片,人工智能进入主流时代

简介:
硬件能力
 

基于GPU并行处理的优势,Tesla P100能够实现数百CPU服务器节点性能。DGX-1采用NVIDIA新Pascal架构的Tesla P100显卡系列,数据处理速度是NVIDIA 此前Maxwell架构——才刚于2014年推出 ——显卡系列的12倍。据NVIDIA官网消息,DGX-1共装入8组各内建16BG存储器的Tesla P100显卡,配置英特尔 E5-2698 v3 处理器,7 TB的SSD硬盘用作深度学习高速缓存,系统存储器部分最大可支持512GB DDR4的内存容量,半精度条件每秒浮点运算峰值性能170万亿次,运算能力相当于250台X86服务器搭建的机群。不过,这台超级计算机的功耗高达3200W,让新智元记者认为其能效比或许是个问题。


在NVIDIA官方新闻中,Facebook人工智能实验室负责人Yann LeCun在评论Pascal架构时表示:“NVIDIA GPU正在加速人工智能的发展进程。随着神经网络越变越大,我们不仅需要内存更大、速度更快的GPU,也需要大幅提升GPU间的通信速度以及能够利用降低精度进行运算的硬件。这些正是Pascal所具备的特点。”


软件优化
 

软件方面,DGX-1装载了一套针对深度学习进行优化的软件功能,包括用于设计深度神经网络的NVIDIA深度学习GPU训练系统(Deep Learning GPU Training System,DIGITS),以及最新发布的第5版CUDA深度神经网络库(CUDA Deep Neural Network library,cuDNN)。此外,DGX-1内提供一些优化版的广泛应用深度学习框架,如Caffe、Theano、Torch。系统还搭配一套云端存取管理工具、软件更新,以及一个容器化应用库。


测试结果


以往25个小时才能消化的运算任务现在只需要2小时。来源:cnbeta.com

官方宣称DGX-1相当于250个X86服务器搭建的机群。来源:cnbeta.com

NVIDIA 在硬件和软件领域都对深度学习进行了特别的优化。作为芯片产业的巨头,在年度最重要的GPU技术大会上,黄仁勋演讲超过一半的篇幅都和深度学习相关。 本届GTC技术大会专门发布了深度学习芯片Tesla P100和超级计算机DGX-1,还推出了一系列围绕人工智能和深度学习的相关设备和GPU新品。
 
芯片是整个智能产业的发动机,也是市场成熟度的关键指标,而且计算能力的飞速发展,意味着芯片制造商必须要在几年之内获得相应的市场回报。NVIDIA 敢于Tesla P100上投下这笔高达20多亿美元的赌注,可以预计深度学习和人工智能正逐步走向主流市场。

NVIDIA的野心


黄仁勋在会上表示,如今的数据科学家和AI研究者在“home-brewed”的高性能计算解决方案上耗费了大量时间,NVIDIA研发和部署DGX-1只有一个目的:解放超越人类的能力,并将其用于解决一度无法解决的问题。
 
近年来,随着深度学习应用大量涌现,超级计算机的架构逐渐向深度学习应用优化,从传统CPU为主GPU为辅的英特尔处理器变为GPU为主CPU为辅的结构。在这样的背景下,作为GPU的发明人和芯片领域的领头羊之一,NVIDIA实际上早在5年前便涉足人工智能和深度学习相关应用,积极拓展市场。其中,值得注意的是自动驾驶汽车领域。谷歌的自动驾驶汽车一直使用NVIDIA的Tegra处理器;2015年3月,NVIDIA推出了Drive PX 2无人驾驶平台,据称每秒能够执行24万亿次深度学习任务。不仅如此,包括宝马、福特在内的全球50多家汽车制造商和供应商都在使用或测试NVIDIA的Drive PX平台。美国汽车专业调查公司IHS Automotive称NVIDIA的产品“将成为未来汽车的大脑”。

 

据参会台湾记者余志浩在iT Home网站报道:黄仁勋在会上频频提到深度学习技术及其将给各个产业带来的颠覆性变革;黄仁勋表示,深度学习技术不止是一种算法或App,更将成为一种全新的计算模式(Computing Model),从而令深度学习成为未来所有企业乃至个人都不能忽视的大事。
 

黄仁勋透露,NVIDIA与加州大学、斯坦福大学、麻省理工大学等领先科研团队达成合作,将DGX-1提供给后者用于进行深度学习训练。目前P100芯片已经投入量产,预计今年就会在云计算公司启用。此外,IBM、Dell、HP等主流服务器厂商也在生产搭载Tesla P100显卡的服务器,预计2017年第一季度上市。

文章转载自新智元公众号 原文链接

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
7天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
51 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
1月前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
眼疾识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了4种常见的眼疾图像数据集(白内障、糖尿病性视网膜病变、青光眼和正常眼睛) 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,实现用户上传一张眼疾图片识别其名称。
135 5
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
|
2月前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
356 55
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘人工智能:深度学习的奥秘与实践
在本文中,我们将深入浅出地探索深度学习的神秘面纱。从基础概念到实际应用,你将获得一份简明扼要的指南,助你理解并运用这一前沿技术。我们避开复杂的数学公式和冗长的论述,以直观的方式呈现深度学习的核心原理和应用实例。无论你是技术新手还是有经验的开发者,这篇文章都将为你打开一扇通往人工智能新世界的大门。
|
2月前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
220 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
2月前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
2月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
146 12
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘AI:深度学习的奥秘与实践
本文将深入浅出地探讨人工智能中的一个重要分支——深度学习。我们将从基础概念出发,逐步揭示深度学习的原理和工作机制。通过生动的比喻和实际代码示例,本文旨在帮助初学者理解并应用深度学习技术,开启AI之旅。
|
3月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
67 0
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
深入探讨人工智能中的深度学习技术##
在本文中,我们将深入探讨深度学习技术的原理、应用以及未来的发展趋势。通过分析神经网络的基本结构和工作原理,揭示深度学习如何在图像识别、自然语言处理等领域取得突破性进展。同时,我们还将讨论当前面临的挑战和未来的研究方向,为读者提供全面的技术洞察。 ##

热门文章

最新文章