英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

简介:

我们看到已经脱下显卡厂商标签的英伟达,在人工智能的路上走得越来越远。

9月26日,英伟达于北京召开的GTC 大会中国站正式开幕,英伟达创始人兼CEO黄仁勋用了两小时的时间系统的介绍了英伟达的人工智能生态发展。

英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

在主题为《AI Trends, Challenges and Opportunities》的演讲中,黄仁勋表示人工智能无处不在,摩尔定律已经终结,而深度学习强势袭来,这其中GPU将发挥出强大的力量。

如果给老黄这次的演讲画个重点的话,主要有下面几大块:

TensorRT3深度学习引擎,减少推理过程的延迟

黄仁勋花了很大篇幅介绍了英伟达最重要的产品——深度学习推理引擎TensorRT3,TensorRT3是一种可编程的AI推理加速器,支持现阶段大部分神经网络框架,并能加速现有和未来的网络架构。

英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

作为连接深度学习框架和硬件的中间桥梁,英伟达TensorRT3 的性能非常卓越,黄仁勋举了个例子:运行在Volta上的TensorRT3在图像分类方面比最快的CPU还要快40倍,在语言翻译方面则要快140倍等等。

为了进一步展示TensorRT3的性能,英伟达现场展示了用语音在《权力的游戏》视频内搜索“The Winter is coming”的片段,从语音到文字再到画面的搜索,几乎没有任何延迟。

英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

通过 TensorRT3,开发者可以大幅减少推理过程的延迟现象,几乎可达到实时反应的情况,对于像在线影音分类、对象侦测以及自动驾驶的应用来说,这些都是是非常重要的特性。

和国内云服务公司合作,大规模投入Tesla V100芯片的服务器

今年五月,英伟达发布全新Volta架构时,首先推出的就是专为HPC和AI的融合而设计的Tesla V100计算卡。目前,它主要整合在HGX-1加速器中被使用。

英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

关于英伟达的Tesla V100,黄仁勋介绍了目前国内一批合作项目。其中,阿里巴巴、腾讯、百度、京东、讯飞都已经采用了英伟达Volta GPU,免于建造超级计算机的复杂性以及高昂的建造费。

而英伟达的HGX服务器则是在8个Tesla V100 加速单元的基础上搭建的AI专用加速器,单个HGX服务器在语音/图像识别推理方面的计算性能相当于150个传统CPU 服务器。

英伟达宣称,在深度学习任务中,HGX-1 与传统基于CPU的服务器相比,性能可以提升100倍,人工智能训练任务的花费为后者的 1/5,AI推算的十分之一。黄仁勋提到每台 V100 服务器可以为客户节省50万美元的成本。

在GTC China上,英伟达也表示已经和国内的阿里云、百度云、腾讯云合作,大规模投入使用搭载新一代 Tesla V100芯片的服务器。

下一个AI时代,正走入与人类交互的机器中来

这几年,英伟达一直非常关注人工智能的发展,黄仁勋说,下一个AI时代,是AI离开云端,走入与人类交互的机器中来。

英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎

这次主题演讲中,黄仁勋也推出了他们的全球首款自主机器处理器Xavier,该芯片会出现在下一代Jetson系统上,2018年第四季度会正式大规模推出。

不过,京东X会率先采用英伟达的Jetson平台,两家将共同研发仓储机器人 jRover 及自动送货无人机 jDrone,实现自主机器。

这次GTC大会上,英伟达还介绍了他们的开放自动驾驶计算平台Drive,目前已经有145家初创公司正在研制基于英伟达Drive的自动驾驶汽车、卡车、高精制图及服务。在黄仁勋的演讲中,我们看到已经脱下显卡厂商标签的英伟达,在人工智能的路上走得越来越远。


原文发布时间: 2017-09-26 16:17
本文作者: 巫盼
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
3月前
|
人工智能 自动驾驶 云栖大会
何小鹏驾驶“全球首款AI汽车”亮相云栖大会 深化与阿里云AI算力合作
小鹏汽车加速端到端自动驾驶落地 深化与阿里云AI算力合作
410 13
|
3月前
|
机器学习/深度学习 人工智能 监控
CEO和CIO如何在企业中引领AI革命 扮演战略领航者的角色
CEO和CIO如何在企业中引领AI革命 扮演战略领航者的角色
|
3月前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
46 1
|
3月前
|
存储 并行计算 算法
CUDA统一内存:简化GPU编程的内存管理
在GPU编程中,内存管理是关键挑战之一。NVIDIA CUDA 6.0引入了统一内存,简化了CPU与GPU之间的数据传输。统一内存允许在单个地址空间内分配可被两者访问的内存,自动迁移数据,从而简化内存管理、提高性能并增强代码可扩展性。本文将详细介绍统一内存的工作原理、优势及其使用方法,帮助开发者更高效地开发CUDA应用程序。
|
5月前
|
传感器 人工智能 搜索推荐
苹果首款搭载Apple Intelligence功能的新品类曝光——AI桌面机器人
苹果研发的AI桌面机器人,融合360度机械臂与显示屏,预示智能家居新篇章。具备生物识别、实时交互与HomeKit控制,挑战已有的智能音箱市场。面对竞争,苹果依赖创新与品牌影响力,有望引领潮流,开启更智能、个性化的家庭体验。
84 0
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
清华首款AI光芯片登上Science,全球首创架构迈向AGI
【4月更文挑战第16天】清华大学研究团队开发出大规模光子芯片“太极”,在《科学》杂志发表,该芯片基于创新的光子计算架构,实现百万神经元级别的ONN,能效比高达160 TOPS/W。实验中,太极芯片成功执行1000类别分类任务,提升AI内容生成质量,为AGI发展开辟新路径。然而,光子集成电路的制造成本高、技术成熟度不足及软件支持限制了其广泛应用。
175 5
清华首款AI光芯片登上Science,全球首创架构迈向AGI
|
7月前
|
人工智能 IDE 前端开发
首款 AI Native IDE Framework,OpenSumi 3.0 正式发布!
展望未来,开发者只需定义明确的目标,例如添加新的接口功能,而 AI Agent 则有能力在一个具备运行环境的Workspace 中,自主操控编辑器、终端和浏览器等工具,自动化完成一系列标准的软件开发任务。
753 1
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
1587 0
|
7月前
|
人工智能 机器人 芯片
英伟达最强 AI 芯片、人形机器人模型炸场!黄仁勋放言英语将成最强大编程语言
在2024年的GTC大会上,英伟达创始人黄仁勋揭幕了新一代AI芯片Blackwell,号称是史上最强AI芯片,目标是推动AI领域的重大进步。
|
7月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。

热门文章

最新文章

下一篇
DataWorks