英伟达凭借GPU与AI笑傲本届CES展会

简介:

 英伟达公司联合创始人兼CEO黄仁勋在本周三晚身着大家熟悉的黑色夹克再度亮相消费电子展(简称CES),并致开幕主题演讲。

我们很难想象其它芯片厂商的CEO会像他这样,在全球最大的贸易展会之一上受到与会者产如此热情的迎接。正如黄先生所言,该公司所打造的GPU与AI技术力量将成为未来游戏、娱乐乃至交通变革的强大推手,而事实上参与者们也对他的每一项发言给出热烈回应。

除了黄仁勋明星般的力量之外,英伟达公司还在本届CES上展示了其在AI驱动型自动驾驶车辆领域的开发成果。

英特尔公司同样在努力推动自己的开发平台,并已经与Mobileye以及宝马建立起同盟关系。不过芯片巨头的自动驾驶车辆发展前景,仍然取决于过去12个月来英特尔所积累相关车辆技术的执行与集成效果。

在黄仁勋的主题演讲中,英伟达公司公布了Xavier(最初于去年秋季发布),并将其描述为一台“AI车载超级计算机”。

英伟达凭借GPU与AI笑傲本届CES展会

英伟达公司CEO黄仁勋在CES主题演讲中。

虽然展示的装置仅是一块比他手掌稍大一点的单板,但黄仁勋表示Xavier能够以30瓦功耗每秒处理30万亿次运算。其内置有一块八核心定制化ARM64 CPU再加512核Volta GPU。这位英伟达掌门人同时在演讲中指出,Xavier芯片本身为ASIL C,但其模块可通过设计实现ASIL D安全功能。

而在该硬件基础之上的则是一套全新操作系统,名为DriveWork,黄仁勋介绍称。这套操作系统能够将来自高清地图中的位置信息与不同传感器的数据加以结合。

英伟达公司还发布了一条视频剪辑,其中该公司的BB8自动驾驶车辆在加利福尼亚州的街道上顺畅前行。

自动驾驶与辅助驾驶

英伟达公司解释称,这辆车能够理解司机的自然语言表达并与其交互。其可通过协商识别红灯、停止标志、十字路口以及前往高速公路等一系列操作,整个过程无需司机进行操控。

DriveWorks操作系统之上的各层包括Auto-Pilot DNN与Co-Pilot DNN。在谈到BB8自动驾驶车辆的感知能力时,黄仁勋表示:“我们使用两种类型的人工智能方案。其一作为自动驾驶型AI将您当作乘客,其二则作为辅助驾驶AI帮助您操纵车辆。”

除了Xavier之外,英伟达公司还公布了一系列新的合作关系。其中包括与奥迪、博世以及ZF间的协议。黄仁勋同时指出,英伟达公司的高清地图映射战略还吸引到了中国的百度、Tom Tom、日本的ZeNRIN与HERE等厂商的参与。

英伟达与奥迪公司过去十年来一直共同合作。黄仁勋提醒称,奥迪公司早在七年前就成为第一家参与CES的汽车企业,并在当时即宣布采用英伟达技术方案。为了庆祝双方的合作伙伴关系,黄仁勋在舞台上还请来了奥迪公司美国分部负责人Scott Keough。

 英伟达凭借GPU与AI笑傲本届CES展会

奥迪公司美国分部负责人Scott Keough(图左)与英伟达公司CEO黄仁勋。

在新的合作关系之下,两家公司将把关注重点放在“从2020年开始逐步将高级AI车辆投入实际路面,”黄仁勋解释称。

双方协作的第一阶段将主要着眼于英伟达公司的Drive PX AI平台,其专门为自动驾驶车辆所打造。在此之后,奥迪汽车各车型将采用深度学习技术以处理驾驶中的各类复杂难题。

奥迪公司的Keough在舞台上谈到了其带来拉斯维加斯的自动驾驶车辆。“当大家在Gold Lot试驾我们的Q7时,其会自动进行驾驶,”他表示。Q7只用了三天时间就通过AI学会了如何自动驾驶,他进一步补充称。

奥迪公司相信,这一成果在未来三年内就将成为4级自动化方案。


原文发布时间为: 2017年1月7日

本文作者:毕波 

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
1月前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
3月前
|
存储 机器学习/深度学习 人工智能
GPU云存储性能:加速AI与高性能计算的关键
在人工智能(AI)、机器学习(ML)和高性能计算(HPC)飞速发展的今天,数据存储和处理的效率已成为决定项目成败的关键因素。传统的云存储方案往往无法满足GPU密集型工作负载的需求,而GPU云存储性能的优化正成为企业提升计算效率、降低延迟的核心突破口。本文将深入探讨GPU云存储性能的重要性、关键技术及优化策略,助您在数据驱动的竞争中占据先机。
|
1月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
214 4
|
2月前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
1月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
213 1
|
1月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
241 0
|
6月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1136 61
|
9月前
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
|
7月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。