奇瑞采用英伟达GPU,将实现L3自动驾驶

简介:
本文来自AI新媒体量子位(QbitAI)

汽车制造商奇瑞,将会使用德国采埃孚ProAI自动驾驶系统,以及英伟达专为无人车设计的DRIVE Xavier,实现L3级别的自动驾驶。

德国采埃孚,是全球最大的汽车零件供应商之一。

采埃孚ProAI自动驾驶系统,会处理多个摄像头及激光雷达的信号,整合信息后绘制出车辆周围环境的360°全景地图,并标注出车辆在地图中所在位置,帮助做出安全的行车决策。

采埃孚自动驾驶系统ProAI所采用的计算芯片是今年1月8号英伟达刚发布的DRIVE XavierAI。作为有史以来最复杂、最大的SoC,DRIVE XavierAI可支持每秒30万亿次运算,功率仅为30瓦。

 NVIDIA DRIVE Xavier

在今年底特律北美国际车展上,德国采埃孚CEO Konstantin Sauer公布了与奇瑞的合作关系。

英伟达也在上周的CES上公布,会和采埃孚、百度展开更深层次的合作。

英伟达的DRIVE PX 2计算平台,能够让车辆之间沟通环境信息,结合采埃孚的ProAI系统,可以汇总车队的信息流,比单个车辆的学习速度快,达到快速提升车队智能水平的目的。

奇瑞入局自动驾驶后,不仅可以保证L3自动驾驶功能最大限度触及市场,还能以大众买得起的价格推出。

奇瑞汽车的优势,就是能把科技融合到物美价廉的汽车上。根据发布会的消息,奇瑞也会继续在自动驾驶这块业务延续这个思路。

不过,消费级别的汽车中加上L3自动驾驶功能是个争议很大的话题。部分汽车制造商和评论家认为,L3的车依然需要驾驶员实时监控路况,手动接管车辆。

如果驾驶员形成惯性依赖自动驾驶的功能,那么在车辆需要人工接管的时候,驾驶员可能就无法及时正确响应。

目前还不知道奇瑞打算什么时候推出带有采埃孚自动驾驶系统的车型,不过我们可以确定的是,在安全上市以前,还有很多工作要做。

最后,附References:
https://techcrunch.com/2018/01/16/chinas-chery-will-use-nvidia-powered-zf-proai-for-level-3-autonomous-cars/
https://blogs.nvidia.com/blog/2018/01/16/chery-adopts-ai-nvidia-zf-baidu/
https://blogs.nvidia.com/blog/2017/01/04/zf-ces/

本文作者:Root
原文发布时间:2018-01-17
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
4月前
|
人工智能 自动驾驶 vr&ar
探索GPU算力平台的创新应用:从游戏到自动驾驶的跨越
【8月更文第5天】本文探讨了GPU(图形处理器)在现代计算中的角色转变,从最初的图形渲染到如今成为人工智能和高性能计算的重要组成部分。我们将通过几个具体的案例研究,包括游戏渲染、虚拟现实(VR)以及自动驾驶系统,来展示GPU是如何推动这些领域的进步和发展。
92 1
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
1587 0
|
机器学习/深度学习 人工智能 芯片
一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?
近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。
|
7月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
存储 人工智能 安全
探秘英伟达显卡的制造之路 | 英伟达断供GPU,中国大模型何去何从?
在当今时代,人工智能技术正以前所未有的速度发展,推动着各个领域的创新与变革。作为人工智能技术的核心引擎之一,高性能GPU扮演着至关重要的角色。在这个领域,英伟达的H100无疑是一款备受瞩目的高端产品。它针对高性能计算和人工智能应用而设计,具备强大的计算能力和高内存容量,以及先进的互连技术,可以有效提升集群中的计算效率,加速深度学习、计算机视觉、自然语言处理等领域的AI训练和推理任务。
|
机器学习/深度学习 存储 人工智能
【玩转 GPU】英伟达GPU架构演变
【玩转 GPU】英伟达GPU架构演变
613 0
【玩转 GPU】英伟达GPU架构演变
|
机器学习/深度学习 人工智能 缓存
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
英伟达用AI设计GPU算术电路,面积比最先进EDA减少25%,速度更快、更加高效
272 0
|
机器学习/深度学习 人工智能 定位技术
几个GPU工作数天≈10人团队工作大半年,英伟达用AI高效设计芯片
几个GPU工作数天≈10人团队工作大半年,英伟达用AI高效设计芯片
142 0
|
人工智能 Ubuntu Linux
重磅!英伟达宣布开源 Linux GPU 内核驱动
重磅!英伟达宣布开源 Linux GPU 内核驱动
328 0
重磅!英伟达宣布开源 Linux GPU 内核驱动
下一篇
DataWorks