计算机视觉在智联网汽车领域的应用

简介: 2019云栖大会大咖有约,斑马网络高级技术总监张燕昆带来“计算机视觉在智联网汽车领域的应用”的演讲。本文主要介绍了AR-Driving2.0产品的三个特性,并从AR-Driving立项开始谈起,讲解了AR-Driving项目遇到的问题,并对AR-Driving3.0作出了展望。

摘要:2019云栖大会大咖有约,斑马网络高级技术总监张燕昆带来“计算机视觉在智联网汽车领域的应用”的演讲。本文主要介绍了AR-Driving2.0产品的三个特性,并从AR-Driving立项开始谈起,讲解了AR-Driving项目遇到的问题,并对AR-Driving3.0作出了展望。

直播回放请点击

以下是精彩视频内容整理:

斑马主要是一个做智慧出行的智联网汽车技术公司。目前,自动驾驶异常火热,但是斑马做的事情与自动驾驶是有区别的,汽车摄像头有对外和对内的摄像头,对外摄像头有一个前视摄像头,我们不是去做安全域的ADAS,而是用行车记录仪的摄像头来做一些产品,另外还有倒车辅助用的前体360环视影像,我们利用360环视影像做智能辅助的东西。对内摄像头常见的是做DMS和Face ID。

AR-Driving

斑马在2017年从事AR-Driving的开发工作,在2018年产出了全球首款AR-Driving1.0产品,在2019年8月产出了AR-Driving2.0产品。
AR-Driving即所谓增强现实中的技术应用到增强导航中,简单的说,是将大家开车应用的地图导航的信息叠加成增强导航,2.0中还有增强的ADAS和增强的POI。

image.png

斑马AR-Driving2.0产品有三个features,AR-NAVI、AR-ADAS和AR-POI。增强导航就是,当大家开车开到很复杂的十字路口时,前面有左转、右转、前方、左前方、右前方,如果你是第一次开过去,传统导航提示你左前方时,你是很容易迷糊的,因为有6条岔路口,不容易变道,但是如果把传统导航和图像识别结合起来,我们做了一些地面语义分割,然后融合IMU信息做定位,就可以精确的把你引导过去;
AR-ADAS跟传统的ADAS差不多,但是我们更直观,我们把它放到AR这种方式来呈现,比如压线、前方车辆启动提醒、前方碰撞提醒,可以很直观的在视频上显示出来;AR-POI就是感兴趣点。我们是一个车联网公司,我们要做生态,我们还做了驾驶员的身份验证,即Face ID,比如你买车,上车后会自动识别是你开还是你爱人或是亲戚开,可能你喜欢星巴克的咖啡,你爱人喜欢Costa的咖啡,当你开车到了某条街,如果我们能自动判别是你还是你爱人开车,我们就可以把星巴克或者Costa的店很自然的推荐给你,这样我们就形成了一个生态闭环。

AR-Driving立项及遇到的问题

大家可能对自动驾驶比较感兴趣,早些年我们也做过自动驾驶,但是我们是创业公司,主要做产品,我们要保证做的东西能够迅速落地到产品上去,对于我们来说,计算资源是一个很大的瓶颈。2017年,我们做AR-Driving时,我们接到上汽的一款车,它所用的芯片是J6P,即双核+两个800M的DSP,其中一个DSP给360环视用掉了,剩给我们所有计算机只有一个DSP,一个DSP把AR-Driving做出来还是很难的,现在深度学习非常火,但是复杂的深度学习模型在这个配置下运行是不太现实的,我们巧妙的把传统的计算机视觉算法和深度学习算法做一个互补。

我们为什么没有做AR-Hud,而转而做AR-Driving,是因为AR-Hud的硬件不成熟,以及成本比较高,对于国内10-20W的车来说,成本特别高,所以AR-Hud大多都装配在豪华车上。上汽当时给我们的汽车只有行车记录仪的摄像头,要求我们做一个AR-Hud的东西,我们的产品就想到了折中方案,将AR-Hud的硬件拿掉,改为在仪表上进行显示,我们当时经过了多次讨论,还是接了这个项目,做这个项目遇到了很多瓶颈,比如将我们的算法一开始放到车上的平台上,每秒只能跑到3帧,相当于300ms,因为我们要达到实时处理,这对我们形成了巨大的压力,产品都到外面去找方案,把很多创业公司的算法拿过来做比较,评估后发现我们的硬件根本不能跑这些算法,主要是就是这些算法对硬件要求比较高。于是我们对自己之前的算法进行了大量的优化,还把TI的专家直接请到公司做培训,在TI芯片上进行算法优化。到2018年8月份,我们做出了Marvel X上的系统,很多人认为Marvel X只是一个噱头,因为它只是做了一些简单的导航,这是因为计算能力受限制,这款车一发布,在业界就引起了轰动,很多大公司都在跟随我们在做,有的做的很复杂,有的做了单独的盒子,车厂对成本是非常看重的,如果你想推一个上千块的东西,是很难的,我们给车厂做东西,都是车厂确定硬件,然后告诉我们要帮他们做什么,而不是我要做什么,车厂就会提供给我们什么样的硬件,尤其现在各大车厂都在降成本,这个情况就尤为突出,我们既要考虑技术的先进性,又要考虑技术能不能产品化。

AR-Driving的思考与展望

AR-Driving1.0一发布,在业界引起了轰动。上汽等其他车厂也意识到硬件资源问题,开始逐渐将一些硬件资源给了我们做AR DRIVING,我们自己也把360环视做了,这样就可以很好控制它的资源占用,对我们来说,两个DSP同时任我们切换调度,就可以最大化利用车厂给我们的硬件资源。于是,我们就从去年就开始做了AR-Driving2.0,并于2019年8月在上汽的一款车上正式发布了。
下一步我们想对存量车来做,现在芯片研发很热,阿里、华为等都积极研发并推出了一些芯片,车分为前装和后装,AR-Driving3.0偏向于后装,现在行车记录仪或后视镜的计算能力是很强的,AR-Driving3.0将会使用更多的目前流行的深度学习方法,AR-Driving3.0可以提供更加丰富的道路环境的语义信息,这些信息可以提供给图商做实时地图更新,同时我们我也可以做更加丰富的生态闭环。

相关文章
|
4月前
|
存储 编解码 算法
OpenCV2 计算机视觉应用编程秘籍:6~10
OpenCV2 计算机视觉应用编程秘籍:6~10
26 0
|
4月前
|
设计模式 算法 开发工具
OpenCV2 计算机视觉应用编程秘籍:1~5
OpenCV2 计算机视觉应用编程秘籍:1~5
24 0
|
25天前
|
机器学习/深度学习 人工智能 算法
图像处理与分析:Python中的计算机视觉应用
【4月更文挑战第12天】Python在计算机视觉领域广泛应用,得益于其丰富的库(如OpenCV、Pillow、Scikit-image)和跨平台特性。图像处理基本流程包括获取、预处理、特征提取、分类识别及重建生成。示例代码展示了面部和物体检测,以及使用GAN进行图像生成。
|
4月前
|
机器学习/深度学习 编解码 人工智能
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
Mamba是LLM的一种新架构,与Transformers等传统模型相比,它能够更有效地处理长序列。就像VIT一样现在已经有人将他应用到了计算机视觉领域,让我们来看看最近的这篇论文“Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Models,”
267 7
|
4天前
|
机器学习/深度学习 监控 自动驾驶
计算机视觉技术及其应用:开启智能视觉新时代
【5月更文挑战第3天】计算机视觉技术融合图像处理、模式识别和人工智能,旨在让计算机理解和解析图像信息。关键包括图像预处理、特征提取、深度学习和目标检测。广泛应用在安防监控、自动驾驶、医疗影像分析、人脸识别及智能家居等领域,引领智能视觉新时代。随着技术发展,未来将带来更多便捷。
|
4天前
|
机器学习/深度学习 编解码 自然语言处理
如何评价深度学习在自然语言处理、计算机视觉等领域的应用成果?
【5月更文挑战第3天】如何评价深度学习在自然语言处理、计算机视觉等领域的应用成果?
27 6
|
10天前
|
传感器 边缘计算 监控
|
2月前
|
机器学习/深度学习 人工智能 算法
如何建立计算机视觉驱动的汽车损伤检测系统-------杂记
如何建立计算机视觉驱动的汽车损伤检测系统-------杂记
|
2月前
|
机器学习/深度学习 人工智能 监控
计算机视觉技术的基本原理与应用
计算机视觉技术的基本原理与应用
|
4月前
|
机器学习/深度学习 人工智能 监控
探索深度学习在计算机视觉领域的应用
计算机视觉是人工智能领域的重要分支之一,而深度学习技术在这个领域中的应用已经成为了一个热门话题。深度学习的出现,不仅使得计算机视觉的准确性得到了极大的提升,还为我们提供了更多的可能性。本文将探讨深度学习技术在计算机视觉领域中的应用,并讨论其未来的发展前景。
34 0

热门文章

最新文章