未來的自动驾驶汽车传感器硬件系统,一定会是各传感器相互融合的。
当地时间19日凌晨,Uber一辆自动驾驶汽车在亚利桑那州撞死了一名横穿马路的妇女。因是第一起自动驾驶汽车在公共道路上发生的致人身死事故,Uber一时间被推上了风口浪尖。
然而,仅几个小时之后,负责调查此次事故的利桑那州坦佩警察局局长却表示,根据事故的初步调查显示,在此次交通事故中,Uber可能不存在过错。
剧情的反转,让人有些摸不着头脑。
从事故现场视频和Uber事故汽车的配置看,雷达和摄像头“失职”或是原罪
为了还原事故真相,利桑那州坦佩警察局公开了一段由事故汽车拍摄的视频。从事故现场视频看,Uber的自动驾驶事故汽车(沃尔沃XC90)当时正超速行驶在一段光线环境极差,甚至可以说完全黑暗的道路上,仅有的光线来自于汽车前灯。而受害者就是这样的环境下“突然”出现在了汽车前方,加之汽车行驶速度极快,瞬间就被撞倒。显然,无论是车上的测试人员还是自动驾驶汽车,都没能及时反应过来。
然而,人没反应过来,自动驾驶汽车就应该反应不过来吗?自动驾驶汽车的出现,难道就仅在解放司机双手,“驾驶技术”也只与人类司机持平就可以了吗?
答案显然是否定的。
那么,到底是什么让Uber的这辆自动驾驶汽车“失职”的?解答这一问题之前,我们有必要了解一下,这辆事故车到底是如何做到自动驾驶的。
根据事故现场图片看,Uber的这辆事故自动驾驶汽车正是由其ATG(Uber先进技术部门)研发的。依据Uber此前公开的相关信息,该汽车应是配备了一整套的传感器系统:
顶部激光雷达,能够以每秒多次的速度生成汽车周围的3D成像;
前端无线电波雷达,位于汽车前后,可实现360度无死角的探测;
短焦和长焦光学相机,对成像进行实时分析。
很显然,Uber是希望能够通过这一套传感器系统做到实时、全范围探测的,但事故还是发生了。
这种情况下,造成事故最大的可能就是各传感器自身性能不足以及搭配方案不合理。甚至可以说,正是因为顶部、前端雷达与摄像头图像处理协作不善,才导致了这场事故的发生。
自动驾驶汽车想要安全上路,需要先了解各传感器特性及不足
对于Uber此次事故,美国国家运输安全委员会前主席马克·罗森克表示,这起事故或成自动驾驶技术未来发展的一个阻碍,必须设法解决其中的问题,才能重获公众对自动驾驶汽车的信任。显然,雷达和摄像头就是这些问题的重中之重。
· 雷达
雷达方面,当前已在自动驾驶领域广泛应用的有三种:激光雷达、超声波雷达和毫米波雷达。
激光雷达
激光雷达,也称Lidar,就是激光(Laser)与雷达(Radar)的集合,通常有16线、32线和64线,线束越多,性能越强。
激光雷达,工作在红外和可见光波段,其探测精度很高,探测范围也很广,能够再短时间内区分障碍物除此之外,还可在光线条件差的环境中正常运行。
但其易被环境中“杂物”干扰,所以在雨雪等极短天气中性能较差,无法提供全天候服务。此类雷达成本极高,因此,一辆汽车上通常只配备一个,且位于顶部。
超声波雷达
超声波雷达,通过发射近距离超声波及收集、分析反射数据的方式进行探测。此类雷达能量消耗较缓慢,穿透性强,在短距离测量中,具有非常大的优势。此外,因其测距的方法简单,所以该类雷达成本很低。
除去自动驾驶,超声波雷达在汽车领域早有广泛应用,如警示周边3米以内的障碍物,帮助驾驶员停车等。
毫米波雷达
毫米波雷达,是工作在毫米波波段探测的雷达,可穿透雾、烟、灰尘,具有全天候(大雨天除外)、全天时的特点,对金属异常敏感。而由于毫米波短波长对应的光学区尺寸较小,其更适用于30km以下的近距离探测,但也只能做到识别出前方有一团东西,不知道具体是什么。
因为成本低,且技术相对成熟,毫米波雷达是当前自动驾驶传感器中应用最普遍的。
· 摄像头
相较于雷达,摄像头较为简单,其主要功能就是借由镜头采集图像,再通过摄像头内的感光组件电路及控制组件对图像进行处理并转化为电脑能处理的数字信号,从而实现感知车辆周边的路况情况,实现前向碰撞预警,车道偏移报警和行人检测等功能。
当前,车载摄像头有单目摄像头、后视摄像头、立体摄像头和环视摄像头四大类。其中,市场上主要以单目摄像头为主。
纵观各大自动驾驶汽车,大多选择的是混合搭配上述设备的方案,以形成一套完整的传感探测系统。如撞人致死的Uber自动驾驶汽车,其顶部就配备了一个Uber自家的激光雷达,前后也配备了多个无线电波雷达以及短程和长程光学相机。
虽然尚不知晓Uber自研激光雷达和使用的其他传感器真实性能如何,但可以肯定的是,除去出传感器自身性能有限之外,Uber自动驾驶汽车在这种搭配方案之下,依就发生了事故,该方案就一定没能做到360度无死角探测,才不足以保证汽车在光线环境较差、极端天气等情况下正常行驶的。
那么,怎样的搭配方案才是最合理,能最大程度上避免安全事故的发生呢?
特斯拉以摄像头为主,百度以雷达为主,各有利弊
和Uber一样,特斯拉也非常热衷于自动驾驶汽车的研发与路测。2016年10月20日,马斯克宣布将为所有的特斯拉新车搭载“具有完全自动驾驶功能”的硬件系统——Autopilot 2.0,其大致的搭配如下:
1.车头6个、车尾6个,共12个超声波传感器;
2.前挡风玻璃下内后视镜上端长焦、标准、短焦共3个前视摄像头;
3.外后视镜前端翼子板后端两侧共2个后测视摄像头;
4.前后门中柱靠上端两侧共2个侧视摄像头;
5.后窗上部中间1个后视摄像头;
6.后车牌位置上一个倒车摄像头;
7.前保险杠中部1个毫米波雷达。
很明显的,特斯拉的硬件系统滞后于Uber,由毫米波雷达+摄像头+超声波传感器组成。从这一搭配看,整体投入成本较低,不仅没有激光雷达加持,还以摄像头为主,全自动无人驾驶系统售价仅8000美元。
可以说,该系统不具备在弱光线环境下进行探测的性能,也无法为汽车提供远距离探测服务。可能正是因为这样,特斯拉自动驾驶汽车的路测和应用才一直不是很顺利。
回到国内,在自动驾驶领域,百度无人车近期可谓是风头正劲,更是在前几天拿到了北京市首批自动驾驶测试试验用临时号牌,并在北京亦庄正是开启了自动驾驶汽车上路测试。
从这张网传的百度无人车硬件配置图看,百度的传感器系统以雷达为主+摄像头为辅的搭配方式,来实现自动驾驶的,包括一个车顶的Velodyne激光雷达;多个车载雷达,分布于汽车前后端;一个摄像头,用于侦测移动障碍物。
这种搭配方式,实现了汽车远距离大范围探测。除此之外,相较于特斯拉,由于有了Velodyne激光雷达(单价约7万美元)的加持,让百度自动驾驶汽车具备了在暗光、密集环境中的行驶功能。当然,成本也相对较高。
搭配方案应因地制宜,适配应用场景才是重点
其实,上面这些也仅仅是基于普通应用场景对汽车自动驾驶性能的一个基础判断。无论是Uber、特斯拉还是百度,在当前的路测阶段,他们都还不能保证,自家自动驾驶汽车能在任何环境中做到安全行驶。
举个例子,在高速公路上,由于车速较快且视野较开阔,自动驾驶汽车就需要具备远距离、大范围探测的能力。而由于行驶道路的开放性,难免会遇到雨雪、大雾等极端天气,那么,普通的摄像头和高成本的激光雷达就无法负荷这一需求,这种情况下,诸如百度那样的硬件系统就不实用了。
“在高速公路的高速行驶中,因激光雷达的射距问题,我们更依赖摄像头。”图森未来联合创始人&CEO陈默表示。
因此,致力于打造高速场景下的L4级别(SAE)自动驾驶卡车的图森未来,其传感器搭配方案就以远距离、高感知的摄像头为主。一辆卡车上,共搭载了8个摄像头、3组毫米波雷达,适用范围达200米。
除高速公路之外,城市街道也是未来自动驾驶汽车最大的应用场景之一。而在这一场景下,远距离大范围探测就无法满足实际需求了。
中国的城市街道特点,在于人群、车辆、建筑物密集;信号灯、指示牌繁多等。想要在这样的环境下做大安全自动驾驶,汽车就必须具备实时精准探测、高度感知环境(环境光、障碍物具体细节及状态等)以及高速识别分析图像的能力。这种情况下,这有摄像头和毫米波雷达就有些不够用了,必须搭载高精度激光雷达,甚至不止一个。
“目前自动驾驶汽车搭载激光雷达,大部分是为了满足功能性需求。”速腾聚创COO邱纯潮说,“那么要保证安全,就必须强调安全冗余通过多重备份来增加系统的可靠性),Cruise就是用了5个激光雷达来解决这一问题的。”
总结
当然,自动驾驶汽车想要安全上路需要考虑的不仅是高速、密集环境,黑暗、强对流天气等也是行业重点关注的问题。
就当前各大厂商的自动驾驶汽车传感器硬件系统看,虽有一定偏向,如以摄像头为主的特斯拉和以雷达为主的百度、Cruise等,但都选用了摄像头+雷达综合运用的方案。
“我们认为,未來的自动驾驶汽车传感器硬件系统,一定会是各传感器相互融合的。”陈默说。
自动驾驶行业才刚刚开始,需要一步步来,想要一步到位地解决问题是不现实的。正如美国国家运输安全委员会前主席马克·罗森克所说,我们应该对自动驾驶宽容一点。但需要强调的是,安全问题无小事,宽容也要在可允准的范围内,以免发生悲剧。