专访DeepScale:深度学习加前融合,这家公司想做自动驾驶领域的感知方案供应商

简介:

专访DeepScale:深度学习加前融合,这家公司想做自动驾驶领域的感知方案供应商

Forrest Iandola

多传感器融合目前看来已经成了通往自动驾驶的必由之路,更多的传感器数据往往也意味着更高的安全性。但数据融合并不是一件简单的事。

DeepScale是硅谷一家专注于自动驾驶感知技术的公司,其CEO Forrest Iandola在本月接受雷锋网采访时表示,他们能将深度学习同时用于摄像头以外的传感器数据上,如雷达与激光雷达,并在较为廉价的嵌入式设备上提供感知解决方案。

Forrest在加州大学伯克利分校攻读博士学位时,主要研究深度神经网络及其应用,重点关注加速及改进用于计算机视觉的深度学习,目前已发表20多篇论文。2015年他与导师Kurt Keutzer联合创立了DeepScale。

他告诉雷锋网,如果分析现有量产车辆以及自动驾驶原型车对于雷达与摄像头等数据的处理,就会发现摄像头数据上会用到深度学习技术,但雷达数据处理还是用的传统算法,没有深度学习灵活。这也是DeepScale的不同之处。

他们的另一个创新之处体现在多传感器数据的融合算法上。“我们做的是利用原始数据的前融合(Early Fusion),在做目标检测前就进行融合。”

在融合算法上,通常的做法是让摄像头、雷达、激光雷达等传感器数据分别进行物体检测,各生成一个物体列表。如果在雨天激光雷达的效果受到影响,或者在逆光时摄像头难以正常发挥,那各自生成的列表会不一样,在做最终判断时需要再次计算,而部分信息会在确认时被丢弃,这也降低了系统的安全性。如果用原始数据进行融合,信息会更完整。

专访DeepScale:深度学习加前融合,这家公司想做自动驾驶领域的感知方案供应商

DeepScale用于测试多传感器融合的方案

Forrest告诉雷锋网,其多传感器融合方案的优势,一是体现在物体检测的准确性上,二是跨传感器的可移植性(Portability)上。“用传统的方法,如果有新的激光雷达,则需要开发新的检测算法,而我们的方法可以用很小的工程开发来完成融合。现在有数十家公司在做传感器,我们不用为每一家的传感器重新开发。”

传感器是实现自动驾驶的瓶颈之一,也因此有一批新兴公司扎根其中,比如Luminar,LeddarTech,速腾,光珀,Cepton,Oculii等。如果对传感器没有特殊要求,无疑可以让分工更明确,加速自动驾驶的落地。

DeepScale的另一个特点,则是自行设计了深度神经网络,这样可以在物体检测上满足精度及计算上的要求。Forrest表示,他们开发的神经网络可以运行在高通的车规级骁龙处理器上。“我们没有用现有的网络,而是自行从新开始设计了深度神经网络。这样可以加入新的功能,比如融合算法,我们还开发了新的数据转换层。”

仍在做研究时,Forrest就与同伴一起发布过自己的神经网络SqueezeNet,这一网络并不能直接用于自动驾驶,但它在让模型尽可能简单的基础上,实现了合理的精度。

在创立DeepScale之前,Forrest曾在UCB的ASPIRE实验室工作,当时他参与了一个美国国防部高级研究计划局DARPA资助了1500万美元的项目。项目的主要任务是将计算机视觉技术置于无人机上,而他们的主要工作就是优化能耗。他表示,“当时在解决问题中,我们要选择合适的硬件,开发最好的library,开发最合适的模型和算法”,而这也是他们现在能用上的经验。

专访DeepScale:深度学习加前融合,这家公司想做自动驾驶领域的感知方案供应商

以下为雷锋网与Forrest采访的摘录:

雷锋网:你怎么定义DeepScale和它在自动驾驶行业的位置?

Forrest:我们是一家软件公司,取决于与哪家OEM合作,我们会成为Tier 1或Tier 2供应商。有时与车厂合作,有时也与T1合作,向车厂提供完整的解决方案。两种典型的情况。

我们不是开发自动驾驶整体解决方案,而是只开发感知系统软件,是自动驾驶构成的一部分。

雷锋网:多传感器的前融合在学术研究上是一个相对成熟的领域吗?

Forrest:研究的人相对比较少。深度神经网络是一个有研究很多的领域,在语音识别、目标检测、图像及视频识别、文本分析上都有很多应用。但传感器的融合在DeepScale之外,还主要是人工设计的算法,很少用深度学习,甚至没有用机器学习的方法。总体上虽然已经有了一些研究,但仍有很多开放的问题待解决。

雷锋网(公众号:雷锋网):那有待解决的问题还有哪些?

Forrest:除了很多方法没有利用原始数据,这会带来一定的局限外,如何做到传感器的时间同步也是一个重要问题。传感器有不同的采样速率,一个传感器可能是每秒30次的采样,另一个可能是40帆每秒,在如何融合上我们有一些成果了。时间序列神经网络(Time Series Neural Network)帮了很大的忙,RNN(递归神经网络)也很有用,解决了不少问题。

雷锋网:雷达上的原始数据你们用的是频谱(Spectrum)吗?如何做数据融合?

Forrest:第一步是我们与一些雷达公司有合作,他们会为我们提供原始数据。这方面我们有一些进展,用机器学习的方法取得了一些不错的成果。可以透露的是,这有点像语音识别,你可以用原始波形(Wave Forms),或者用FFT(快速傅里叶变换)做一系列的处理,再喂给神经网络,这是一个还没解决的问题。

雷锋网:你们对传感器的配置没有具体要求?

Forrest:我们在配置上很灵活,主要看合作的OEM想达到什么样的效果。在城市路段和高速上所用传感器是不一样。想达到什么样的功能,想要系统多可靠,这决定了用什么样的传感器。

雷锋网:让业界采用你们的方案是否存在哪些阻碍?

Forrest:有不少公司开发出了车载的智能传感器,里面也集成了处理算法,对这些公司来说,我们的技术是颠覆性的(Disruptive)。车厂也不可能同时用这两种方法,所以我们在与汽车行业对用新技术做计算感兴趣的公司合作,希望能将计算中心化。

雷锋网:是因为习惯了传统的方案而不愿意接受新的技术?

Forrest:这对每家公司来说都不一样。如果对精度和系统安全没那么敏感,就不需要。

雷锋网:那是否意味着你们更偏向于L4-5级别的全自动驾驶,而不是L2-3级?因为后者已经有Mobileye这样的公司了?

Forrest:我们L2-5级别的方案都做。L2-3的定义很广泛,现在L2级自动驾驶的功能和它未来有的功能差别很大,比如像紧急制动系统这样的功能就还不完美,还有很多工作要做。车厂也对有更多的安全功能很感兴趣。我们也不是想挑战Mobileye,但在L2-3领域还有很多待解决的问题。

在L4-5级上,会加入更多的传感器,会面向更多的场景,而我们系统的好处是对传感器的改变适应性很好,我们可以支持高端和低端的传感器,且不用做太多的前期开发。

雷锋网:你们开发过程中遇到的主要挑战是什么?

Forrest:取决于自动驾驶车辆要达到什么样的功能,我们的一个目标就是要达到相应的感知精度要求。另外就是要在车规级的硬件和处理器上完成实时计算。DeepScale的一个优势是我们擅长重新思考神经网络的设计,以在更小的处理器上运行。

英伟达等GPU公司在PC和服务器上,以及未来的汽车上都有很好的应用。但也有一些应用场景,就算是英伟达最便宜的芯片也不能满足OEM的需求,但我们能将深度神经网络运行手机和车载硬件上。这也是我们的一个特点,很多公司或者在GPU上做深度学习,或者在其它硬件上做非深度学习的传统的计算机视觉。

雷锋网:你们现在主要支持哪些计算平台?

Forrest:与我们对传感器的要求不多,可以换到新的传感器而不用做过多的开发一样,我们自己的深度神经网络软件框架可以移植到不同的处理器平台上,比如高通、英伟达、TI等,我们未来会运行上所有的平台上。

雷锋网:现在你们深度神经网络的功能有哪些?

Forrest:目前我们主要关注的是物体检测,包括物体的种类、运行路线、距离等信息;还可以分析3D点云,即环境的3D形状是什么,从一个摄像头到多个传感器的数据都可以分析。还有Occupancy,也就是道路上可以行驶的空间。

雷锋网:你如何看待以摄像头或激光雷达为主的自动驾驶方案?

Forrest:我是一个很务实的人,我觉得更多的传感器意味着更安全。各种不同的技术路径都有自己的价值,但重要的是取决于想要做什么和达到什么样的效果。如果只是做Demo,只想在限定区域内运行,可能一个摄像头就够了,如果是要解决安全问题并且要量产,不确定。

雷锋网:你们未来的主要工作是什么?

Forrest:招人,软件开发,获取更多数据,寻求更多合作都是。在一个漂亮的Demo与量产之间,还存在很大的鸿沟,安全性上也需要不断提升。


本文作者:张驰

本文转自雷锋网禁止二次转载,原文链接

相关文章
|
4月前
|
机器学习/深度学习 算法 自动驾驶
深度学习与图像处理 | 基于传统图像处理的自动驾驶车道线检测
本节介绍了基于OpenCV的传统图像处理算法在车道线检测中的应用,重点讲解了如何通过HSV颜色空间提取黄色和白色车道线、使用高斯模糊降噪、Canny算子提取边缘、感兴趣区域裁剪以及霍夫变换检测线段。最终通过对检测到的线段进行聚类与平均,得到代表左右车道线的直线,并实现车道线的可视化显示。该方法为自动驾驶小车提供了转向控制依据。
290 2
|
6月前
|
机器学习/深度学习 传感器 算法
基于多模态感知与深度学习的智能决策体系
本系统采用“端-边-云”协同架构,涵盖感知层、计算层和决策层。感知层包括视觉感知单元(800万像素摄像头、UWB定位)和环境传感单元(毫米波雷达、TOF传感器)。边缘侧使用NVIDIA Jetson AGX Orin模组处理多路视频流,云端基于微服务架构实现智能调度与预测。核心算法涵盖人员行为分析、环境质量评估及路径优化,采用DeepSORT改进版、HRNet-W48等技术,实现高精度识别与优化。关键技术突破包括跨摄像头协同跟踪、小样本迁移学习及实时推理优化。实测数据显示,在18万㎡商业体中,垃圾溢流检出率达98.7%,日均处理数据量达4.2TB,显著提升效能并降低运营成本。
320 7
|
12月前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别技术在自动驾驶汽车中的应用####
【10月更文挑战第21天】 本文探讨了深度学习中的卷积神经网络(CNN)如何革新自动驾驶车辆的视觉感知能力,特别是在复杂多变的道路环境中实现高效准确的物体检测与分类。通过分析CNN架构设计、数据增强策略及实时处理优化等关键技术点,揭示了该技术在提升自动驾驶系统环境理解能力方面的潜力与挑战。 ####
401 0
|
10月前
|
机器学习/深度学习 传感器 人工智能
穹彻智能-上交大最新Nature子刊速递:解析深度学习驱动的视触觉动态重建方案
上海交大研究团队在Nature子刊发表论文,提出基于深度学习的视触觉动态重建方案,结合高密度可拉伸触觉手套与视觉-触觉联合学习框架,实现手部与物体间力量型交互的实时捕捉和重建。该方案包含1152个触觉感知单元,通过应变干扰抑制方法提高测量准确性,平均重建误差仅1.8厘米。实验结果显示,其在物体重建的准确性和鲁棒性方面优于现有方法,为虚拟现实、远程医疗等领域带来新突破。
262 32
|
11月前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别技术及其在自动驾驶中的应用####
本文深入探讨了深度学习驱动下的图像识别技术,特别是在自动驾驶领域的革新应用。不同于传统摘要的概述方式,本节将直接以“深度学习”与“图像识别”的技术融合为起点,简述其在提升自动驾驶系统环境感知能力方面的核心作用,随后快速过渡到自动驾驶的具体应用场景,强调这一技术组合如何成为推动自动驾驶从实验室走向市场的关键力量。 ####
354 24
|
12月前
|
机器学习/深度学习 数据采集 传感器
基于深度学习的图像识别技术在自动驾驶中的应用研究####
本文旨在探讨深度学习技术,特别是卷积神经网络(CNN)在自动驾驶车辆图像识别领域的应用与进展。通过分析当前自动驾驶技术面临的挑战,详细介绍了深度学习模型如何提升环境感知能力,重点阐述了数据预处理、网络架构设计、训练策略及优化方法,并展望了未来发展趋势。 ####
426 6
|
12月前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别技术在自动驾驶领域的应用与挑战####
本文旨在探讨深度学习驱动下的图像识别技术于自动驾驶汽车中的应用现状,重点分析其在环境感知、障碍物检测及路径规划等方面的贡献,并深入剖析该技术面临的数据依赖性、算法泛化能力、实时处理需求等核心挑战。通过综述当前主流算法框架与最新研究成果,本文为推动自动驾驶技术的稳健发展提供理论参考与实践指导。 ####
364 7
|
11月前
|
机器学习/深度学习 传感器 边缘计算
基于深度学习的图像识别技术在自动驾驶中的应用####
随着人工智能技术的飞速发展,深度学习已成为推动自动驾驶技术突破的关键力量之一。本文深入探讨了深度学习算法,特别是卷积神经网络(CNN)在图像识别领域的创新应用,以及这些技术如何被集成到自动驾驶汽车的视觉系统中,实现对复杂道路环境的实时感知与理解,从而提升驾驶的安全性和效率。通过分析当前技术的最前沿进展、面临的挑战及未来趋势,本文旨在为读者提供一个全面而深入的视角,理解深度学习如何塑造自动驾驶的未来。 ####
473 1
|
12月前
|
机器学习/深度学习 传感器 自动驾驶
深度学习在自动驾驶中的应用与挑战####
本文探讨了深度学习技术在自动驾驶领域的应用现状、面临的主要挑战及未来发展趋势。通过分析卷积神经网络(CNN)和循环神经网络(RNN)等关键算法在环境感知、决策规划中的作用,结合特斯拉Autopilot和Waymo的实际案例,揭示了深度学习如何推动自动驾驶技术向更高层次发展。文章还讨论了数据质量、模型泛化能力、安全性及伦理道德等问题,为行业研究者和开发者提供了宝贵的参考。 ####
|
12月前
|
机器学习/深度学习 人工智能 TensorFlow
探索深度学习与计算机视觉的融合:构建高效图像识别系统
探索深度学习与计算机视觉的融合:构建高效图像识别系统
328 0

热门文章

最新文章