论文阅读:Object Classification Using CNN-Based Fusion of Vision and LIDAR in Autonomous Vehicle

简介: 论文阅读:Object Classification Using CNN-Based Fusion of Vision and LIDAR in Autonomous Vehicle

前言

先来看看题目的中文解释叭,即在自动驾驶环境中使用CNN-Based融合视觉和激光雷达进行物体分类。我们常见的物体分类算法大多是纯视觉的,那么今天我分享的文章呢,是融合了视觉和激光雷达传感器进行物体分类。写此文章也是最近刚好一门课上要求阅读两篇论文进行讲解,恰巧遇此活动,于是在此记录下来📝📝📝


这篇论文是18年SCI一区的一篇论文,对于刚刚接触传感器融合的同学来说我认为还是很友好的,可以很容易的理解传感器融合的大致思想。

论文

背景

如今自动驾驶可以说是很火的一个方向了,关注度越来越高。这也是因为自动驾驶车辆的安全性和性能、交通效率和节能方面展现了巨大潜力。同时,社会层面也推出了各式各样的挑战赛和项目,如智能汽车未来挑战赛”、谷歌的自动驾驶汽车等,这些都极大的推动了自动驾驶的发展。

论文中先是提到了自动驾驶应该具有怎样的性能,然后提出目前物体分类的两种主流方法,然后总结了纯视觉方案和纯激光雷达方案的局限性,进而提出将视觉传感器和激光雷达融合的方案。87ad687e42d23ca051a99e52a12850c1.png

系统架构✨✨✨

  本论文使用的车是猛士,其硬件的的系统架构和各传感器的相关参数如下:ee2d95debef5b4fa9dee7451bc6280ac.png

核心思想✨✨✨

 这篇文章的核心思想也比较容易理解,就是我们将得到的激光雷达点云数据先转换成稀疏的深度图【这里可能需要一些四系坐标转换的知识】】,之后再通过双边滤波上采样得到稠密的深度图【滤波就可以看作一个卷积操作】,最后的会将得到的深度图喂到AlexNet网络中。【对此网络不清楚的戳了解详情】核心思想的图示如下:5e579ad3704d15311431218ef7b6b53b.png

实验结果✨✨✨

下图左图显示了使用 RGB-LIDAR 和 RGB 方法在不同迭代下训练数据集的平均每秒帧数 (FPS)RGB-LIDAR的平均 FPS 从 100 次迭代持续下降到 3000 次迭代,并在 3000 次后趋于平稳。这些值发生了很大变化,使用 RGB-LIDAR 方法最终达到了大约 110 FPS,使用 RGB 方法,这些值最终大约 达到了120 FPS,其实这两个是相差不多的。再来看右表,它提供了基于 RGB-LIDAR 方法的分类预测结果的混淆矩阵。主对角线上的值是正确分类项目的百分比,其余是未分类项目和对应的错误百分比。我们发现主要错误发生在“其他”被归类为“卡车”,而“卡车”被归类为“其他”上。我们认为这两个类对象在当前数据集中非常相似,因为它们的背景也非常相似。

57de0e275699c93345bbd2e4fac0db8a.png

下图第一行三个图显示相应的平均精度。所有曲线都显示出相似的趋势,并且平均准确度在大约 1000 次迭代后趋于稳定。然而,带有 RGB-LIDAR 的效果一直表现更好。尤其是在使用小集合(400 张图像)进行训练时,使用所提出的方法,随着提供的信息深度的增加,当训练迭代次数达到 1000 以上时,多传感器 RGB-LIDAR 数据显示出比纯 RGB 数据高约 5% 的精度。


下图第二行列出了数据集组合的相应平均损失。 随着迭代次数的增加,平均损失不断下降。 当数据集为400张图像时并且使用高于 500 的迭代次数以及,AlexNet 的损失降至零。 多传感器 RGB-LIDAR 始终比 RGB 训练集更快地收敛。

image.png

  在 KITTI 基准数据集上的实验结果表明,与基于 RGB 的单一模型相比,RGB-LIDAR 数据可以达到更低的损失和更高的平均精度。最终分类器的平均准确率可以达到最大值 96%。这意味着,通过附加的高级 LIDAR 功能,我们可以提高分类器的准确率。


论文下载

下载地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8331162🥗🥗🥗

相关文章
|
11月前
|
机器学习/深度学习 算法 数据可视化
深度学习论文阅读目标检测篇(一):R-CNN《Rich feature hierarchies for accurate object detection and semantic...》
 过去几年,在经典数据集PASCAL上,物体检测的效果已经达到 一个稳定水平。效果最好的方法是融合了多种低维图像特征和高维上 下文环境的复杂集成系统。在这篇论文里,我们提出了一种简单并且 可扩展的检测算法,可以在VOC2012最好结果的基础上将mAP值提 高30%以上——达到了53.3%。
122 0
深度学习论文阅读目标检测篇(一):R-CNN《Rich feature hierarchies for accurate object detection and semantic...》
|
11月前
|
机器学习/深度学习 编解码 并行计算
深度学习论文阅读目标检测篇(七)中文版:YOLOv4《Optimal Speed and Accuracy of Object Detection》
大多数基于 CNN 的目标检测器基本上都仅适用于推荐系统。例 如:通过城市摄像头寻找免费停车位,它由精确的慢速模型完成,而 汽车碰撞警报需要由快速、低精度模型完成。改善实时目标检测器的 精度,使其能够不仅可以用于提示生成推荐系统,也可以用于独立的 流程管理和减少人力投入。传统 GPU 使得目标检测可以以实惠的价 格运行。最准确的现代神经网络不是实时运行的,需要大量的训练的 GPU 与大的 mini bacth size。我们通过创建一个 CNN 来解决这样的 问题,在传统的 GPU 上进行实时操作,而对于这些训练只需要一个 传统的 GPU。
191 0
|
11月前
|
机器学习/深度学习 编解码 并行计算
深度学习论文阅读目标检测篇(七)中英对照版:YOLOv4《Optimal Speed and Accuracy of Object Detection》
 有大量的技巧可以提高卷积神经网络(CNN)的精度。需要在大 数据集下对这种技巧的组合进行实际测试,并需要对结果进行理论论 证。某些技巧仅在某些模型上使用和专门针对某些问题,或只针对小 规模的数据集;而一些技巧,如批处理归一化、残差连接等,适用于 大多数的模型、任务和数据集。我们假设这种通用的技巧包括加权残 差连接(Weighted-Residual-Connection,WRC)
222 0
|
11月前
|
机器学习/深度学习 传感器 编解码
深度学习论文阅读目标检测篇(四)中文版:YOLOv1《 You Only Look Once: Unified, Real-Time Object Detection》
我们的统一架构非常快。我们的基础YOLO模型以45帧/秒的速度实时处理图像。FastYOLO是YOLO的一个较小版本,每秒能处理惊人的155帧图像,同时实现其它实时检测器两倍的mAP。与最先进的检测系统相比,YOLO虽然存在较多的定位错误,但很少将背景预测成假阳性(译者注:其它先进的目标检测算法将背景预测成目标的概率较大)。最后,YOLO能学习到目标非常通用的表示。当从自然图像到艺术品等其它领域泛化时,它都优于其它检测方法,包括DPM和R-CNN。
222 0
|
11月前
|
机器学习/深度学习 编解码 算法
深度学习论文阅读目标检测篇(四)中英文对照版:YOLOv1《 You Only Look Once: Unified, Real-Time Object Detection》
我们提出了 YOLO,一种新的目标检测方法。以前的目标检测工 作重复利用分类器来完成检测任务。相反,我们将目标检测框架看作 回归问题,从空间上分割边界框和相关的类别概率。单个神经网络在 一次评估中直接从整个图像上预测边界框和类别概率。由于整个检测 流水线是单一网络,因此可以直接对检测性能进行端到端的优化。
155 0
|
11月前
|
机器学习/深度学习 算法 数据挖掘
深度学习论文阅读目标检测篇(三):Faster R-CNN《 Towards Real-Time Object Detection with Region Proposal Networks》
 最先进的目标检测网络依靠region proposal算法来推理检测目标的位置。SPPnet[1]和Fast R-CNN[2]等类似的研究已经减少了这些检测网络的运行时间,使得region proposal计算成为一个瓶颈。在这项工作中,我们引入了一个region proposal网络(RPN),该网络与检测网络共享整个图像的卷积特征,从而使近乎零成本的region proposal成为可能。
264 0
|
11月前
|
机器学习/深度学习 人工智能 数据可视化
【文章阅读】Frustratingly Simple Few-Shot Object Detection
从几个例子中检测稀有物体是一个新出现的问题。先前的研究表明,元学习是一种很有前途的方法。但是,微调技术几乎没有引起人们的注意。我们发现,仅对稀有类现有检测器的最后一层进行微调对于少镜头目标检测任务是至关重要的。在当前的基准测试中,这种简单的方法比元学习方法高出大约2~20个百分点,有时甚至会使以前的方法的准确率翻一番。
129 0
|
JavaScript
Vue 2 阅读理解(十五)之响应式系统(一)Object.defineProperty
Vue 2 阅读理解(十五)之响应式系统(一)Object.defineProperty
146 0
|
传感器 自动驾驶 算法
论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES
论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES
291 1
论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES
|
Java C++
【java SE】java 源码阅读 —— Object
看源码也不太懂怎么看,Object类的 java 代码很少,方法实现都靠 C/C++ ,主要看注释,然后自己理解。有不对的地方请指正 1. 概览 import jdk.internal.HotSpotIntrinsicCandidate; /** * native 关键字修饰的方法: * 1.
1548 0