论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES

简介: 论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES

写在前面

  在上篇文章中,我们学习到了激光雷达和相机融合的论文。那么这篇文章我将来介绍一下毫米波雷达和相机融合的方法。这里我先给出三种传感器(相机、激光雷达、毫米波雷达)的一些属性特点,如下:

image.png  radar可以在检测到的物体上提供准确的距离和速率信息,但它们不适用于诸如物体分类之类的任务,因为它不能够识别物体的属性。另一方面,相机是用于对象分类的非常有效的传感器,使radar和相机传感器融合成为自动驾驶应用中非常有趣的话题。

RRPN网络

这篇文章的核心就是这个RRPN网络,主要由三个部分组成,即透视变换、锚点生成、距离补偿。值得一提的是这个RRPN网络是非常好理解的,但是你需要对fast-RCNN、faster-RCNN有一定的认识,论文中网络的整体整体框架也是和fast-RCNN类似的。下面将来分别介绍这三个部分。

  • 透视变换

生成 ROI 的第一步是将雷达检测从车辆坐标映射到摄像机视图坐标。 雷达检测以鸟瞰图的形式报告,如下图所示,物体的距离和方位角在车辆的坐标系中测量。 通过将这些检测到的量映射到相机视图坐标,我们能够将雷达检测到的对象与相机获得的图像中看到的对象相关联。

9a64d99b942b5042ef4a3e77ceb8d15f.png

  上文红色字体的意思就是说我们可以将毫米波雷达的角度和距离数据投影到相机的三维坐标中,为方便大家理解,我画了从雷达坐标到相机坐标转化的示意图,如下:

d2528d7e73cd80faa2fc1147914201a5.png

这样我们就得到了相机坐标系下的坐标,之后可以通过四系坐标转化将坐标投影到像素坐标系下。论文中还提到了相机的标定,这里给出张氏标定法参考链接:https://blog.csdn.net/qq_47233366/article/details/124165936?spm=1001.2014.3001.5502🥝🥝🥝


  • 锚点生成


从上一步我们已经将毫米波雷达检测坐标投影到了像素坐标系下,这时我们就有了图像中每个检测到的物体的大致位置。这些映射到图像上的点(以下称为兴趣点 (POI)) 提供了有关每个图像中对象的有价值的信息,从而无需对图像本身进行任何处理。有了这些信息,提出ROI的一种简单方法就是引入一个以每个POI为中心的边界框。但是这样的处理会存在一些问题,一个问题是雷达检测并不总是映射到每个图像中检测到的对象的中心。另一个问题是,雷达不提供关于检测到的物体的大小的任何信息。为解决这些问题,论文中采取了不同大小和不同比例的候选框且候选框在POI不同位置的策略,如下图所示:【其实这里就基本和fastet-RCNN类似】5e77a73c59321b69e76114b98ff10284.png


  • 距离补偿


 每个物体与车辆的距离在确定其在图像中的尺寸方面起着重要作用。通常,图像中物体的大小与其与相机的距离成反比关系。雷达检测具有每个检测到的物体的距离信息,在此步骤中用于缩放所有生成的锚点。我们使用以下公式来确定要在锚点上使用的缩放因子:image.png


实验结果

  实验中使用两种不同的骨干网络,一个是ResNet-101(后文简称R101),一个是ResNext-101(后文称X101),且设置了两个数据集,如下:

第一个子集 第二个子集
NS-F NS-FB
包含前置摄像头和前置雷达 包含后置摄像头和两个后置雷达
共有23k个样本 共有45k个样本

image.png

  从上图可以看出,实验RRPN网络的检测精度要比使用SS算法高,此外在实验中,RRPN 能够每秒 处理70 到 90 张图像,而选择性搜索算法每张图像需要 2-7 秒,也就是说使用RRPN网络可以大大提高网络的速度。


论文下载

下载地址:https://arxiv.org/pdf/1905.00526.pdf

 

相关文章
|
机器学习/深度学习 算法 数据可视化
深度学习论文阅读目标检测篇(一):R-CNN《Rich feature hierarchies for accurate object detection and semantic...》
 过去几年,在经典数据集PASCAL上,物体检测的效果已经达到 一个稳定水平。效果最好的方法是融合了多种低维图像特征和高维上 下文环境的复杂集成系统。在这篇论文里,我们提出了一种简单并且 可扩展的检测算法,可以在VOC2012最好结果的基础上将mAP值提 高30%以上——达到了53.3%。
134 0
深度学习论文阅读目标检测篇(一):R-CNN《Rich feature hierarchies for accurate object detection and semantic...》
|
机器学习/深度学习 编解码 并行计算
深度学习论文阅读目标检测篇(七)中文版:YOLOv4《Optimal Speed and Accuracy of Object Detection》
大多数基于 CNN 的目标检测器基本上都仅适用于推荐系统。例 如:通过城市摄像头寻找免费停车位,它由精确的慢速模型完成,而 汽车碰撞警报需要由快速、低精度模型完成。改善实时目标检测器的 精度,使其能够不仅可以用于提示生成推荐系统,也可以用于独立的 流程管理和减少人力投入。传统 GPU 使得目标检测可以以实惠的价 格运行。最准确的现代神经网络不是实时运行的,需要大量的训练的 GPU 与大的 mini bacth size。我们通过创建一个 CNN 来解决这样的 问题,在传统的 GPU 上进行实时操作,而对于这些训练只需要一个 传统的 GPU。
219 0
|
机器学习/深度学习 编解码 并行计算
深度学习论文阅读目标检测篇(七)中英对照版:YOLOv4《Optimal Speed and Accuracy of Object Detection》
 有大量的技巧可以提高卷积神经网络(CNN)的精度。需要在大 数据集下对这种技巧的组合进行实际测试,并需要对结果进行理论论 证。某些技巧仅在某些模型上使用和专门针对某些问题,或只针对小 规模的数据集;而一些技巧,如批处理归一化、残差连接等,适用于 大多数的模型、任务和数据集。我们假设这种通用的技巧包括加权残 差连接(Weighted-Residual-Connection,WRC)
261 0
|
机器学习/深度学习 传感器 编解码
深度学习论文阅读目标检测篇(四)中文版:YOLOv1《 You Only Look Once: Unified, Real-Time Object Detection》
我们的统一架构非常快。我们的基础YOLO模型以45帧/秒的速度实时处理图像。FastYOLO是YOLO的一个较小版本,每秒能处理惊人的155帧图像,同时实现其它实时检测器两倍的mAP。与最先进的检测系统相比,YOLO虽然存在较多的定位错误,但很少将背景预测成假阳性(译者注:其它先进的目标检测算法将背景预测成目标的概率较大)。最后,YOLO能学习到目标非常通用的表示。当从自然图像到艺术品等其它领域泛化时,它都优于其它检测方法,包括DPM和R-CNN。
283 0
|
机器学习/深度学习 编解码 算法
深度学习论文阅读目标检测篇(四)中英文对照版:YOLOv1《 You Only Look Once: Unified, Real-Time Object Detection》
我们提出了 YOLO,一种新的目标检测方法。以前的目标检测工 作重复利用分类器来完成检测任务。相反,我们将目标检测框架看作 回归问题,从空间上分割边界框和相关的类别概率。单个神经网络在 一次评估中直接从整个图像上预测边界框和类别概率。由于整个检测 流水线是单一网络,因此可以直接对检测性能进行端到端的优化。
190 0
|
机器学习/深度学习 算法 数据挖掘
深度学习论文阅读目标检测篇(三):Faster R-CNN《 Towards Real-Time Object Detection with Region Proposal Networks》
 最先进的目标检测网络依靠region proposal算法来推理检测目标的位置。SPPnet[1]和Fast R-CNN[2]等类似的研究已经减少了这些检测网络的运行时间,使得region proposal计算成为一个瓶颈。在这项工作中,我们引入了一个region proposal网络(RPN),该网络与检测网络共享整个图像的卷积特征,从而使近乎零成本的region proposal成为可能。
304 0
|
机器学习/深度学习 人工智能 数据可视化
【文章阅读】Frustratingly Simple Few-Shot Object Detection
从几个例子中检测稀有物体是一个新出现的问题。先前的研究表明,元学习是一种很有前途的方法。但是,微调技术几乎没有引起人们的注意。我们发现,仅对稀有类现有检测器的最后一层进行微调对于少镜头目标检测任务是至关重要的。在当前的基准测试中,这种简单的方法比元学习方法高出大约2~20个百分点,有时甚至会使以前的方法的准确率翻一番。
172 0
|
编解码 自动驾驶 测试技术
【论文速递】ECCV2022 - PETR: Position Embedding Transformation for Multi-View 3D Object Detection
【论文速递】ECCV2022 - PETR: Position Embedding Transformation for Multi-View 3D Object Detection
247 0
【论文速递】ECCV2022 - PETR: Position Embedding Transformation for Multi-View 3D Object Detection
|
2月前
|
Java
Java Object 类
5月更文挑战第16天
|
3天前
|
Java
Java中的Object类 ( 详解toString方法 | equals方法 )
Java中的Object类 ( 详解toString方法 | equals方法 )