3D检测经典 | 第一个Anchor-Free、第一个NMS-Free 3D目标检测算法!!!

简介: 3D检测经典 | 第一个Anchor-Free、第一个NMS-Free 3D目标检测算法!!!

ee01ccb74de69d32c6a5a1a062fa987f.png

在嵌入式系统上操作的高效点云3D目标检测对于包括自动驾驶在内的许多机器人应用来说都是重要的。大多数以前的工作都试图使用基于Anchor的检测方法来解决这个问题,这些方法有2个缺点:


后处理相对复杂且计算昂贵


调整Anchor参数很复杂

本文是第一个使用Anchor-free和NMS-Free的单阶段检测器AFDet解决这些缺点的算法。整个AFDet可以通过简化的后处理在CNN加速器或GPU上高效处理。


在没有附加功能的情况下,本文提出的AFDet在KITTI验证集和Waymo开放数据集验证集上与其他基于Anchor的方法相比也具有一定的竞争力。

1、简介

检测点云中的3D目标是自动驾驶最重要的感知任务之一。为了满足功率和效率的限制,大多数检测系统都在车辆嵌入式系统上运行。开发嵌入式系统友好的点云3D检测系统是实现自动驾驶的关键步骤。


由于点云的稀疏性,直接在原始点云上应用3D或2D卷积神经网络(CNN)是低效的。一方面,引入了许多点云编码器来将原始点云编码为3D或2D CNN可以有效处理的数据格式。另一方面,一些工作直接从原始点云中提取特征用于3D检测,这是PointNet的启发。但在检测部分,大多数采用了在图像目标检测任务中被证明有效的基于Anchor的检测方法。


基于Anchor的方法有2个主要缺点:

首先,非最大抑制(NMS)是基于Anchor的方法抑制重叠的高置信度检测边界框所必需的。但它可能会引入比较大的计算成本,尤其是对于嵌入式系统。根据作者的实验,即使在具有高效实现的现代高端桌面CPU上,处理一个KITTI点云帧也需要20毫秒以上,更不用说通常用于嵌入式系统的CPU了。


第二,基于Anchor的方法需要Anchor选择,这既复杂又耗时,因为调整的关键部分可能是手动试错过程。例如,每次向检测系统添加新的检测类别时,都需要选择诸如合适的Anchor数量、Anchor尺寸、Anchor角度和Anchor密度等超参数。

可以摆脱NMS,设计一个高效的嵌入式系统友好的Anchor-Free点云3D检测系统吗?最近,图像检测中的Anchor-Free方法取得了显著的性能。在这项工作中,作者提出了一种具有简单后处理的Anchor-Free和无NMS的单阶段端到端点云3D目标检测器(AFDet)。


在作者的实验中,使用PointPillars将整个点云编码为鸟瞰图(BEV)中的伪图像或类似图像的特征图。然而,AFDet可以与生成伪图像或类似图像的2D数据的任何点云编码器一起使用。编码后,应用具有上采样Neck的CNN输出特征图,该特征图连接到5个不同的头部,以预测BEV平面中的目标中心,并回归3D边界框的不同属性。最后,将5个头的输出组合在一起以生成检测结果。关键点热图预测头用于预测BEV平面中的目标中心。它将把每个物体编码成一个以heatmap为中心的小区域。在推断阶段,每一个heatmap值都将通过最大池化操作进行挑选。在此之后,不再将多个回归Anchor平铺到一个位置,因此不需要使用传统的NMS。这使得整个检测器可以在典型的CNN加速器或GPU上运行,为自动驾驶中的其他关键任务节省了CPU资源。

贡献总结如下:

  1. 首次提出了一种Anchor-Free和无NMS检测器,用于简化后处理的点云3D目标检测。
  2. AFDet是嵌入式系统友好的,可以以更少的工程工作量实现高处理速度。
  3. 在KITTI验证集上,AFDet可以实现与以前的单阶段检测器相比具有竞争力的精度。AFDet的一种变体在Waymo验证上超越了最先进的单阶段3D检测方法。

2、相关工作

2.1、LiDAR-based 3D Object Detection

由于长度和顺序不固定,点云呈稀疏且不规则的格式,需要在输入神经网络之前对其进行编码。一些工作利用网格网格对点云进行体素化。诸如密度、强度、高度等特征在不同的体素中被连接为不同的通道。体素化点云被投影到不同的视图,例如BEV、距离视图(RV)等,以通过2D卷积处理,或者被保持在3D坐标中,以通过稀疏3D卷积处理。

PointNet提出了一种使用原始点云作为输入进行3D检测和分割的有效解决方案。PointNet使用多层感知器和最大池化操作来解决点云的无序和非均匀性,并提供了令人满意的性能。基于原始点云输入的连续3D检测解决方案提供了有前景的性能,如PointNet++、Frustum PointNet、PointR CNN和STD。

VoxelNet结合了体素化和PointNet,提出了体素特征提取器(VFE),其中在每个体素内实现了PointNet风格的编码器。尽管稀疏3D卷积被用于在VFE之后在z轴上进一步提取和下采样信息,但在SECOND中使用了类似的思想。VFE显著提高了基于LiDAR的检测器的性能,然而,使用从数据中学习的编码器,检测流水线变得更慢。

PointPillars建议将点云编码为pillar而不是体素。结果,整个点云变成BEV伪图像,其通道等效于VFE的输出通道,而不是3个。

在基于Anchor的方法中,为边界框编码提供预定义的框。然而,使用密集Anchor会导致大量潜在目标对象,这使得NMS成为一个不可避免的问题。之前的一些工作提到了Anchor-free概念。PointRCNN提出了一种基于全场景点云分割的Anchor-free box的3D proposals生成子网络。VoteNet从投票的兴趣点而不是预定义的Anchor框构建3D边界框。但它们都不是无NMS的,这使得它们效率较低,对嵌入式系统也不友好。

此外,PIXOR是一个BEV检测器,而不是3D检测器。

2.2、Camera-based 3D Object Detection

基于摄像头的解决方案随着降低成本的意愿而蓬勃发展。随着越来越复杂的网络的设计,基于摄像头的解决方案正在迅速赶上基于激光雷达的解决方案。

MonoDIS利用了2D和3D检测损失的新颖解纠缠变换和3D边界框的新颖自监督置信分数。它在nuScenes 3D目标检测挑战中排名第一。

CenterNet从特征图上的边界框中心预测目标的位置和类别。虽然最初设计用于2D检测,但CenterNet也有可能使用单摄像头进行3D检测。

TTFNet提出了缩短训练时间和提高推理速度的技术。

RTM3D预测图像空间中3D边界框的9个透视关键点,并利用几何规则恢复3D边界框。

3、方法

435a618456eb3c99667d05b9c69ab3b7.png

在本节中将从3个方面详细介绍AFDet:点云编码器、主干和颈部以及Anchor-free检测器。框架如图1所示。

3.1、点云编码器

为了进一步挖掘Anchor-free检测器的效率潜力,本文使用PointPillars作为点云编码器,因为其速度快。


首先,将检测范围离散为鸟瞰图(BEV)平面(也是x-y平面)中的pillar。不同的点根据其x-y值指定给不同的pillar。在这一步骤中,每个点也将增加到D=9维。


其次,具有足够数量点的预定义P数量的pillar将应用于线性层和最大池化操作,以创建大小为1675319404741.png的输出张量,其中F是PointNet中线性层的输出通道数。由于P是所选pillar的数量,因此它们在整个检测范围内与原始pillar不是一一对应的。因此,第三步是将选定的P pillar散射到它们在检测范围上的原始位置。


之后,可以得到伪图像1675319434775.png,其中W和H分别表示宽度和高度。尽管使用PointPillars作为点云编码器,但Anchor-free检测器与生成伪图像或类似图像的2D数据的任何点云编码器兼容。

3.2、Anchor Free检测器

Anchor-free检测器由5个头组成。它们是keypoint heatmap head、 local offset head、z-axis location head、 3D object size head 和orientation head。图1显示了Anchor-free检测器的一些细节。

1、BEV中的目标定位

对于heatmap head和offset head,预测关键点heatmap1675319450599.png 和local offset regression图1675319478721.png,其中C是关键点类型的数量。关键点heatmap用于查找目标中心在BEV中的位置。offset regression图有助于heatmap在BEV中找到更精确的目标中心,也有助于恢复pillar化过程导致的离散化误差。


对于类别为1675319498777.png的3D目标k,将其3D GT边界框参数化为1675319520257.png,其中1675319532449.png表示表示激光雷达坐标系中的中心位置,1675319568090.png表示边界框的宽度、长度和高度吗, 1675319591274.png是围绕垂直于地面的z轴的偏航旋转。1675319609867.png表示x-y平面中的检测范围。

具体来说,在LiDAR坐标系中,1675319622723.png沿x轴,1675319644078.png沿y轴。在这项工作中,x-y平面中的pillar始终是正方形。因此,设b表示pillar边长。根据CornerNet,对于每个目标中心,在BEV伪图像坐标中有关键点1675319681694.png1675319668581.png。是关键点热图中的等效值。BEV中的二维边界框可以表示为1675319693822.png

对于伪图像中二维边界框中覆盖的每个像素1675319707254.png,在下面的heatmap中设置它的值

cf3b238a4904700d02cc0ceba4b743d4.png

式中,d为离散的伪图像坐标中边界框中心与对应像素之间计算的欧氏距离。预测值1675319731487.png表示目标中心,1675319751496.png表示该pillar为背景。

,即代表BEV中的目标中心,将被视为阳性样本,而所有其他pillar将被视为阴性样本。作者使用改进的Focal Loss:

fb04a136f5e4d61b62fcaee453c065dc.png

训练heatmap,其中N是检测范围内的物体数量,α和β是超参数。在所有实验中使用α=2和β=4。

对于 offset regression head,有两个主要功能。首先,它用于消除由pillar化过程引起的误差,在pillar化过程中,将浮动目标中心分配给BEV中的整数pillar位置,如上所述。第二,它在细化heatmap目标中心的预测中起着重要作用,特别是当heatmap预测错误的中心时。具体而言,一旦heatmap预测到距离GT中心数个像素的错误中心,offset head就能够减轻甚至消除对GT目标中心的数个像素误差。

在offset regression 图中围绕目标中心像素选择半径为的正方形区域。到目标中心的距离越远,偏移值就越大。使用L1损失训练偏移head:

8ede203f0fcbaef665113b37599cca4e.png

其中,训练仅针对关键点位置周围的边长为的正方形区域。

2、z轴位置回归

在BEV中定位目标之后,只有目标的x-y位置。因此,有z轴的位置头来回归z轴的值。使用L1损失直接回归z值1675319771049.png

0336e5096c69f9551dd014012a7fff56.png

3、大小回归

此外,还直接回归了目标大小1675319783849.png。对于每个目标都有1675319800345.png。回归的训练损失为

22fa99f7b88f38994644258a2ec80e4f.png

这也是L1的损失。

4、方向预测

目标k的方向1675319816249.png是围绕垂直于地面的z轴旋转的标量角度。按照CenterNet将其编码为8个标量,每个bin有4个标量。2个标量用于softmax分类,另外2个用于角度回归。2个bin的角度范围为1675319830533.png,略有重叠。


对于每个bin,预测1675319850555.png,用于softmax分类和1675319861278.png,用于计算到bin中心γ的偏移的sin和cos值。用softmax训练分类部分,而1675319874507.png用L1损失训练偏移部分1675319874507.png。因此,方向训练的损失是

20d702e5e2a5b4127ee4a50192b12d37.png

5、损失函数

已经描述了每个损失。总的训练损失函数是:

a9872eab01bde2022ffa2b8ded907efa.png

其中,λ表示每个头的权重。对于所有的回归头,包括局部偏移量、z轴位置、大小、方向回归。

6、收集索引并解码

在训练阶段,不对整个特征映射进行反向传播。相反,只反向传播作为所有回归头的目标中心的索引。在推理阶段,使用最大池化和and操作来寻找在CenterNet之后的预测heatmap中的峰值,这比基于iou的NMS更快、更有效。


在最大池化和and操作之后,可以从关键点heatmap中轻松地收集每个中心1675319904923.png的索引。设1675319926764.png表示检测到的BEV目标中心的集合。有1675319937837.png,其中n是检测到的目标的总数。那么BEV中的最终目标中心将是1675319952485.png,其中,1675319964262.png位于1675319975759.png使用1675319985583.png索引,对于所有其他的预测值,它们要么直接来自回归结果,要么已经提到了上面的解码过程。目标k的预测边界框为:

e4fcc8cc97a418d3cca2333a7038d62e.png

3.3、Backbone and Necks

在这项工作中对主干进行了几个关键修改,以支持Anchor-free检测器。网络包括主干部分和neck部分。主干部分类似于分类任务中使用的网络,该网络用于提取特征。neck部分用于对特征进行上采样,以确保来自主干的不同块的所有输出具有相同的空间大小,以便可以沿一个轴连接它们。图2显示了主干和neck的细节。

f4f8ee03f644e4b4ecbda206f35d6b58.png

首先,将主干从3个block减少到2个block。block 1675320026074.png由具有A个输出通道的E个卷积层组成,每个卷积层后面跟着一个BatchNorm和一个ReLU。T被定义为该块的下采样步长。通过将block的数量1675320080489.png从3减少到2,移除了下采样4次的特征图。因此,将上采样Neck 从3减少到2。每个上采样Neck 包含一个带A输出通道的转置卷积和T上采样步长,后跟BatchNorm和ReLU。第二,使用的第一个块是1675320093069.png,与输入大小相比,它没有对输出特征大小进行下采样。


因此,最终的主干和颈部由两个块1675320108523.png组成,随后分别是两个上采样颈部1675320123620.png。通过这样做,输入特征图和伪图像的宽度和高度是相同的。

总之,在生成特征图的过程中,不进行降采样,这对于保持KITTI数据集的类似检测性能至关重要。减少下采样步长只会增加FLOP,因此作者还减少了主干和Neck的过滤器数量。事实证明,主干和Neck的FLOP较少。

4、实验

aa6ea18dd0feee33df70f90945995a2f.png1a8a27d796023daa5cb3bd71b29c127c.png73212dfe723ea0ff20473cf26c4f1567.png

45f72d0111f4c94f02fb8ffe76ed9703.png02b6a24814843cbd071ba5738c9a717b.png

5、参考

[1].AFDet: Anchor Free One Stage 3D Object Detection.

6、推荐阅读

超实时语义分割 | DWR-Seg超越STDC-1/2、BiSeNet v1/v2,1080ti单卡320+FPS

Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?

量化加速系列 | 一文带你对YOLOv5使用PTQ和QAT进行量化加速!!!


相关文章
|
28天前
|
机器学习/深度学习 监控 算法
目标检测算法技术
8月更文挑战第11天
|
1月前
|
机器学习/深度学习 监控 算法
目标检测算法
8月更文挑战第5天
|
1月前
|
机器学习/深度学习 监控 算法
目标检测算法
8月更文挑战第8天
|
2月前
|
机器学习/深度学习 人工智能 监控
人工智能 - 目标检测算法详解及实战
目标检测需识别目标类别与位置,核心挑战为复杂背景下的多目标精准快速检测。算法分两步:目标提取(滑动窗口或区域提议)和分类(常用CNN)。IoU衡量预测与真实框重叠度,越接近1,检测越准。主流算法包括R-CNN系列(R-CNN, Fast R-CNN, Faster R-CNN),YOLO系列,SSD,各具特色,如Faster R-CNN高效候选区生成与检测,YOLO适用于实时应用。应用场景丰富,如自动驾驶行人车辆检测,安防监控,智能零售商品识别等。实现涉及数据准备、模型训练(示例YOLOv3)、评估(Precision, Recall, mAP)及测试。
77 5
|
6天前
|
算法 BI Serverless
基于鱼群算法的散热片形状优化matlab仿真
本研究利用浴盆曲线模拟空隙外形,并通过鱼群算法(FSA)优化浴盆曲线参数,以获得最佳孔隙度值及对应的R值。FSA通过模拟鱼群的聚群、避障和觅食行为,实现高效全局搜索。具体步骤包括初始化鱼群、计算适应度值、更新位置及判断终止条件。最终确定散热片的最佳形状参数。仿真结果显示该方法能显著提高优化效率。相关代码使用MATLAB 2022a实现。
|
6天前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
|
29天前
|
算法
基于模糊控制算法的倒立摆控制系统matlab仿真
本项目构建了一个基于模糊控制算法的倒立摆控制系统,利用MATLAB 2022a实现了从不稳定到稳定状态的转变,并输出了相应的动画和收敛过程。模糊控制器通过对小车位置与摆的角度误差及其变化量进行模糊化处理,依据预设的模糊规则库进行模糊推理并最终去模糊化为精确的控制量,成功地使倒立摆维持在直立位置。该方法无需精确数学模型,适用于处理系统的非线性和不确定性。
基于模糊控制算法的倒立摆控制系统matlab仿真
|
7天前
|
资源调度 算法
基于迭代扩展卡尔曼滤波算法的倒立摆控制系统matlab仿真
本课题研究基于迭代扩展卡尔曼滤波算法的倒立摆控制系统,并对比UKF、EKF、迭代UKF和迭代EKF的控制效果。倒立摆作为典型的非线性系统,适用于评估不同滤波方法的性能。UKF采用无迹变换逼近非线性函数,避免了EKF中的截断误差;EKF则通过泰勒级数展开近似非线性函数;迭代EKF和迭代UKF通过多次迭代提高状态估计精度。系统使用MATLAB 2022a进行仿真和分析,结果显示UKF和迭代UKF在非线性强的系统中表现更佳,但计算复杂度较高;EKF和迭代EKF则更适合维数较高或计算受限的场景。
|
9天前
|
算法
基于SIR模型的疫情发展趋势预测算法matlab仿真
该程序基于SIR模型预测疫情发展趋势,通过MATLAB 2022a版实现病例增长拟合分析,比较疫情防控力度。使用SIR微分方程模型拟合疫情发展过程,优化参数并求解微分方程组以预测易感者(S)、感染者(I)和移除者(R)的数量变化。![]该模型将总人群分为S、I、R三部分,通过解析或数值求解微分方程组预测疫情趋势。
|
9天前
|
算法 数据可视化 数据安全/隐私保护
基于LK光流提取算法的图像序列晃动程度计算matlab仿真
该算法基于Lucas-Kanade光流方法,用于计算图像序列的晃动程度。通过计算相邻帧间的光流场并定义晃动程度指标(如RMS),可量化图像晃动。此版本适用于Matlab 2022a,提供详细中文注释与操作视频。完整代码无水印。