登顶KITTI和NuScenes | 2DPASS:2D先验辅助的激光雷达点云语义分割!ECCV2022

简介: 语义分割在大规模室外场景理解中起着至关重要的作用,在自动驾驶和机器人技术中有着广泛的应用[1-3]。在过去几年中,研究界投入了大量精力,使用相机图像[4-7]或激光雷达点云[2,8-12]作为输入来理解自然场景。

原文首发微信公众号【自动驾驶之心】:一个专注自动驾驶与AI的社区(https://mp.weixin.qq.com/s/NK-0tfm_5KxmOfFHpK5mBA



论文链接:https://arxiv.org/pdf/2207.04397.pdf

代码链接:https://github.com/yanx27/2DPASS


1提出背景



由于camera和激光雷达在自动驾驶中能够捕获一些互补信息,许多方法通过多模态数据融合方式进行语义分割。然而,基于融合的方法需要成对数据,即具有严格点到像素映射的激光雷达点云和2D图像,作为训练和推理阶段的输入,这严重阻碍了它们在实际场景中的应用。因此,论文提出了基于2D先验辅助语义分割(2DPASS)方法,这是一种通用的训练方案,用于促进点云上的表示学习。2DPASS充分利用了训练过程中有着丰富语义信息的2D图像,然后在没有严格paired数据约束的情况下进行语义分割。实践中,通过利用辅助模态融合和多尺度融合进行单知识提取(MSFSKD),2DPASS从多模态数据中获取更丰富的语义和结构信息,然后将这些信息提取到纯3D网络。基线模型显示,在配备2DPASS后,仅使用点云输入即可显著改善,在两个大规模公认基准(即SemanticKITTI和NuScenes)上达到了SOTA。


2应用需求



语义分割在大规模室外场景理解中起着至关重要的作用,在自动驾驶和机器人技术中有着广泛的应用[1-3]。在过去几年中,研究界投入了大量精力,使用相机图像[4-7]或激光雷达点云[2,8-12]作为输入来理解自然场景。然而,由于输入传感器的固有局限性,这些单模态方法在复杂环境中会遇到较多挑战。图像数据提供密集的颜色信息和细粒度纹理,但它们在深度传感方面不明确,在弱光条件下不可靠。相比之下,无论光照变化如何,激光雷达都能提供准确和广泛的深度信息,但只能捕获稀疏和无纹理的数据。由于摄像机和激光雷达能够相辅相成,因此最好使用两个传感器感知周围环境。


640.png


目前基于融合的方法仍存在以下不可避免的局限性:


1)由于摄像机和激光雷达之间的FOV(视野)不同,无法为图像平面外的点建立点到像素的映射,通常,激光雷达和摄像机的视场仅在一小部分重叠(如上图所示),这大大限制了基于融合的方法的应用;


2) 基于融合的方法在运行时同时处理图像和点云(通过多任务或级联方式),因此消耗了更多的计算资源,这给实时应用带来了很大负担;


为了解决上述两个问题,论文重点通过有效的设计,利用图像和点云来改进语义分割。考虑到传感器在场景中移动,与相同时间戳中的图像相对应的360度激光雷达点云的非重叠部分(参见图1中右侧部分的灰色区域)可以被来自其他时间戳的图像覆盖。此外,图像的密集和结构信息为可见和不可见的点云区域提供了有用的正则化。基于这些观察结果,我们提出了一种“与模型无关”的训练方案,即2D先验辅助语义分割(2DPASS),以增强任何3D语义分割网络的表示学习;


一方面,对于上述非重叠区域,2DPASS将纯点云作为输入来训练分割模型;另一方面,对于具有良好对齐点到像素映射的子区域,2DPASS采用辅助多模式融合来聚合每个尺度中的图像和点特征,然后将三维预测与融合预测对齐。与以前的跨模态对齐[17]容易污染模态特定信息不同,论文设计了一种多尺度融合到单知识提取(MSFSKD)策略,将额外知识转移到三维模型,并保留其模态特定能力。与基于融合的方法相比,论文的解决方案具有以下更好的特性:


1)通用性:它可以轻松地与任何三维分割模型集成,只需少量的结构修改;

2) 灵活性:融合模块仅在训练期间用于增强3D网络,训练后,增强的三维模型可以在没有图像输入的情况下部署;

3) 有效性:即使只有一小部分重叠的多模态数据,论文的方法也可以显著提高性能;


3网络结构设计



单模态方法


基于图像


基于图像的语义分割旨在预测输入2D图像的像素级标签。FCN[19]是语义分割领域的先驱,它提出了一种基于图像分类网络的端到端全卷积结构。最近的工作通过探索多尺度特征学习[4,20,21]、扩展卷积[5,22]和注意力机制[7,23]取得了显著的改进。然而,仅使图像的方法在深度传感方面不明确,在弱光条件下不稳定。


基于Lidar


激光雷达数据通常表示为点云。处理具有不同表示的点云有几种主流。


1) 基于点的方法使用逐点多层感知器(MLP)近似置换不变集函数。PointNet[24]是这一领域的先驱。后来,许多研究设计了基于点的MLP[25,26]、自适应权重[27,28]和伪网格[29,30]的方法来提取点云的局部特征,或利用非局部算子[31-33]来学习长距离依赖性。然而,基于点的方法在激光雷达场景中并不有效,因为它们的采样和分组算法通常很耗时。


2) 基于投影的方法是非常有效的激光雷达点云方法。一般将点云投影到2D像素上,使传统的CNN可以发挥正常作用。之前的工作通过平面投影[34-36]、球面投影[37、38]或两者[39]将旋转激光雷达扫描的所有点投影到2D图像上。然而,投影不可避免地会导致信息丢失。目前,基于投影的分割方法遇到了分割精度的瓶颈。


3) 最新的工作采用了基于体素的框架,因为它们平衡了效率和有效性,其中最常用的是稀疏卷积(SparseConv)[3]。与传统的基于体素的方法(即3DCNN)直接将所有点转换为三维体素网格相比,SparseConv仅将非空体素存储在哈希表中,并以更高效的方式仅对这些非空体素执行卷积运算。最近,许多研究使用SparseConv来设计更强大的网络架构。Cylinder3D[40]将原始网格体素更改为圆柱体体素,并设计非对称网络以提高性能。AF2-S3Net[41]应用具有不同内核大小的多个分支,通过注意力机制聚合多尺度特征。


4) 最近,出现了一种利用多表示融合方法的趋势。这些方法结合了上述多种表示(即点、投影图像和体素)和不同分支之间的设计特征融合。Tang等人[10]在每个稀疏卷积块中结合逐点MLP来学习点体素表示,并使用NAS搜索更高效的架构。RPVNet[42]提出了距离点体素融合网络,以利用来自三种表示的信息。然而,这些方法仅将稀疏和无纹理的激光雷达点云作为输入,因此未充分利用相机图像中的外观和纹理。


基于多模态方法


多传感器方法试图融合来自两个互补传感器的信息,并利用摄像机和激光雷达的优势[14、15、43、44]。RGBAL[14]将RGB图像转换为极坐标网格映射表示,并设计早期和中期融合策略。PointPainting[15]利用图像的分割逻辑,并通过鸟瞰图投影[23]或球面投影[45]将其投影到激光雷达空间,以提高激光雷达网络性能。最近,PMF[13]利用摄像机坐标系中两种模式的协作融合。然而,这些方法在训练和推理阶段都需要多传感器输入。此外,成对的多模态数据通常计算密集,在实际应用中不可用。


2DPASS


640.png


如上图所示,2DPASS首先从原始图像中裁剪出一小块patch作为2D输入。然后,裁剪后的图像面片和激光雷达点云分别通过2D和3D编码器,并行生成多尺度特征。然后,对于每个尺度,互补的二维知识通过多尺度融合到单知识蒸馏(MSFSKD)从而有效地转移到三维网络中(即充分利用纹理和颜色感知的二维先验知识,并保留原始的三维特定知识),最后3D任务通过解码器生成最终标签;


如上图所示,通过投影,2D和3D分支的预测由纯3D标签监督。在推理过程中,可以丢弃与2D相关的分支,与基于融合的方法相比,这在实际应用中有效地避免了额外的计算负担;

640.png


2Dencoder和3Dencoder结构如上图所示,(a)部分演示了2D特征生成,其中点云将首先投影到图像面片上,并生成点到像素(P2P)映射。然后,根据P2P映射将二维特征映射转换为逐点二维特征。(b)部分显示了三维特征生成。点到体素(P2V)映射很容易获得,体素特征将插值到点云上。点云在图像上的映射如下,其中K代表camera的内参,T代表外参:

640.png


MSFSKD


如下图所示,MSFSKD的内部结构包括模态融合和模态保持。其中2D特征和3D特征(通过2D Learner)进行融合,并通过两个MLP以及非线性映射对特征做点加,然后将输出特征和原2D特征进行融合,结合classifier,输出融合特征,3D部分则通过特征增强,结合classifier,输出3D预测结果,并在结果层面上做蒸馏;


640.png

2D和3D结果融合的表达方式如下:

640.png


蒸馏表达如下:

640.png


4实验结果



KITTI数据集上,语义分割结果,相同速度下,2DPASS大幅度超越PolarNet,相近性能下,2DPASS速度相比RPVNet和S3Net提升明显;


640.png640.png


Nuscenes数据集上,性能优势明显:


640.png

5参考文献



[1] 2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds.ECCV2022.                                                  



相关文章
|
6月前
|
机器学习/深度学习 编解码 定位技术
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
|
机器学习/深度学习 传感器 人工智能
首篇!最全的全景分割综述(RGB图像/医学图像/LiDAR)(下)
本文对现有的全景分割方法进行了第一次全面的综述。因此,基于所采用的算法、应用场景和主要目标的性质,对现有全景技术进行了定义良好的分类。此外,还讨论了全景分割在通过伪标记标注新数据集中的应用。接下来,进行消融研究,以从不同角度了解全景方法。此外,还讨论了适用于全景分割的评估指标,并对现有解决方案的性能进行了比较,以了解最新技术并确定其局限性和优势。最后,阐述了当前主题技术面临的挑战以及近期吸引大量关注的未来趋势,这可以作为未来研究的起点。
首篇!最全的全景分割综述(RGB图像/医学图像/LiDAR)(下)
|
6月前
|
机器学习/深度学习 数据处理 计算机视觉
【论文速递】ICCV2021 - 基于超相关压缩实现实时高精度的小样本语义分割
【论文速递】ICCV2021 - 基于超相关压缩实现实时高精度的小样本语义分割
113 0
|
6月前
|
人工智能 机器人 测试技术
论文介绍:零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步
【5月更文挑战第4天】SAM-6D框架是零样本6D物体姿态估计的突破,能检测并准确估计新物体姿态,推动具身智能发展。该框架结合实例分割和姿态估计模型,实现RGB-D图像中的物体分割与姿态估计。在BOP基准测试中,SAM-6D超越现有方法,展示出色泛化能力,但还需应对光照变化、遮挡等问题,以提升现实环境中的性能。[论文链接](https://arxiv.org/pdf/2311.15707.pdf)
145 13
|
机器学习/深度学习 传感器 编解码
史上最全 | BEV感知算法综述(基于图像/Lidar/多模态数据的3D检测与分割任务)
以视觉为中心的俯视图(BEV)感知最近受到了广泛的关注,因其可以自然地呈现自然场景且对融合更友好。随着深度学习的快速发展,许多新颖的方法尝试解决以视觉为中心的BEV感知,但是目前还缺乏对该领域的综述类文章。本文对以视觉为中心的BEV感知及其扩展的方法进行了全面的综述调研,并提供了深入的分析和结果比较,进一步思考未来可能的研究方向。如下图所示,目前的工作可以根据视角变换分为两大类,即基于几何变换和基于网络变换。前者利用相机的物理原理,以可解释性的方式转换视图。后者则使用神经网络将透视图(PV)投影到BEV上。
史上最全 | BEV感知算法综述(基于图像/Lidar/多模态数据的3D检测与分割任务)
|
6月前
|
计算机视觉
论文介绍:Panoptic-DeepLab——一种简单、强大且快速的自下而上全景分割基线
【5月更文挑战第22天】Panoptic-DeepLab是UIUC和Google Research合作开发的一种高效全景分割基线,采用双ASPP和双解码器设计,优化语义和实例分割。在Cityscapes、Mapillary Vistas和COCO数据集上表现优秀,同时保持接近实时的速度。其简洁设计仅需三个损失函数,具有高通用性和可扩展性。然而,仍面临尺度变化、实例分割等挑战,需要进一步优化。[链接](https://arxiv.org/abs/1911.10194)
111 0
|
6月前
|
传感器 机器学习/深度学习 自动驾驶
【多模态融合】CRN 多视角相机与Radar融合 实现3D检测、目标跟踪、BEV分割 ICCV2023
本文介绍使用雷达与多视角相机融合,实现3D目标检测、3D目标跟踪、道路环境BEV分割,它是来自ICCV2023的。CRN,全称是Camera Radar Net,是一个多视角相机-雷达融合框架。 通过融合多视角相机和雷达的特性,生成语义丰富且空间精确的BEV特征图。实现3D物体检测、跟踪和BEV分割任务。
513 1
|
6月前
|
存储 算法 自动驾驶
【论文速递】CVPR2022 - 用于语义分割的跨图像关系知识蒸馏
【论文速递】CVPR2022 - 用于语义分割的跨图像关系知识蒸馏
|
6月前
|
机器学习/深度学习 计算机视觉
【论文速递】CVPR2022 - 学习 什么不能分割:小样本分割的新视角
【论文速递】CVPR2022 - 学习 什么不能分割:小样本分割的新视角
|
6月前
|
机器学习/深度学习 编解码 数据可视化
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割