TPVFormer项目原作解读:面向自动驾驶场景的纯视觉三维语义占有预测

简介: TPVFormer项目原作解读:面向自动驾驶场景的纯视觉三维语义占有预测


机器之心最新一期线上分享邀请到了清华大学智能视觉实验室组博士生郑文钊,为大家分享他们近期工作 TPVFormer。

当前以视觉为中心的自动驾驶感知主要集中于三维目标检测,然而预测出的三维框描述物体过于粗糙,忽略了物体的几何形状;且仅完成了对前景物体的预测,而忽略了背景环境信息。受此启发,我们主要研究了基于视觉的三维语义占有预测这一新型任务,其输入为环视图片,目标通过对每个体素进行语义标签的预测,生成密集预测的环境表示,使环境感知更加可靠、稳定。本次分享主要介绍纯视觉三维语义占有预测的最新进展,基于 CVPR 2023 的最新论文 Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction。

目前的纯视觉自动驾驶感知方法广泛采用鸟瞰图 (BEV) 表示来描述 3D 场景。尽管它比体素(Voxel)表示效率更高,但单独的 BEV 平面难以描述场景的细粒度 3D 结构,难以很好地完成三维语义占有预测这个任务。针对这个问题,论文提出了一种新型的三维空间表示方法 Tri-Perspective View (TPV),其在 BEV 平面的基础上新增了两个平面,从而可以描述整个三维场景的细粒度结构。为了将图像特征提升到 TPV 空间,我们进一步提出了 TPVFormer 来有效地获得 TPV 特征。

以环视图像作为输入,TPVFormer 仅使用稀疏 LiDAR 语义标签进行训练,但可以有效地预测空间中所有体素的语义占有。此外,TPVFormer 也是首个仅使用图像输入在 nuScenes LiDAR Segmentation 上取得良好性能的方法。代码已经开源 GitHub 仓库,后续将支持更多的三维语义占有预测模型、方法和数据。


分享主题:TPVFormer:面向自动驾驶场景的纯视觉三维语义占有预测

分享嘉宾:郑文钊,清华大学 IVG 组博士生,师从周杰教授和鲁继文副教授,研究方向是计算机视觉和机器学习,主要兴趣包括自动驾驶感知、相似性度量学习和可解释性人工智能,在 TPAMI、CVPR、ICLR 等顶刊及顶会上发表相关论文 17 篇。

分享摘要首先介绍纯视觉三维语义占有预测这个任务的背景及意义,接下来介绍所提出的 Tri-Perspective View(TPV)三维场景表示方法,最后是基于该场景表示方法的 TPVFormer 网络结构以及其在三维语义占有、点云分割、场景语义补全任务上的应用。

相关链接:

1)SOTA!模型平台项目主页链接:

https://sota.jiqizhixin.com/project/tpvformer

2)论文链接:

https://arxiv.org/abs/2302.07817v1

3)代码仓库:

https://github.com/wzzheng/TPVFormer

https://github.com/wzzheng/OpenOcc

4)项目主页:

https://wzzheng.net/TPVFormer/

相关文章
|
3天前
|
机器学习/深度学习 人工智能 算法
基于机器视觉的害虫种类及计数检测研究-人工智能项目-附代码
基于机器视觉的害虫种类及计数检测研究-人工智能项目-附代码
51 0
|
3天前
|
机器学习/深度学习 算法 数据挖掘
计算机视觉五大核心研究任务全解:分类识别、检测分割、人体分析、三维视觉、视频分析
计算机视觉五大核心研究任务全解:分类识别、检测分割、人体分析、三维视觉、视频分析
256 1
|
3天前
|
传感器 机器学习/深度学习 编解码
一文全览 | 2023最新环视自动驾驶3D检测综述!
一文全览 | 2023最新环视自动驾驶3D检测综述!
59 1
|
10月前
|
存储 自动驾驶 安全
基于轨迹优化的自动驾驶汽车跟随自行车模型动力学控制(Matlab代码实现)
基于轨迹优化的自动驾驶汽车跟随自行车模型动力学控制(Matlab代码实现)
|
12月前
|
传感器 Web App开发 运维
5620亿参数,最大多模态模型控制机器人,谷歌把具身智能玩出新高度
5620亿参数,最大多模态模型控制机器人,谷歌把具身智能玩出新高度
132 1
|
机器学习/深度学习 人工智能 并行计算
清华&天津大学新作 | SurroundOcc: 面向自动驾驶场景的纯视觉 3D 语义占据预测 (已开源)
清华&天津大学新作 | SurroundOcc: 面向自动驾驶场景的纯视觉 3D 语义占据预测 (已开源)
280 0
|
机器学习/深度学习 人工智能 算法
让多任务奔跑起来!Waymo开放数据集3D语义分割任务冠军方案分享(图森)
今天分享图森打榜Waymo开放数据集3D语义分割任务的技术报告,整篇文章读下来比较通透。比较经典的打榜思路,尤其是后面的多任务学习、两阶段优化,有打榜或训练大模型需求的小伙伴可以仔细读读~
让多任务奔跑起来!Waymo开放数据集3D语义分割任务冠军方案分享(图森)
|
传感器 数据采集 机器学习/深度学习
毫米波雷达在多模态视觉任务上的近期工作及简析(下)
在近些年,2D检测任务在自动驾驶的热度递减,取而代之的是3D任务,毕竟现在的实际场景一直多是基于3D场景。但是在3D检测或者分割等任务中,雷达赋予了一个不一样的角色,在之前FOV视角中,毫米波点云大多为了与FOV特征融合,都是通过投影这一种方法,而放到3D场景中,分为两个流派:一个是点云流派:由于lidar和radar具有天然的相似性(当然是处理后的点云),自然就有lidar的相关角色赋予毫米波雷达,相应的,毫米波的角色从FOV到了BEV,它的下游任务,也从辅助为主到BEV下的分割、深度估计、生成密集点云等。
毫米波雷达在多模态视觉任务上的近期工作及简析(下)
|
机器学习/深度学习 传感器 编解码
毫米波雷达在多模态视觉任务上的近期工作及简析(上)
在近些年,2D检测任务在自动驾驶的热度递减,取而代之的是3D任务,毕竟现在的实际场景一直多是基于3D场景。但是在3D检测或者分割等任务中,雷达赋予了一个不一样的角色,在之前FOV视角中,毫米波点云大多为了与FOV特征融合,都是通过投影这一种方法,而放到3D场景中,分为两个流派:一个是点云流派:由于lidar和radar具有天然的相似性(当然是处理后的点云),自然就有lidar的相关角色赋予毫米波雷达,相应的,毫米波的角色从FOV到了BEV,它的下游任务,也从辅助为主到BEV下的分割、深度估计、生成密集点云等。
毫米波雷达在多模态视觉任务上的近期工作及简析(上)
|
机器学习/深度学习 存储 Web App开发
为了自动驾驶,谷歌用NeRF在虚拟世界中重建了旧金山市
训练自动驾驶系统需要高精地图,海量的数据和虚拟环境,每家致力于此方向的科技公司都有自己的方法,Waymo 有自己的自动驾驶出租车队,英伟达创建了用于大规模训练的虚拟环境 NVIDIA DRIVE Sim 平台。近日,来自 Google AI 和谷歌自家自动驾驶公司 Waymo 的研究人员实践了一个新思路,他们尝试用 280 万张街景照片重建出整片旧金山市区的 3D 环境。
382 0
为了自动驾驶,谷歌用NeRF在虚拟世界中重建了旧金山市