3D目标检测数据集 DAIR-V2X-V

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 本文分享国内场景3D目标检测,公开数据集 DAIR-V2X-V(也称为DAIR-V2X车端)。DAIR-V2X车端3D检测数据集是一个大规模车端多模态数据集,包括:22325帧 图像数据22325帧 点云数据2D&3D标注基于该数据集,可以进行车端3D目标检测任务研究,例如单目3D检测、点云3D检测和多模态3D检测。

 一、数据采集

设备型号

Velodyne128 LiDAR

  • - 采样帧率:10HZ
  • - 水平FOV:360,垂直FOV:40°,-25°~15°
  • - 最大探测范围:245m;探测距离精度:<=3cm;最小角分辨率(垂直):0.11°

Camera

  • - 图像分辨率:1920x1080


标定和坐标系

  • 完备的车端3D感知需要获取相机和LiDAR传感器数据的相互位置和内外参数等,以建立不同传感器数据间的空间同步。
  • - LiDAR坐标系
  • LiDAR坐标系是以LiDAR传感器的几何中心为原点,x 轴水平向前,y 轴水平向左,z 轴竖直向上,符合右手坐标系规则。
  • - 相机坐标系
  • 相机坐标系是以相机光心为原点,x 轴和y 轴与图像平面坐标系的x 轴和y 轴平行,z 轴与相机光轴平行向前、与图像平面垂直。通过LiDAR到相机的外参矩阵,可以将点从LiDAR坐标系转到相机坐标系。
  • - 图像坐标系
  • 图像坐标是以相机主点(即相机光轴与图像平面的交点,一般位于图像平面中心)为原点,x 轴 水平向右,y 轴水平向下的二维坐标系。相机内参可以实现从相机坐标到图像坐标的投影。


二、数据标注

从车端数据中选择22325帧有效图像+点云多模态数据,利用2D&3D联合标注等技术标注图像和点云多模态数据中的道路障碍物目标的2D和3D框,同时标注了障碍物类别、障碍物3D信息、遮挡和截断等信息。其中DAIR-V2X的3D标注是以LiDAR为坐标系,同时保存如下标注信息:

  • - 障碍物类别:一共10类,包括行人、机动车等

类型

小汽车

卡车/大货车

面包车/厢式货车

公交车/大型旅客车

行人

英文

Car

Truck

Van

Bus

Pedestrian

类型

自行车

三轮车

摩托车

手推车

交通锥筒

英文

Cyclist

Tricyclist

Motorcyclist

Barrowlist

Trafficcone

  • - 障碍物截断:从[0, 1, 2]中取值,分别表示不截断、横向截断、纵向截断
  • - 障碍物遮挡:从[0, 1, 2]中取值,分别表示不遮挡、0%~50%遮挡,50%~100%遮挡
  • - 2D box:图像中2D bounding box框
  • - 3D box:点云上3D bounding box,车端基于LiDAR坐标系,路端基于虚拟LiDAR坐标系;包括 (height, width, length, x_loc, y_loc, z_loc, rotation),其中rotation表示障碍物绕Z轴旋转角度


三、下载数据集

来到官网下载:https://thudair.baai.ac.cn/mycount

image.gif

下载后的目录如下所示

image.gif

single-vehicle-side 存放calib、label、data_info.json。

single-vehicle-side-image 存放车端图像数据。

single-vehicle-side-velodyne 存放车端点云数据。

数据文件结构,如下表所示

数据

数据简介

single-vehicle-side

velodyne/xxxxxx.pcd

车端点云数据

image/xxxxxx.jpg

车端图像数据

calib/lidar_to_camera/xxxxxx.json

车端LiDAR到Camera的外参文件

calib/camera_intrinsic/xxxxxx.json

车端Camera的内参文件

label/camera/xxxxxx.json

标注文件,其中3D标注以相机时间戳为基准贴合图像中的障碍物目标、以LiDAR为坐标系

label/lidar/xxxxxx.json

标注文件,其中3D标注以LiDAR时间戳为基准贴合点云中的障碍物目标、以LiDAR为坐标系

data_info.json

数据索引相关信息


四、标定参数解析

在single-vehicle-side/calib/camera_intrinsic目录中,示例文件 000000.json

{"cam_D": [-0.382041, 0.335649, 0.000523, 0.000634, 0.0], "cam_K": [3996.487567, 0.0, 955.58618, 0.0, 3963.430994, 527.646219, 0.0, 0.0, 1.0]}

cam_D是畸变参数;cam_K是3*3的内参矩阵。

在single-vehicle-side/calib/lidar_to_camera目录中,示例文件000000.json

{"rotation": [[0.006283, -0.999979, -0.001899], [-0.005334, 0.001865, -0.999984], [0.999966, 0.006293, -0.005322]], "translation": [[-0.298036], [-0.666812], [-0.516927]]}

rotation是3*3的旋转矩阵;translation是3*1平移向量。


五、标签解析

图像标签:在single-vehicle-side/label/camera目录中,示例文件000000.json

[{"type": "Car", "occluded_state": 0, "truncated_state": 0, "alpha": 0.338885815438449, "2d_box": {"xmin": 0, "ymin": 527.938232, "xmax": 69.723068, "ymax": 637.4556269999999}, "3d_dimensions": {"h": 0.850836, "w": 2.073565, "l": 4.337498}, "3d_location": {"x": 32.83248, "y": 9.513366, "z": -1.261215}, "rotation": -1.615145}]

它的格式Kitti数据集基本是一致的;当然有细微差别。

{
  "type": type,                         // 障碍物类型
  "truncated_state": truncated_state,   // 障碍物截断情况:从[0, 1, 2]中取值,分别表示不截断、横向截断、纵向截断 
  "occluded_state": occluded_state,     // 障碍物遮挡情况:从[0, 1, 2]中取值,分别表示不遮挡、0%~50%遮挡,50%~100%遮挡
  "alpha": alpha,                       // 观察者视角,从[-pi, pi]中取值
  "2d_box": {                           // 图像中2D bounding box框
    "xmin": xmin, 
    "ymin": ymin, 
    "xmax": xmax, 
    "ymax": ymax
  }, 
  "3d_dimensions": {                    // 3D bounding box长宽高
    "h": height, 
    "w": width, 
    "l": length
  }, 
  "3d_location": {                      // 3D bounding box中心点坐标
    "x": x, 
    "y": y, 
    "z": z
  }, 
  "rotation": rotation              // 3D bounding box绕中心点z轴正方向为旋转轴,从y轴正方向开始旋转的角度
}

image.gif

标签共有10类,如下所示。

类型 标签名称
小汽车 Car
卡车/大货车 Trunk
面包车/厢式货车 Van
公交车/大型旅客车 Bus
行人 Pedestrian
自行车 Cyclist
三轮车 Tricyclist
摩托车 Motorcyclist
手推车 Barrowlist
交通锥筒 TrafficCone

1

点云标签:在single-vehicle-side/label/lidar目录中,示例文件000000.json

[{"type": "Car", "occluded_state": 0, "truncated_state": 0, "alpha": 0.3092128173071816, "2d_box": {"xmin": 0, "ymin": 527.938232, "xmax": 69.723068, "ymax": 637.4556269999999}, "3d_dimensions": {"h": 2.036748, "w": 2.073565, "l": 4.252306}, "3d_location": {"x": 32.84116, "y": 9.75075, "z": -1.040589}, "rotation": -1.578873}]

camera格式和lidar格式是一致的。


六、数据索引信息

在single-vehicle-side/data_info.json文件,是记录数据索引相关信息。

[{"image_path": "image/000000.jpg", "image_timestamp": "1604988999001000", "pointcloud_path": "velodyne/000000.pcd", "point_cloud_stamp": "1604988999006000", "calib_camera_intrinsic_path": "calib/camera_intrinsic/000000.json", "calib_lidar_to_camera_path": "calib/lidar_to_camera/000000.json", "label_camera_std_path": "label/camera/000000.json", "label_lidar_std_path": "label/lidar/000000.json"},

{"image_path": "image/000001.jpg", "image_timestamp": "1604989000204000", "pointcloud_path": "velodyne/000001.pcd", "point_cloud_stamp": "1604989000206000", "calib_camera_intrinsic_path": "calib/camera_intrinsic/000001.json", "calib_lidar_to_camera_path": "calib/lidar_to_camera/000001.json", "label_camera_std_path": "label/camera/000001.json", "label_lidar_std_path": "label/lidar/000001.json"},

{"image_path": "image/000002.jpg", "image_timestamp": "1604989078801000", "pointcloud_path": "velodyne/000002.pcd", "point_cloud_stamp": "1604989078805000", "calib_camera_intrinsic_path": "calib/camera_intrinsic/000002.json", "calib_lidar_to_camera_path": "calib/lidar_to_camera/000002.json", "label_camera_std_path": "label/camera/000002.json", "label_lidar_std_path": "label/lidar/000002.json"},

对于的格式如下:

类型 字段 含义
camera image_path 图像路径
camera image_timestamp 图像时间戳
lidar pointcloud_path 点云路径
lidar pointcloud_timestamp 点云时间戳
label label_lidar_path 以点云时间戳为基准标注结果路径
label label_camera_path 以图像时间戳为基准标注结果路径
calib calib_lidar_to_camera_path LiDAR坐标系到相机坐标系参数路径
calib calib_lidar_to_novatel_path LiDAR坐标系到NovAtel坐标系参数路径
calib calib_novatel_to_world_path NovAtel坐标系到世界坐标系参数路径
calib calib_camera_intrinsic_path 相机参数路径
cooperative batch_id 数据片段编号:车端与路端共享相同的batch_id
cooperative intersection_loc 数据采集所在路口名称
cooperative batch_start_id 数据片段起始编号
cooperative batch_end_id 数据片段结束编号


七、示例数据效果

示例图像数据:

image.gif

image.gif


image.gif


分享完毕~

相关文章
【yolo训练数据集】标注好的垃圾分类数据集共享
【yolo训练数据集】标注好的垃圾分类数据集共享
1995 114
【yolo训练数据集】标注好的垃圾分类数据集共享
|
6月前
|
机器学习/深度学习 开发工具 计算机视觉
YOLOv8 目标检测 | 自定义数据集
YOLOv8 目标检测 | 自定义数据集
|
1月前
|
数据可视化 计算机视觉
训练数据集(一):真实场景下采集的煤矸石目标检测数据集,可直接用于YOLOv5/v6/v7/v8训练
本文介绍了一个用于煤炭与矸石分类的煤矸石目标检测数据集,包含891张训练图片和404张验证图片,分为煤炭、矸石和混合物三类。数据集已标注并划分为训练和验证集,适用于YOLOv5/v6/v7/v8训练。数据集可通过提供的链接下载。
47 1
训练数据集(一):真实场景下采集的煤矸石目标检测数据集,可直接用于YOLOv5/v6/v7/v8训练
|
2月前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。
|
XML 数据挖掘 数据格式
|
6月前
|
机器学习/深度学习 数据可视化 数据挖掘
R语言深度学习卷积神经网络 (CNN)对 CIFAR 图像进行分类:训练与结果评估可视化
R语言深度学习卷积神经网络 (CNN)对 CIFAR 图像进行分类:训练与结果评估可视化
|
6月前
|
机器学习/深度学习 编解码 算法
目标检测舰船数据集整合
目标检测舰船数据集整合
679 0
|
机器学习/深度学习 自然语言处理
【深度学习】实验17 使用GAN生成手写数字样本
【深度学习】实验17 使用GAN生成手写数字样本
129 0
|
机器学习/深度学习
使用卷积神经网络CNN训练minist数据集(二)
使用卷积神经网络CNN训练minist数据集(二)