2D/3D车道线数据汇总

简介: 道路上的对象可以分为两大类:静态对象和动态对象。车道标线是公路上的主要静态组成部分, 为了鼓励行业解决高速公路上的车道检测问题,图森发布了大约7000个1秒长的视频剪辑,每个视频剪辑20帧。

原文首发微信公众号【自动驾驶之心】:一个专注自动驾驶与AI的社区(https://mp.weixin.qq.com/s/NK-0tfm_5KxmOfFHpK5mBA



1TuSimple



链接:https://github.com/TuSimple/tusimple-benchmark

道路上的对象可以分为两大类:静态对象和动态对象。车道标线是公路上的主要静态组成部分, 为了鼓励行业解决高速公路上的车道检测问题,图森发布了大约7000个1秒长的视频剪辑,每个视频剪辑20帧。


1)场景分布

良好和中等天气条件;

不同的白天;

2车道/3车道/4车道/或更多;

不同的交通条件;


2)数据集大小:

训练集:3626个video clips,3626个带注释的frame

测试集:2782个视频片段


3)图像抽取

1s抽取20帧;


2CULane



链接:https://xingangpan.github.io/projects/CULane.html


640.png


对于车道检测的学术研究而言,CULane是一个具有挑战性的大规模数据集。它是由安装在北京不同司机驾驶的六辆不同车辆上的摄像机采集的。收集了55个多小时的视频,提取了133235帧。数据示例如上所示。我们将数据集分为88880个训练样本、9675个验证集和34680个测试集。测试集分为正常和8个挑战类别,对应于上述9个示例。


对于每一帧,使用三次样条手动注释车道。对于车道标线被车辆遮挡或不可见的情况,我们仍然根据上下文注释车道,我们还希望算法能够区分道路上的障碍物。在这个数据集中,我们将注意力集中在四条车道标线的检测上,这是实际应用中最受关注的。其他车道标记未注释。


3BDD100k



链接:http://bdd-data.berkeley.edu/

车道标记对驾驶员来说是重要的道路指示。当GPS或地图没有精确的全球覆盖范围时,它们也是自动驾驶系统驾驶方向和定位的关键线索。根据车道标记对车道内车辆的指示,数据集将其分为两种类型。垂直车道标记(下图中用红色标记)表示沿其车道行驶方向的标记。平行车道标记(下图中用蓝色标记)表示车道内车辆停止的标志。我们还为标记提供了属性,如实线与虚线、双线与单线。


640.png

4Caltech



链接:http://www.mohamedaly.info/datasets/caltech-lanes

加州理工学院车道数据集包括在一天中不同时间在加州帕萨迪纳街道周围拍摄的四个片段。包括1225个单独的帧,这些帧是从安装在Alice上的摄像机上以及标记的通道上拍摄的。该数据集分为四个单独的剪辑:cordova1有250帧,cordova2有406帧,washington1有337帧,washington2有232帧。


5VPGNet



链接:https://github.com/SeokjuLee/VPGNet#vpgnet-dataset

VPGNet建立了一个车道和道路标记基准,该基准由大约20000张图像组成,其中17个车道和道路标记类,分别在四种不同场景下:无雨、下雨、大雨和夜间。


63D Lane Synthetic Dataset



链接:https://github.com/yuliangguo/3D_Lane_Synthetic_Dataset

这是一个合成数据集,用于3D车道检测方法的开发和评估,该数据集是Apollo合成数据集的扩展,详细可以参考论文:Gen-LaneNet: a generalized and scalable approach for 3D lane detection


7Jiqing Expressway



链接:https://github.com/vonsj0210/Multi-Lane-Detection-Dataset-with-Ground-Truth

该数据集是一个多车道检测数据集,可用于测试和评估多车道检测算法。数据集中有40个视频片段,每个视频片段持续3分钟,帧速率为30 fps,视频分辨率为1920×1080。共包括210610张不同照明强度和不同路况(上游、下坡、隧道、涵洞、坡道等)的道路图像。


8A Dataset for Lane Instance Segmentation in Urban Environments



链接:https://arxiv.org/abs/1807.01347

完整的注释集包括402个序列,共23979个图像,每个序列平均60个图像。总共有47497个车道实例被注释,即每个序列118.2个。


9DET



链接:https://spritea.github.io/DET/


640.jpg


车道提取是自动驾驶的一项基本而必要的任务。尽管过去几年中,深度学习模型在车道提取方面取得了重大进展,但它们都是针对基于帧的摄像机生成的普通RGB图像,这在本质上限制了它们的性能。为了解决这个问题,我们引入了动态视觉传感器(DVS),一种基于事件的传感器到车道提取任务,并建立了一个用于车道提取的高分辨率DVS数据集。我们收集原始事件数据并生成5424个基于事件的传感器图像,分辨率为1280x800,是目前所有DVS数据集中分辨率最高的。这些图像包括复杂的交通场景和各种车道类型。DET的所有图像均采用多类分割格式进行注释。完全注释的DET图像包含17103个车道实例,每个实例都手动逐像素标记。


10CurveLanes



链接https://github.com/SoulmateB/CurveLanes

CurveLanes是一个新的基准车道检测数据集,具有150K车道图像,用于复杂场景,如车道检测中的曲线和多车道。它是在中国多个城市的真实城市和公路场景中收集的。它是迄今为止最大的车道检测数据集,为社区建立了更具挑战性的基准。

我们将整个数据集150K分为三个部分:训练:100K,val:20K和测试:30K。该数据集中大多数图像的分辨率为2650×1440。

对于每个图像,我们使用自然三次样条手动注释图像中的所有车道。仔细选择所有图像,使其中大多数图像至少包含一条曲线车道。在此数据集中可以找到更困难的场景,如S形曲线、Y形车道、夜间和多车道(车道线的数量超过4条)。


11Comma2k19 LD



链接:https://www.kaggle.com/datasets/tkm2261/comma2k19-ld

Comma2k19 LD数据集中,手动注释了2000帧的左右车道线(100种场景)。所选场景是从原始Comma2k19数据集中时速超过30英里(约48公里/小时)的场景中随机选择;


640.png


12OpenLane: 3D lane datasets



链接:https://github.com/OpenPerceptionX/OpenLane

OpenLane是迄今为止第一个真实世界和最大比例的3D lane数据集。我们的数据集从公共感知数据集Waymo Open数据集中收集有价值的内容,并为1000个段提供车道和最近路径对象(CIPO)注释。简言之,OpenLane拥有20万帧和超过88万条精心标注的车道。我们公开发布了OpenLane数据集,以帮助研究界在3D感知和自动驾驶技术方面取得进展。


13SDLane Dataset(CVPR 2022)



链接:https://www.42dot.ai/akit/dataset/

SDLane数据集是一种用于自动驾驶的新型车道标记数据集。我们提供1920 x 1208像素的高分辨率图像,捕捉高速公路和城市地区的挑战场景。该数据集由39K训练图像和4K测试图像组成,具有精确的地面真值标签。对于每个场景,我们手动注释道路上所有可见车道标记的2D车道几何体。此外,为了更好地推断ego车辆的位置,我们注释了每个车道相对于最左侧车道标记的索引。


14ONCE-3DLanes(CVPR 2022)



链接:https://once-3dlanes.github.io/3dlanes/

ONCE-3DLanes数据集是一个在三维空间中具有车道布局注释的真实自主驾驶数据集,是为刺激单目三维车道检测方法的发展而构建的新基准。

该数据集是从ONCE构建的,可以参考论文ONCE-3DLanes:Building Monocular 3D Lane Detection以了解数据集的构建细节。它收集在中国不同的地理位置,包括公路、桥梁、隧道、郊区和市中心,具有不同的天气条件(晴天/雨天)和照明条件(白天/夜晚)。


整个数据集包含211K个图像,在摄像机坐标中有相应的3D车道注释。

相关文章
|
6月前
|
机器学习/深度学习 传感器 算法
双轨线识别
双轨线识别
46 1
|
存储 达摩院 Cloud Native
基于Ganos轨迹引擎的运输车辆到达性分析
本文介绍了由阿里巴巴达摩院数据库与存储实验室研发的多模态时空数据库Ganos轨迹引擎在运输车辆位置分析中的应用场景。Ganos通过在数据库中原生内置移动对象的存储、检索与分析能力,打造了全球首个移动对象数据库,为交通、物流、出行、生活服务类客户提供海量轨迹数据的分析挖掘能力。通过阅读本文,用户可以更好的理解Ganos轨迹模型的存储结构与轨迹引擎的相关能力,助力业务开发走向便捷。
|
传感器
北京地铁八号线光纤光栅应力应变监测案例详解
为了保证管片监测点的成活率及精度,本次监测采用FBG式光纤传感器对管片间、管片内和管片环间的应力应变变化进行监测。由于光栅传感器与混凝土管片是紧密地贴合在一起的,它们的变形及位移变化是同步的,因此光栅传感器的应变反应为混凝土管片的应变。在盾构掘进的过程中,使用光纤光栅解调仪记录各布设位置的光纤光栅传感器波长的变化,根据波长变化换算相应的应力应变变化。
北京地铁八号线光纤光栅应力应变监测案例详解
|
传感器 存储 算法
使用车载激光雷达数据在惯性测量单元读数帮助下构建地图
处理来自安装在车辆上的传感器的 3-D 激光雷达数据,以便在惯性测量单元 (IMU) 读数的帮助下逐步构建地图。这样的地图可以促进车辆导航的路径规划,也可以用于定位。
103 0
|
自动驾驶 智慧交通
智慧交通day03-车道线检测实现01:车道线检测概述
汽车的日益普及在给人们带来极大便利的同时,也导致了拥堵的交通路况,以及更为频发的交通事故。而自动驾驶技术的出现可以有效的缓解了此类问题,减少交通事故,提升出行效率。
98 0
|
智慧交通
智慧交通day03-车道线检测实现06:车道线定位及拟合+代码实现
我们根据前面检测出的车道线信息,利用直方图和滑动窗口的方法,精确定位车道线,并进行拟合。
249 0
|
算法 智慧交通
智慧交通day03-车道线检测实现08: 在离线视频(非实时)中检测车道线+代码实现
在前面几节中一步步完成摄像机标定、图像畸变校正、透视变换、提取车道线、检测车道线、计算曲率和偏离距离后,在图像上实现了复杂环境下的车道线检测算法。现在我们将视频转化为图片,然后一帧帧地对视频数据进行处理
119 0
|
传感器 算法 智慧交通
智慧交通day03-车道线检测实现02-1:相机校正
我们所处的世界是三维的,而照片是二维的,我们可以把相机认为是一个函数,输入量是一个场景,输出量是一幅灰度图。这个从三维到二维的过程的函数是不可逆的。
160 0
|
智慧交通
智慧交通day03-车道线检测实现05:透视变换+代码实现
为了方便后续的直方图滑窗对车道线进行准确的定位,我们在这里利用透视变换将图像转换成俯视图,也可将俯视图恢复成原有的图像
174 0
|
机器学习/深度学习 传感器 算法
智慧交通day03-车道线检测实现02-2:张氏标定法+双目标定
该方法介于传统标定法和自标定法之间,既克服了传统标定法需要的高精度三维标定物的缺点,又解决了自标定法鲁棒性差的难题。标定过程不需要特殊的标定物,只需使用一张打印出来的棋盘格,并从不同方向拍摄几组图片即可,不仅实用灵活方便,而且精度很高,鲁棒性好。因此很快被全世界广泛采用,极大的促进了三维计算机视觉从实验室走向真实世界的进程。
349 0