智能驾驶--语义分割 公开数据集 汇总

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 本文整理了10个质量较好,数据集较大,比较新的,图像语义分割的公开数据集;主要服务于智能驾驶方向(辅助驾驶、自动驾驶等)。

 一、Mapillary Vistas

发布方:IIIT Hyderabad

下载地址:https://www.mapillary.com/

论文地址:

https://openaccess.thecvf.com/content_ICCV_2017/papers/Neuhold_The_Mapillary_Vistas_ICCV_2017_paper.pdf

发布时间:2017年(2020年推出,2.0更新版本)

简介:这是一个新颖的大规模街道级图像数据集,通过使用多边形来描绘单个对象,以精细和细粒度的样式执行注释

特征:

    1. 包含25,000个高分辨率图像,标注为66个对象类别,有37个类别的特定实例的标签
    2. 采集地点:欧洲、北美和南美、亚洲、非洲和大洋洲的部分地区
    3. 采集环境:不同的天气,如晴天、雨天、阴天;不同的光照条件,如黎明、黄昏、夜晚
    4. 采集设备:手机、平板电脑、动作相机、专业拍摄设备

    示例:

    image.gif

    下载情况:

    需要注册账号;无需要审核。可以下载。


    二、BDD100K

    发布方:UC Berkeley

    下载地址:Berkeley DeepDrive

    论文地址:https://arxiv.org/abs/1805.04687

    发布时间:2020年

    简介:全天候全光照大型数据集,包含1,100小时的HD录像、GPS/IMU、时间戳信息,100,000张图片的2D bounding box标注,10,000张图片的语义分割和实例分割标注、驾驶决策标注和路况标注。总数据量接近2TB。鉴于数据集也是“众筹”的,可能采集设备参数不统一,传感器安装方案不明,但应该不影响数据的使用。

    特点:官方推荐使用此数据集的十个自动驾驶任务:图像标注、道路检测、可行驶区域分割、交通参与物检测、语义分割、实例分割、多物体检测追踪、多物体分割追踪、域适应和模仿学习。

    示例:

    image.gif

    下载情况:

    需要注册账号;无需要审核。可以下载。

    image.gif


    三、ApolloScape

    发布方:百度Apollo

    下载地址:Apollo Scape

    论文地址:

    https://openaccess.thecvf.com/content_cvpr_2018_workshops/papers/w14/Huang_The_ApolloScape_Dataset_CVPR_2018_paper.pdf

    发布时间:2019年

    简介:百度公司提供的 ApolloScape 数据集将包括具有高分辨率图像和每像素注释的 RGB 视频、具有语义分割的测量级密集 3D 点、立体视频和全景图像。选择中型 SUV 配备了高分辨率摄像头和Riegl采集系统。数据集是在不同城市的不同交通条件下收集的。每张图像都标记有厘米精度的高精度姿势信息,静态背景点云具有毫米相对精度。数据集能应用于自动驾驶,包括但不限于 2D/3D 场景理解、定位、迁移学习和驾驶模拟。

    示例:

    image.gif

    下载情况:

    需要注册账号(百度、github等);无需要审核。可以下载。

    image.gif


    四、Cityscapes

    发布方:戴姆勒公司

    下载地址:Cityscapes Dataset – Semantic Understanding of Urban Street Scenes

    论文地址:

    https://openaccess.thecvf.com/content_cvpr_2016/papers/Cordts_The_Cityscapes_Dataset_CVPR_2016_paper.pdf

    发布时间:2016年

    简介:专注于对城市街景的语义理解。大型数据集,包含从50个不同城市的街景中记录的各种立体视频序列

    特征:

      1. 拥有5000张在城市环境中驾驶场景的图片,具有19个类别的密集像素标注,其中8个具有实例级分割
      2. 一张图片的标注和质量控制平均需要1.5小时
      3. 高质量的像素级注释为5000帧,另外20000个弱注释帧
      4. 标注类别:平面、建筑、自然、车辆、天空、物体、人类和空洞
      5. 标注图像分为训练组、验证组和测试组

      示例:

      image.gif

      下载情况:

      需要注册账号(科研机构);无需要审核。可以下载。


      五、Highway Driving

      发布方:韩国科学技术院(Korea Advanced Institute of Science and Technology)

      下载地址:https://sites.google.com/site/highwaydrivingdataset/

      论文地:https://arxiv.org/pdf/2011.00674.pdf

      发布时间:2019年

      简介:高速公路驾驶数据集是一个密集标注的语义视频分割任务的基准,它所提供的标注在空间上和时间上都比其他现有的数据集更密集。每一帧的标注都考虑到了相邻帧之间的关联性

      特征:

      1. 由20个60帧的序列组成,帧率为30Hz
      2. 数据集分成训练集和测试集,训练集由15个序列组成,而测试集由剩下的五个序列组成
      3. 帧率为30Hz的短视频片段是在高速公路驾驶的情况下拍摄的
      4. 包含道路、车道、天空、栅栏、建筑、交通标志、汽车、卡车、植被和未知10类标签。未知类包括未定义的物体、采集数据的车辆的引擎盖和模糊的边缘

      类别与颜色:

      image.gif

      示例:

      image.gif

      下载情况:

      需要注册账号;且能访问谷歌网盘。暂无下载。


      六、Wilddash

      发布方:奥地利技术研究所

      下载地址:WildDash 2 Benchmark

      论文地址:

      https://openaccess.thecvf.com/content_ECCV_2018/papers/Oliver_Zendel_WildDash_-_Creating_ECCV_2018_paper.pdf

      发布时间:2018年

      大小:10.8G

      简介:这是一个用于汽车领域的语义和汽车领域的实例分割的新测试数据集。它具有以下优点:(i) 允许对失败的测试进行回溯,以发现视觉上的风险因素;

      (ii) 增加负面的测试案例,以避免假阳性; (iii)具有低区域偏差和低相机设置偏差

      特征:

      1. 包含了全球多样性的交通状况,包括来自世界各地的测试案例
      2. 通过拥有大量来自不同国家的道路场景、道路布局以及天气和照明条件,减少了数据集的偏差
      3. 具有视觉危害和改进的元信息的场景,为每个测试图像阐明涵盖了哪些危害

      标注:道路、人行道、停车场、铁轨、人、骑手、汽车、卡车、公共汽车、铁轨、摩托车、自行车、大篷车、建筑物、墙壁、栅栏、护栏、桥梁、隧道、电线杆、交通标志、交通灯、植被、地形、天空、地面、动态和静态。

      示例:

      image.gif

      下载情况:

      需要注册账号;且需要经过审核。暂无下载。

      image.gif


      七、IDD

      发布方:IIIT Hyderabad

      下载地址:IDD

      论文地:Sci-Hub | IDD: A Dataset for Exploring Problems of Autonomous Navigation in Unconstrained Environments. 2019 IEEE Winter Conference on Applications of Computer Vision (WACV) | 10.1109/wacv.2019.00190

      发布时间:2018年

      简介:这是一个用于理解非结构化环境中的道路场景的数据集,它反映了与现有数据集明显不同的道路场景的标签分布

      特征

      1. 由10,004张图像组成,用34个类别进行精细标注,这些类别采集于印度公路上的182个驾驶序列(完)
      2. 分辨率以1080p为主,也有720p和其他分辨率的图像
      3. 采集环境:海德拉巴、班加罗尔等城市及其郊区,采用车载摄像机拍摄

      示例:

      image.gif

      下载情况:

      需要注册账号;无需要审核。可以下载。


      八、Lost And Found

      发布方:戴姆勒公司

      下载地址:https://www.6d-vision.com/current- research/lostandfounddataset

      论文地址:https://arxiv.org/pdf/1609.04653.pdf

      发布时间:2016年

      简介:关注于检测道路上由丢失货物引起的意外小障碍物的问题。数据使用ZED被动双目采集,共有2104标注好的数据。数据提出后的几年有多个数据集效仿(如seg me if you can 、SOD),同时有40+的算法将此数据集作为benchmark

      特征

      1. 包含112 个立体视频序列和 2104 个带注释的帧(从记录的数据中大约每十分之一帧挑选一次)
      2. 在200万像素的立体图像上,帧率高达20赫兹
      3. 包括13个不同街道场景的记录,具有37种不同的障碍物类型
      4. 选定场景包含特殊的挑战,包括不规则的道路轮廓、远距离、和强烈的光照变化
      5. 立体相机设置的基线为21厘米,焦距为2300像素,空间和辐射测量分辨率为2048×1024像素和12比特

      示例:

      image.gif

      下载情况:

      需要注册账号(科研机构);无需要审核。暂无下载。

      其他障碍物分割数据集:seg me if you can:Datasets


      九、Argoverse 2

      发布方:

      下载地址:https://www.argoverse.org/av2.html

      论文地址:

      https://datasets-benchmarks-proceedings.neurips.cc/paper/2021/file/4734ba6f3de83d861c3176a6273cac6d-Paper-round2.pdf

      发布时间:2021年

      简介:用于感知和自动驾驶领域的预测研究。带注释的传感器数据集包含1,000个多模式数据序列,包括高分辨率图像除了激光雷达点云,来自七个环形摄像机和两个立体摄像机,和6-DOF地图对齐姿势。序列包含26个3D长方体注释对象类别,所有这些都经过充分采样以支持训练和3D感知模型的评估。激光雷达数据集包含20,000个序列未标记的激光雷达点云和地图对齐的姿势。这个数据集是最大的收集激光雷达传感器数据并支持自我监督学习和点云预测的新兴任务。最后,运动预测数据集包含250,000个场景,用于自动驾驶汽车与每个本地场景中的其他参与者之间有趣且具有挑战性的交互。在所有三个数据集中,每个场景都包含自己的 3D 高精地图车道和人行横道的几何形状——来自六个不同城市的数据。

      示例:

      image.gif

      下载情况:

      需要注册账号;无需要审核。可以下载。


      十、nuScenes

      发布方:Motional

      下载地址:https://www.nuscenes.org/nuscenes

      论文地址:nuScenes: A Multimodal Dataset for Autonomous Driving | IEEE Conference Publication | IEEE Xplore

      发布时间:2020年

      简介:由Motional(前身nuTonomy)提供的全天候全光照数据集。注册账号之后就可以下载所有数据,总数据量在300GB以上。官方提供了数据使用接口,并提供了Detection, Tracking, Prediction, Lidar Segmentation四类任务的挑战榜,还可以支持语义分割,实例分割,多模态数据融合,端对端决策等问题的研究。目前该数据集仍然在持续更新,属于质量比较高的数据集。

      示例:

      image.gif

      下载情况:

      需要注册账号;无需要审核。可以下载。

      image.gif

      参考1:https://zhuanlan.zhihu.com/p/522121257

      参考2:https://zhuanlan.zhihu.com/p/356976113


      本文只供大家参考与学习,谢谢~

      目录
      打赏
      0
      0
      0
      0
      12
      分享
      相关文章
      零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
      零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
      529 2
      语义分割笔记(二):DeepLab V3对图像进行分割(自定义数据集从零到一进行训练、验证和测试)
      本文介绍了DeepLab V3在语义分割中的应用,包括数据集准备、模型训练、测试和评估,提供了代码和资源链接。
      739 0
      语义分割笔记(二):DeepLab V3对图像进行分割(自定义数据集从零到一进行训练、验证和测试)
      InsTag:大语言模型监督微调数据标签标注工具
      魔搭社区发布了一个名为“InsTagger”的工具,用于分析LLM(大语言模型)中符合人类偏好的监督微调(SFT)数据。InsTagger 是基于 InsTag 方法训练的本地指令标签标注器,用于为符合人类偏好的监督微调数据集中的指令标注描述其意图和语义的标签,从而指导指令的分流或监督微调数据集的分析。
      零基础入门语义分割-地表建筑物识别 Task6 模型集成-学习笔记
      零基础入门语义分割-地表建筑物识别 Task6 模型集成-学习笔记
      97 1
      超越界限:大模型应用领域扩展,探索文本分类、文本匹配、信息抽取和性格测试等多领域应用
      超越界限:大模型应用领域扩展,探索文本分类、文本匹配、信息抽取和性格测试等多领域应用
      超越界限:大模型应用领域扩展,探索文本分类、文本匹配、信息抽取和性格测试等多领域应用
      CamVid数据集(智能驾驶场景的语义分割)
      CamVid 数据集是由剑桥大学公开发布的城市道路场景的数据集。CamVid全称:The Cambridge-driving Labeled Video Database,它是第一个具有目标类别语义标签的视频集合。 数据集包 括 700 多张精准标注的图片用于强监督学习,可分为训练集、验证集、测试集。同时, 在 CamVid 数据集中通常使用 11 种常用的类别来进行分割精度的评估,分别为:道路 (Road)、交通标志(Symbol)、汽车(Car)、天空(Sky)、行人道(Sidewalk)、电线杆 (Pole)、围墙(Fence)、行人(Pedestrian)、建筑物(Building)
      828 0
      Cityscapes数据集(智能驾驶场景的语义分割)
      面向智能驾驶(辅助驾驶、自动驾驶)场景下的语义分割任务,由于非结构化场景的复杂性,是一个非常具有挑战性的任务,所以有许多研究者和研究机构公开了很多相关的数据集推动语义分割领域的发展。本文主要介绍Cityscapes数据集。
      714 0
      NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法
      NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法
      NLP专栏简介:数据增强、智能标注、意图识别算法|多分类算法、文本信息抽取、多模态信息抽取、可解释性分析、性能调优、模型压缩算法
      优化cv2.findContours()函数提取的目标边界点,使语义分割进行远监督辅助标注
      可以看到cv2.findContours()函数可以将目标的所有边界点都进行导出来,但是他的点存在一个问题,太过密集,如果我们想将语义分割的结果重新导出成labelme格式的json文件进行修正时,这就会存在点太密集没有办法进行修改,这里展示一个示例:没有对导出的结果进行修正,在labelme中的效果图。
      272 0
      从模式识别到图像文档分析——浅析场景文本识别研究
      文本检测领域经历了从水平文字检测到多方向文字检测再到任意形状文字检测这样越来越有挑战性的应用场景转变。 在复杂场景下,由于光照、遮挡等因素的影响,图像中的文本经常会出现模糊、失真、变形等问题;其次,文本与背景之间偶尔存在相似度较高的情况,文字颜色和背景颜色相近或者噪点过多等情况会严重干扰文本的准确识别;此外,在某些场景下(如手写体、印章、二维码等),不同于常规字体的字形特征也会增加识别难度。复杂场景下的文本识别依然是目前难以解决的问题。
      AI助理

      你好,我是AI助理

      可以解答问题、推荐解决方案等