对Nuscenes数据集一无所知,手把手带你玩转Nusences数据集

简介: 对Nuscenes数据集一无所知,手把手带你玩转Nusences数据集

Nuscenes数据集简介

 先来简单的介绍一下Nuscenes数据集,相信大家对Nuscenes数据集应该是有一些了解的,至少应该知道这是和自动驾驶相关的,知道这些就足够了,下面再来补充一些知识📩📩📩Nuscenes数据的采集来自不同城市的1000个场景中,采集车上配备了完善的传感器,包括6个相机(CAM)、1个激光雷达(LIDAR)、5个毫米波雷达(RADAR)、IMU和GPS。传感器在采集车上的布置如下图所示:

image.png

可以看出,相机(CAM)有六个,分别分布在前方(Front)、右前方(Front Right)、左前方(Front Left)、后方(Back)、右后方(Back Right)、左后方(Back Left);激光雷达(LIDAR)有1个,放置在车顶(TOP);毫米波雷达有五个,分别放置在前方(Front)、右前方(Front Right)、左前方(Front Left)、右后方(Back Right)、左后方(Back Left)。


准备工作✨✨✨

数据才是王道,第一步我们当然是需要下载数据了。Nuscenes的官网下载链接如下:https://www.nuscenes.org/download。第一次下载应该是需要进行登录的,登录完成就可以进行下载啦!!!登录完成你可能会发现有太多可下载的资源了,我该下载哪一个呢,这里我们用做实验,故不需要下载完整的数据集,下载mini版本即可【完整的太大了,mini大约4个G】。

2624d5b0b4194d7b88eedd02d0a61fce.png

  下载完成进行解压后,应该有如下的文件结构:

27351de8e7c6915d6892c78809855983.png

  接下来我们对上图中的4个文件进行分析:

  • maps文件夹

打开map文件夹,可以看到4个地图的图片,这种图片信息的文件我们很容易理解,这里不过多叙述。

d460345a13cc01ff821094d9d357b27b.png

  • samples文件夹

打开samples文件夹,出现了这样的目录结构:不知道大家能不能看出来这些是什么,对于英语不好的我来说,打开文件夹出现一堆这种大写的英文着实反应不过来😭😭😭。好吧,不卖关子了🤐🤐🤐其实这里就是上文提到的传感器(6个相机、1个激光雷达、5个毫米波雷达)所采集到的信息。不信你可以打开6个相机所对应的文件夹,你可以发现里面都是采集到的图片,至于激光雷达和毫米波雷达所对应的文件夹里也存储着各自采集的信息,只是格式不能像图片那样直接进行查看。9a4f4766e84f4db073902c176fd2cf33.png

  • sweeps文件夹

打开sweeps文件夹,你会发现其结构和samples文件夹是完全一样的。那么samples文件夹和sweeps文件夹有什么区别呢?可以这样理解,samples文件夹中存储的信息是较为关键、重要的,而sweeps文件夹中的信息则相对次要。75afbbfdb62373948e05da420a5be170.png

  • v1.0-mini文件夹

打开v1.0-mini文件夹,或许你又懵了,里面是一堆json格式的文件。

0274f2a586ba7ca07116a9ce65f2bb41.png

这些json文件是干什么的呢,我们尝试打开一个看看里面的内容(这里打开的是category.json)。首先提示一下category是种类的意思,那么这个josn文件中就存储了一些关于目标对象属于哪一类的信息,如下图红框框住部分,表示目标对象是一个adult。【图中的种类显示的是human.pedestrian.adult,表示一种所属关系,即adult属于pedestrian,pedestrian属于human】

c62e004403d504574f08d725fad6cbef.png

数据读取✨✨✨

安装库

首先需要按照nuscenes-devkit库,使用pip安装即可。【注意:后文的代码我都是在jupyter notebook上运行的,若用其他软件运行,代码可能需要略微进行改变】

pip install nuscenes-devkit


导入相关模块和数据集

这里的dataroot为下载的mini数据集的路径,运行成功后应出现如下的信息:

%matplotlib inline
from nuscenes.nuscenes import NuScenes
nusc = NuScenes(version='v1.0-mini', dataroot='E:\\毫米波雷达\\v1.0-mini', verbose=True)

0eda33ecefbbe7ae53390c8094f1c15b.png

  看到上图红框中的内容不知大家是否有种似曾相似的感觉,没错👉🏼👉🏼👉🏼就是之前v1.0-mini文件夹中的那些文件。下面对这些名词进行解释,英文为官方给出的解释,中文为自己总结的。

7972bb9fe0d0c6a602e5b36ea370862f.png

f709954cd79718cf932d9e4044528df6.png

看来上图中各名词的解释,估计还是比较迷惑的,下面会对这些内容进行逐一的解释🎨🎨🎨

场景scene⭐⭐⭐

使用nusc.list_scenes()可以查看数据中的所有场景。

nusc.list_scenes()

输出结果 : mini数据集中只包含10个场景,每个场景大约持续20s【有的19s】,即每个场景有20秒采集到的信息。

d9cb9975c8d11ba68a944fe10cae7571.png

可以使用下列命令来查看某个场景中的信息:

my_scene = nusc.scene[0]
my_scene

输出结果 :token为唯一标识,通过token可以获取对应信息。

3e7bfd1272156111b1808cf26fce41c7.png

样本sample⭐⭐⭐

先来说说sample和scene的关系,前面说到,每个scene大约持续20s,那sample就是每0.5秒进行一次采样。也可以这样理解sample和scene,sence相当于20s的视频,sample就是每0.5s取一帧的图像。

上文已经得到了某个场景的信息【scene-0061】,现可以通过my_scene得到某一个sample的token值。

first_sample_token = my_scene['first_sample_token']  #获取第一个sample的token值
first_sample_token 

输出结果

image.png

当我们得到第一个sample的token值后,我们可以通过 nusc.get命令来获取当前sample的信息:

my_sample = nusc.get('sample', first_sample_token)
my_sample

  输出结果 :结果中包含了传感器采集到的信息、标注信息等等。

05b3a2853336211b1307686a56e58c53.png

样本数据 sample_data⭐⭐⭐

  使用my_sample['data']可以获取sample的数据sample_data。

my_sample['data']

   输出结果 :这些传感器里包含了许多的样本数据。

cb9eafdd89a2a200e0a8ab6eed8af71f.png        我们可以使用下列命令来将这些传感器中采集的进行可视化:

sensor_radar = 'RADAR_FRONT'  #这里选择的传感器为前方的毫米波雷达传感器
radar_front_data = nusc.get('sample_data',my_sample['data'][sensor_radar])  
radar_front_data

  输出结果 :

adb34cf0a925271c528c4e164edafefa.png

nusc.render_sample_data(radar_front_data['token'])

  输出结果 :

6702fae8570b9f1448b8db679d687a56.png

  这里只展示了RADAR_FRONT,即前方毫米波雷达传感器的可视化结果,可视化其他传感器的方法和上文一致。


样本标注 sample_annotation⭐⭐⭐

上文提到my_sample中包含了传感器采集到的信息、标注信息,在sample_data中已经展示了传感器采集到的信息,这一部分将展示样本标注的信息,方法与之前是类似的。

my_annotation_token = my_sample['anns'][18]
my_annotation_metadata = nusc.get('sample_annotation',my_annotation_token)
my_annotation_metadata

输出结果 13848f4890592f124631aba19297b53f.png

nusc.render_annotation(my_annotation_metadata['token'])

b41dfae1de5a3e9a05c638a12186bfbc.png

实例 instance

 通过nusc.instance可以获取实例:

my_instance = nusc.instance[0]
my_instance

  输出结果 :2553e2fa225e2c755bbfe82c1843bf51.png

 我们也可以可视化这个实例:

instance_token = my_instance['token']
nusc.render_instance(instance_token)

  输出结果 :image.png

类别categories

 通过nusc.list_categories可以获取类别:

nusc.list_categories()

  输出结果 :image.png

nusc.category[i]表示获取第i个类别的信息:

5ad7e6c4094288b00f4213dd5cc5f872.png

属性attributes⭐⭐⭐

 通过nusc.list_attributes可以获取属性:

nusc.list_attributes()

  输出结果 :

0359f1b494e3ccf59b3f9bd834e427e3.png

属性在一个场景中是可以变换的,下列代码展示了行人从移动到站立,属性发生了变换。【注意:这部分代码直接看可能不是很好理解,将代码一部分一部分的运行,看看每步的结果,你就会恍然大悟🥏🥏🥏】

my_instance = nusc.instance[27]
first_token = my_instance['first_annotation_token']
last_token = my_instance['last_annotation_token']
nbr_samples = my_instance['nbr_annotations']
current_token = first_token
i = 0
found_change = False
while current_token != last_token:
    current_ann = nusc.get('sample_annotation', current_token)
    current_attr = nusc.get('attribute', current_ann['attribute_tokens'][0])['name']
    if i == 0:
        pass
    elif current_attr != last_attr:
        print("Changed from `{}` to `{}` at timestamp {} out of {} annotated timestamps".format(last_attr, current_attr, i, nbr_samples))
        found_change = True
    next_token = current_ann['next']
    current_token = next_token
    last_attr = current_attr
    i += 1

输出结果 e4ff5afdf1c29c0f28bf77ce89a844c9.png

可视化 visibility

 可视化在前文中其实已经讲过了,这里再看看代码加深印象。

anntoken = my_sample['anns'][9]
visibility_token = nusc.get('sample_annotation', anntoken)['visibility_token']
print("Visibility: {}".format(nusc.get('visibility', visibility_token)))
nusc.render_annotation(anntoken)

  输出结果 :image.png


传感器 sensor

  传感器前文其实也或多或少的讲过了,可以通过nusc.sensor来查看传感器,部分结果如下:

162cba8f44b6726617c72a9688ef8f69.png

  因sample_data中就存储着传感器的信息,因此可以通过nusc.sample_data[i]来获取传感器的信息,结果如下:

36ac1f6f5f3bf315330d2d2843ca8ede.png

校准传感器 calibrated_sensor

 通过下列命令来得到某传感器的校准信息:

sensor_token = nusc.calibrated_sensor[0]
sensor_token

输出结果 :2fab28e3e5c8727921117368856cdc12.png

车辆姿态 ego_pose

nusc.ego_pose[0]

输出结果 :31b4bf89cc80fe4b70e31a57130c285a.png

日志 log

nusc.log[0]

输出结果 :98f0dd2a3553c6e9e8198e555f2c6f0a.png

地图 map

nusc.map[0]

输出结果 :53fd5b8dfb1777b47e5929a014230768.png

小结

  官网给出了描述了nuScenes的数据库模式。所有的注释和元数据(包括校准、地图、车辆坐标等)都包含在一个关系数据库中。下图即为数据库表。每一行都可以由其唯一的主键token标识。像sample_token这样的外键可以用来链接到sample表的token。699658bb08d84f21bc189529ba77955e.png

总结

 最后了,说点什么呢,上面这些东西你看是很难看明白的,自己动手多敲一敲,哪里不明白敲敲代码看看输出的结果,好记性不如烂笔头,加油各位📝📝📝


 这部分官方是给了参考的代码的,可以再Google colab上直接运行,这里给出官方的链接:Nuscenes使用教程,但是我想大家还是自己敲一敲会印象更加深刻🀄🀄🀄



相关文章
|
11月前
|
编解码 缓存 并行计算
YOLOv5入门实践(4)——手把手教你训练自己的数据集
YOLOv5入门实践(4)——手把手教你训练自己的数据集
1733 0
YOLOv5入门实践(4)——手把手教你训练自己的数据集
|
2月前
|
机器学习/深度学习 算法 数据可视化
分类算法入门:以鸢尾花数据集为例(下)
分类算法入门:以鸢尾花数据集为例(下)
126 2
|
2月前
|
机器学习/深度学习 人工智能 算法
分类算法入门:以鸢尾花数据集为例(上)
分类算法入门:以鸢尾花数据集为例(上)
100 2
|
2月前
|
机器学习/深度学习 分布式计算 算法
R语言 RevoScaleR的大规模数据集决策树模型应用案例
R语言 RevoScaleR的大规模数据集决策树模型应用案例
|
2月前
|
机器学习/深度学习 数据采集 算法
机器学习实战第1天:鸢尾花分类任务
机器学习实战第1天:鸢尾花分类任务
|
2月前
|
机器学习/深度学习 算法 Python
【Python机器学习】KNN进行水果分类和分类器实战(附源码和数据集)
【Python机器学习】KNN进行水果分类和分类器实战(附源码和数据集)
494 1
|
2月前
|
机器学习/深度学习 存储 算法
【数据挖掘】KNN算法详解及对iris数据集分类实战(超详细 附源码)
【数据挖掘】KNN算法详解及对iris数据集分类实战(超详细 附源码)
240 0
【数据挖掘】KNN算法详解及对iris数据集分类实战(超详细 附源码)
|
11月前
|
XML 计算机视觉 数据格式
YOLOv5入门实践(2)——手把手教你利用labelimg标注数据集
YOLOv5入门实践(2)——手把手教你利用labelimg标注数据集
4810 1
YOLOv5入门实践(2)——手把手教你利用labelimg标注数据集
|
9月前
|
机器学习/深度学习 数据可视化 算法
【深度学习】实验02 鸢尾花数据集分析
【深度学习】实验02 鸢尾花数据集分析
213 0
|
10月前
|
机器学习/深度学习 大数据 API
机器学习鸢尾花数据集分析
机器学习鸢尾花数据集分析
111 0