places2 数据集 : Data of Places365-Standard 256x256 数据分享、场景识别数据集

简介: 有效整理、附官网链接
❤️ 【专栏:数据集整理】❤️ 之【有效拒绝假数据】

👋 Follow me 👋,一起 Get 更多有趣 AI、冲冲冲 🚀 🚀

📔 认识 Places2 dataset

Places2 dataset 总共包含超过1000万张图片,其中包含400多个独特的场景类别。 该数据集每个分类具有5000至30,000个训练图像, 与现实世界中的场景频次一致。

Places2 dataset 主要包含如下 3 个 数据集:

  • Places365-Standard is the core set of Places2 Database,Places365-Standard 中有来自365个场景类别的180万张训练图像,用于训练Places365 CNN。 验证集中每个类别有50张图像,而测试集中每个类别有900张图像。
  • Places365-Challenge 2016 is Places Challenge 2016 competition set (竞赛数据集) ,总共为Places365 Challenge 2016提供了800万张训练图像(包含Places365-Standard 的训练数据),验证集和测试集与Places365-Standard相同。
  • Places-Extra69 :Besides the 365 scene categories released in Places365 above, here we release the image data for the extra 69 scene categories (totally there are 434 scene categories included in the Places Database) as Places-Extra69

我们通常使用 Places365-Standard 来进行 图像修复 和 场景识别 实验即可;

📕 Data of Places365-Standard 数据介绍

There are 1.8 million train images from 365 scene categories in the Places365-Standard, which are used to train the Places365 CNNs. There are 50 images per category in the validation set and 900 images per category in the testing set.

  • 用途: 场景识别 | 图像修复 | 超分重建
  • 下载界面:

5-5

10

📗 该数据集官网如下

99

📙 Data of Places365-Standard 256x256 快速获取途径如下

搜索关注本博客同名公号,公号后台,回复【20210204】获取本博文中的 Places365-Standard 256x256 Train + test_256 + val_256 云盘下载链接:
20210204

💬 添加一个声明

数据资源是公共的,甚至开源的,但是分享方式是属于每个人自己的;

大家都会有从小白开始成长的那个时刻,很多地方会有不足,请相信我们也都会慢慢进步的吧;

📙 博主 AI 领域八大干货专栏、诚不我欺

📙 预祝各位 2022 前途似锦、可摘星辰

🎉 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
❤️ 过去的一年、大家都经历了太多太多、祝你披荆斩棘、未来可期

9-9

目录
相关文章
|
6月前
|
数据处理 开发工具 git
coco2017数据集转换为yolo格式(记录过程)
最近做一个yolov5的落地应用项目,用的anylabeling打标,需要将coco2017的数据集转为yolo格式,故写下记录过程!
|
存储 自然语言处理 数据处理
PaddleNLP--UIE--小样本快速提升性能(含doccona标注
需求跨领域跨任务:领域之间知识迁移难度高,如通用领域知识很难迁移到垂类领域,垂类领域之间的知识很难相互迁移;存在实体、关系、事件等不同的信息抽取任务需求。 - 定制化程度高:针对实体、关系、事件等不同的信息抽取任务,需要开发不同的模型,开发成本和机器资源消耗都很大。 - 训练数据无或很少:部分领域数据稀缺,难以获取,且领域专业性使得数据标注门槛高。
PaddleNLP--UIE--小样本快速提升性能(含doccona标注
|
1月前
|
XML JSON 数据可视化
数据集学习笔记(二): 转换不同类型的数据集用于模型训练(XML、VOC、YOLO、COCO、JSON、PNG)
本文详细介绍了不同数据集格式之间的转换方法,包括YOLO、VOC、COCO、JSON、TXT和PNG等格式,以及如何可视化验证数据集。
68 1
数据集学习笔记(二): 转换不同类型的数据集用于模型训练(XML、VOC、YOLO、COCO、JSON、PNG)
|
3月前
|
自然语言处理
评估数据集CGoDial问题之Doc2Bot数据集的问题如何解决
评估数据集CGoDial问题之Doc2Bot数据集的问题如何解决
|
6月前
|
机器学习/深度学习 分布式计算 算法
【机器学习】Spark ML 对数据特征进行 One-Hot 编码
One-Hot 编码是机器学习中将离散特征转换为数值表示的方法,每个取值映射为一个二进制向量,常用于避免特征间大小关系影响模型。Spark ML 提供 OneHotEncoder 进行编码,输入输出列可通过 `inputCol` 和 `outputCol` 参数设置。在示例中,先用 StringIndexer 对类别特征编码,再用 OneHotEncoder 转换,最后展示编码结果。注意 One-Hot 编码可能导致高维问题,可结合实际情况选择编码方式。
79 6
|
6月前
|
JSON 数据处理 数据格式
yolov8训练自己的数据集以及权重转化为.engine格式(超详细)
yolov8训练自己的数据集以及权重转化为.engine格式(超详细)
490 0
|
自然语言处理 安全 数据挖掘
PaddleNLP基于ERNIR3.0文本分类以CAIL2018-SMALL数据集罪名预测任务为例【多标签】
文本分类任务是自然语言处理中最常见的任务,文本分类任务简单来说就是对给定的一个句子或一段文本使用文本分类器进行分类。文本分类任务广泛应用于长短文本分类、情感分析、新闻分类、事件类别分类、政务数据分类、商品信息分类、商品类目预测、文章分类、论文类别分类、专利分类、案件描述分类、罪名分类、意图分类、论文专利分类、邮件自动标签、评论正负识别、药物反应分类、对话分类、税种识别、来电信息自动分类、投诉分类、广告检测、敏感违法内容检测、内容安全检测、舆情分析、话题标记等各类日常或专业领域中。 文本分类任务可以根据标签类型分为**多分类(multi class)、多标签(multi label)、层次分类
PaddleNLP基于ERNIR3.0文本分类以CAIL2018-SMALL数据集罪名预测任务为例【多标签】
|
API 计算机视觉 索引
【COCO数据集】COCO API 解析图像数据和目标标签,vision-transformer DETR的相关transforms操作实现
【COCO数据集】COCO API 解析图像数据和目标标签,vision-transformer DETR的相关transforms操作实现
443 0
|
XML JSON 算法
【数据集转换】VOC数据集转COCO数据集·代码实现+操作步骤
与VOC一个文件一个xml标注不同,COCO所有的目标框标注都是放在一个json文件中的。
1392 1
|
存储
RLE格式分割标注文件格式转换【以Airbus Ship Detection Challenge为例】
RLE格式分割标注文件格式转换【以Airbus Ship Detection Challenge为例】
231 0
RLE格式分割标注文件格式转换【以Airbus Ship Detection Challenge为例】