图像修复使用率最高数据集总结

简介: 有效整理、附官网链接
❤️ 【专栏:数据集整理】❤️ 之【有效拒绝假数据】

👋 Follow me 👋,一起 Get 更多有趣 AI、冲冲冲 🚀 🚀

📘 图像修复使用率最高数据集总结

  1. Places2 Challenge Dataset [33]: A dataset released by MIT containing
    over 8,000,000 images from over 365 scenes, which is very suitable
    for building inpainting models as it enables the model to learn the
    distribution from many natural scenes.
  2. CelebA Dataset [15]: A dataset focusing on human face images and
    containing over 180,000 training images. The model trained on this
    dataset can easily be transferred to face editing/completion tasks.
  3. Paris StreetView Dataset [6]: A dataset containing 14,900 training
    images and 100 test images collected from street views of Paris.
    This dataset mainly focuses on the buildings in the city.
  4. ImageNet [62] is a large-scale dataset with thousands of images of each subnet. Each subnet is presented of 1000 images. The current version of the dataset contains more than 14,197,122 images where the 1,034,908 annotated with bounding box human body is annotated.
  5. Facade [25]: a collection of highly-structured facades from
    different cities around the world.
  6. DTD [4], an evolving dataset of 47 kinds of describable textures
    collected in the wild.
  7. CELEBA-HQ [11], a high-quality version of the human face dataset
    from CELEBA [14].

1、2、3 引自 Recurrent Feature Reasoning for Image Inpainting
   4 引自 Image inpainting: A review
5、6、7 引自 Learning Pyramid-Context Encoder Network for High-Quality Image Inpainting

📘 整理的数据集地址OR云盘分享博文

以下为各个数据集单独成文链接,点击可达

📘 Paris StreetView Dataset 示例数据

0

2021-3-19 追更:
  • 3-18日有幸得到一个大佬指点,给安排了 Paris StreetView Dataset ;
  • 获取方法是:直接给 原作者发的邮件得到了反馈,建议大家可以积极尝试;
  • 原作者没有公开该数据集,本博文也自当尊重;
  • 如果自行获取依旧有困难、可添加博主 V 信 : bravePatch

📘 过去半年,阶段总结

博文撰写

  博文撰写,相信我属于大众类型:单纯记录自己平时学习中遇到的关键知识点、到想要较为充分的记录自己学习和工作中重要的知识并成为一个体系;在这个信息爆炸的时代,我们的大脑能够容纳的信息以及持久性非常有限,因此,文字帮我们对过去某一阶段进行了刻画,甚至在将来成为我们财富的一部分;

  最近我开始考虑自媒体,其实并没有想好具体做什么和如何去做,只是想给自己码工的身份多打一个标签,或者想要成为斜杠青年:深度学习新青年、户外小年轻、墨理学AI ...

思路探讨

  个人很喜欢和小伙伴交流探讨一些学习方面的技术问题,也乐于积极回复一些常见 bug 排错思路;

  通常,看到私信或者评论提出的问题,我都会忍不住想要去细看一下是否能够帮助解决;在自己的精力和能力范围内给出自己认为合理和可能的解决思路;

但是,在面对一些新同学,有时候会私信连续一些小的问题,这会导致如下情况:

  发的私信,也没有具体告诉是哪篇博文遇到的问题,而是直接说xxx遇到错误,能否帮忙看看等内容;这种情况:我希望首先清楚知道你的问题来自的博文,其次是你的报错具体截图+批注,这样鹅才能在看到之后第一时间做出回复;

  博文中已经提出或者强调过的路径问题,其实你只要认真看博文教程,就能顺利运行代码,这种情况你会发现你问了我好几个问题,我还是只能劝你好好看博文,因为你说的问题我在刚开始运行代码时同样会遇到,环境搭建顺利之后,xxx 找不到 通常就是数据路径问题;

  确实有一些代码是我没有具体细看的,鹅帮忙指出你要修改的地方可能也就5分钟、10分钟的事情,但是修改代码这方面,鹅也是新人,短时间内搞定也不现实,自然爱莫能助,只能给出自己粗略见解,还请互相理解,自己和大多新同学一样也是刚刚开始进入图像修复这个深坑;

综上所述,我产生如下困惑:

  • 对于,没有根据的提问,会很无奈
  • 对于 ‘ 特别问题 ’ 的确能力有限
  • 对于 ‘ 连续性问题 ’ 时间有限
  • 都是成年人,大家更多依靠的需要是自己
  • 加油哈,搬砖路上,墨理愿做你的工友,偶尔帮你提桶,嘿嘿

我的收获:

  看到图像修复这个相对小众的方向,前行路上,原来不是那么孤单;

  对于与我(两年前刚刚入深度学习深坑时,一头雾水,摸石头过河,效率低下)情况相似的同学而言,我的博文分享是有用的,能够得到一些正向反馈,自己更有坚持记录的动力;

  社交、分享交流、解决问题,这本身的确是一件 使我非常快乐的事情

💬 新的一年,博文规划【一些碎碎念】

我的专栏--图像修复-代码环境搭建-知识总结

本专栏主要分享近三年图像修复相关论文环境搭建和基础实验分析;希望通过查阅我的文章能够帮大家节约环境搭建、数据集构建时间,更快速地开始实验和验证模型效果,弥补部分论文官方环境搭建及项目运行相关教程不清晰之处。

📙 博主 AI 领域八大干货专栏、诚不我欺

📙 预祝各位 2022 前途似锦、可摘星辰

🎉 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
❤️ 过去的一年、大家都经历了太多太多、祝你披荆斩棘、未来可期

top.png

目录
相关文章
|
5月前
|
编解码 并行计算 算法
除了NMS参数,还有哪些因素会影响YOLOv3模型的检测性能?
除了NMS参数,还有哪些因素会影响YOLOv3模型的检测性能?
|
9天前
|
机器学习/深度学习 数据采集 计算机视觉
深度学习之缺失数据的图像修复
基于深度学习的缺失数据图像修复是一种通过深度学习技术填补图像中缺失或损坏部分的过程。这种技术在图像处理领域具有重要意义,能够改善图像的视觉质量,并在许多实际应用中发挥作用,如图像恢复、视频编辑和图像生成等。
23 4
|
5月前
|
算法
如何调整 YOLOv3 的 NMS 参数以优化检测性能?
如何调整 YOLOv3 的 NMS 参数以优化检测性能?
|
2月前
|
自然语言处理
评估数据集CGoDial问题之数据集中包含哪些基线模型
评估数据集CGoDial问题之数据集中包含哪些基线模型
|
3月前
|
机器学习/深度学习 运维 算法
Doping:使用精心设计的合成数据测试和评估异常检测器的技术
在这篇文章中,我们将探讨测试和评估异常检测器的问题(这是一个众所周知的难题),并提出了一种解决方案被称为“Doping”方法。使用Doping方法,真实数据行会被(通常是)随机修改,修改的方式是确保它们在某些方面可能成为异常值,这时应该被异常检测器检测到。然后通过评估检测器检测Doping记录的效果来评估这些检测器。
41 0
|
3月前
|
人工智能 自然语言处理 测试技术
将图像自动文本化,图像描述质量更高、更准确了
【7月更文挑战第11天】AI研究提升图像文本化准确性:新框架IT融合多模态大模型与视觉专家,生成详细无幻觉的图像描述。通过三个阶段—全局文本化、视觉细节提取和重描述,实现更高质量的图像转文本。研究人员建立DID-Bench、D2I-Bench和LIN-Bench基准,展示描述质量显著提升。尽管有进步,仍面临幻觉、细节缺失及大规模处理挑战。[论文链接](https://arxiv.org/pdf/2406.07502v1)**
28 1
|
4月前
|
算法 定位技术 网络架构
网络的分类与性能指标
可以分为广域网(WAN)、城域网(MAN)、局域网(LAN)、个人区域网(PAN)。
68 4
|
5月前
|
存储 机器学习/深度学习 算法
如何准确的估计llm推理和微调的内存消耗
最近发布的三个大型语言模型——Command-R+ (104B参数), Mixtral-8x22b (141B参数的MoE模型), 和 Llama 3 70b (70.6B参数)——需要巨大的内存资源。推理时,Command-R+需193.72GB GPU RAM,Mixtral-8x22B需262.63GB,Llama 370b需131.5GB。激活的内存消耗根据序列长度、批大小等因素变化。文章详细介绍了计算这些模型内存需求的方法,并探讨了如何通过量化、优化器优化和梯度检查点减少内存使用,以适应微调和推理。
424 0
|
5月前
|
机器学习/深度学习 运维 算法
R语言用ARIMA模型滑动时间窗口识别网络流量时间序列异常值
R语言用ARIMA模型滑动时间窗口识别网络流量时间序列异常值
|
11月前
图像修复
图像修复
88 0