两阶段渐进式图像修复效果测评【CVPR 2021】

简介: 图像修复领域测评、一文读懂
🥇 版权: 本文由【墨理学AI】原创、各位大佬、一文读懂、敬请查阅
🎉 声明: 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
🍖 该博文旨在大话图像修复,仅对该论文工作展开简单引入
  • 📆 最近更新:2022年1月19日
  • 🍊 点赞 👍 收藏 ⭐留言 📝 都是博主坚持写作、更新高质量博文的最大动力!

📔 基础信息

摘要翻译

尽管最近的修复方法已经证明了深度神经网络的显着改进,但在填充缺失区域时,它们仍然存在诸如钝结构和突然颜色之类的伪影。 为了解决这些问题,我们提出了一种具有单色瓶颈的外部内部修复方案,可帮助图像修复模型消除这些伪影。 在外部学习阶段,我们重建单色空间中缺失的结构和细节以减少学习维度。 在内部学习阶段,我们提出了一种新颖的内部颜色传播方法,采用渐进式学习策略来恢复一致的颜色。 大量实验表明,我们提出的方案有助于图像修复模型产生更多结构保留和视觉上引人注目的结果。

主要贡献可以总结为:
  • 据我们所知,我们是第一个将外部-内部学习方法引入深度图像修复的公司。它通过对大型数据集的训练从外部学习语义知识,同时充分利用单个测试图像的内部统计数据。
  • 我们设计了一个渐进式内部图像着色网络,在我们的案例中实现了出色的着色性能。
  • 我们将我们提出的方法推广到几个深度修复模型,并观察到在多个数据集上的视觉质量和模型泛化能力方面的明显改进。
  1. Conclusion

在本文中,我们提出了一种具有单色瓶颈的通用外部-内部学习修复方案。

它首先利用从大型数据集外部学习的语义知识重建单色,然后从单个测试图像内部恢复颜色。 与以前的方法相比,我们的方法可以产生更连贯的结构和视觉上更协调的颜色。

大量实验表明,我们的方法可以在几个主干模型上定性和定量地稳定改进。 我们方法的主要限制是推理速度。 由于着色需要额外的阶段,因此我们的方法比最先进的方法慢。

未来,我们计划进一步加速着色过程,并将提议的方案扩展到其他低级视觉任务,如超分辨率。

📕 环境搭建

依赖库很简洁
  • Python 3.6
  • Pytorch 1.6
  • Numpy
pytorch 安装 建议参考 -- Linux下cuda10.0 安装 Pytorch和Torchvision|简记
conda create -n torch16 python=3.6.6

conda activate torch16

# CUDA 10.1
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.1 -c pytorch

pip install pillow==5.2.0

pip install opencv-python

pip install scikit-image

pip install scipy

pip install thop

📗 源码测试

当前,该代码十分简洁,参照 官方 readMe 直接运行即可

🔵 第一阶段:Colorization

git clone https://github.com/Tengfei-Wang/external-internal-inpainting.git

cd external-internal-inpainting

conda activate torch16
Colorization 【着色方法测试命令】
python main.py  --img_path images/input2.png --gray_path images/gray2.png  --mask_path images/mask2.png  --pyramid_height 3
输出如下
starting colorization. Scale 0
starting colorization. Scale 1
starting colorization. Scale 2
最佳效果如下

1-0

该阶段源码分析如下

1-1

🔵 第二阶段:Reconstruction

盲猜:这里的意思是,着色修复后的图像,替换其它 backbones【修复网络】的输入,能够取得更佳修复效果;官方暂未做进一步衔接说明,这里也就暂不具体展开测试了;

点滴拙见,望大佬指点

2-0

📘 该论文效果图

对图像修复详细分类有兴趣,可简单参考如下博文

Image inpainting based on deep learning - A review【图像修复 2021 最新综述】

🔴 目标移除

3-0

🔵 不规则 Mask 修复

这里莫名,提到了 交叉数据集评估 ???

直接理解:在 Places2 上训练得到的模型,在 DTD 数据集 上测试应用效果

3-4

🔴 用户指导修复

3-5


📙 博主 AI 领域八大干货专栏、诚不我欺


📙 预祝各位 2022 前途似锦、可摘星辰

🎉 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
❤️ 如果文章对你有帮助、 点赞、评论鼓励博主的每一分认真创作
❤️ 比寻找温暖更重要的是,让自己成为一盏灯火 ❤️

8.png

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 文字识别
MMMU华人团队更新Pro版!多模态基准升至史诗级难度:过滤纯文本问题、引入纯视觉问答
【10月更文挑战第12天】多模态理解是人工智能的重要研究方向,华人团队改进了现有的MMMU基准,推出MMMU-Pro,以更严格地评估模型的多模态理解和推理能力。MMMU-Pro通过过滤纯文本问题、增加候选选项和引入纯视觉问答设置,提高了评估难度。实验结果显示,模型在MMMU-Pro上的性能明显下降,但CoT推理有助于提升表现。MMMU-Pro为多模态理解提供了更严格的评估工具,但也面临一些挑战。
41 1
|
30天前
|
人工智能 人机交互 智能硬件
从大模型的原理到提示词优化
本文介绍了大语言模型(LLM)的基本概念及其工作原理,重点探讨了AI提示词(Prompt)的重要性和几种有效技巧,包括角色设定、One-shot/Few-shot、任务拆解和思维链。通过实例解析,展示了如何利用这些技巧提升LLM的输出质量和准确性,强调了提供高质量上下文信息对优化LLM表现的关键作用。
47 0
|
5月前
|
机器学习/深度学习 JSON 测试技术
CNN依旧能战:nnU-Net团队新研究揭示医学图像分割的验证误区,设定先进的验证标准与基线模型
在3D医学图像分割领域,尽管出现了多种新架构和方法,但大多未能超越2018年nnU-Net基准。研究发现,许多新方法的优越性未经严格验证,揭示了验证方法的不严谨性。作者通过系统基准测试评估了CNN、Transformer和Mamba等方法,强调了配置和硬件资源的重要性,并更新了nnU-Net基线以适应不同条件。论文呼吁加强科学验证,以确保真实性能提升。通过nnU-Net的变体和新方法的比较,显示经典CNN方法在某些情况下仍优于理论上的先进方法。研究提供了新的标准化基线模型,以促进更严谨的性能评估。
157 0
|
机器学习/深度学习 人工智能 Devops
破解自注意力推理缺陷的奥秘,蚂蚁自研新一代Transformer或实现无损外推
随着大语言模型的快速发展,其长度外推能力(length extrapolating)正日益受到研究者的关注。尽管这在 Transformer 诞生之初,被视为天然具备的能力,但随着相关研究的深入,现实远非如此。传统的 Transformer 架构在训练长度之外无一例外表现出糟糕的推理性能。
103 0
|
6月前
|
机器学习/深度学习 人工智能 缓存
Contextual发布生成式表征指导调整模型
【2月更文挑战第17天】Contextual发布生成式表征指导调整模型
130 1
Contextual发布生成式表征指导调整模型
|
6月前
|
机器学习/深度学习 算法 PyTorch
【SAHI】即插即用| SAHI操作可有效解决小目标检测过程中的难点!实现涨点
【SAHI】即插即用| SAHI操作可有效解决小目标检测过程中的难点!实现涨点
384 1
|
6月前
|
自然语言处理 安全 算法
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
154 0
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
|
机器学习/深度学习 自然语言处理 算法
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
142 0
|
SQL 机器学习/深度学习 开发框架
【网安AIGC专题10.25】8 CoLeFunDa华为团队:静默漏洞检测(识别+多分类)+数据增强、样本扩充+对比学习+微调+结果分析(降维空间,分类错误样本归纳,应用场景优势,有效性威胁分析)
【网安AIGC专题10.25】8 CoLeFunDa华为团队:静默漏洞检测(识别+多分类)+数据增强、样本扩充+对比学习+微调+结果分析(降维空间,分类错误样本归纳,应用场景优势,有效性威胁分析)
275 0
|
自然语言处理 测试技术 网络安全
中文大模型能力缺陷和改进方向:来自双盲测评的发现
近年来,预训练语言模型在自然语言处理任务上的应用取得长足进展。作为该类模型的重要代表之一,中文预训练语言模型也得到广泛关注。然而,中文预训练模型的真实语言理解和生成能力如何,目前还存在争议。为客观评估主流中文预训练模型的优劣,本研究采用中文竞技场,以双盲测试的原则,设计了系统的模型测评方案。
下一篇
无影云桌面