无需在数据集上学习和预训练,这种图像修复新方法效果惊人 | 论文

简介:
本文来自AI新媒体量子位(QbitAI)

Reddit上又炸了,原因是一个无需在数据集上学习和预训练就可以超分辨率、修补和去噪的方法:Deep image prior。

帖子的博主是俄罗斯斯科尔科沃科技研究院(Skoltech)的博士生Dmitry Ulyanov,他介绍了与两名导师 Victor Lempitsky和Andrea Vedaldi共同完成的论文《Deep Image Prior》。

效果惊人

在项目主页上,我们看到了Deep image prior惊人的修复结果。

在这些示例中,研究人员用深度神经网络分析了几个图像恢复问题。值得注意的是,研究人员从来没用数据集来训练或预先训练过它们,而是作为一个结构化的图像整体。

其中蜗牛图的恢复为典型的JPEG压缩图像的盲修复问题,通过不断迭代,这种新方法可以恢复大部分信息同时消除色圈和块效应。

在4x图像超分辨率的演示中我们发现,新方法从使用过任何一张低分辨率的图像,但却生成了更清晰的结果。

 4x图像超分辨率结果

在区域修补示例中,尽管没有学习,但新方法可以成功修复大块区域,在这种操作中,超参数的选择很重要。

 区域修补结果

此外,研究人员还与Shepard网络了卷积稀疏编码的效果对比,对比一看,还是新方法的效果更好。

 上部分为与Shepard网络的对比,下部分为与卷积稀疏编码的对比

论文摘要

深度卷积网络已然成为图像生成和修复最流行的工具。因为它们能从大量示例图像中学习真实的图像先验(image prior),因此在处理图像时效果显著。

与上述思路相反,在这篇文章中,研究人员表明,生成网络能够在开始任何学习前捕获大量low-level的图像统计信息。为了证明这一点,研究人员还展示了一个随机初始化的神经网络可以作为一个手工先验(handcraft prior),在去噪、超分辨率、图像修复等标准的逆问题上效果很好。

此外,同样的先验可以用来反推深度神经表征进行诊断,并根据输入闪光/无闪光图像对恢复图像。

参考资料

其实,在项目首页上还有更多好玩的对比示例,地址为:

https://dmitryulyanov.github.io/deep_image_prior

论文地址:

https://sites.skoltech.ru/app/data/uploads/sites/25/2017/11/deep_image_prior.pdf

补充材料:

https://box.skoltech.ru/index.php/s/ib52BOoV58ztuPM#pdfviewer

代码地址:

https://github.com/DmitryUlyanov/deep-image-prior/blob/master/README.md

本文作者:林鳞 
原文发布时间:2017-12-01
相关文章
|
1月前
|
机器学习/深度学习 数据采集 数据处理
谷歌提出视觉记忆方法,让大模型训练数据更灵活
谷歌研究人员提出了一种名为“视觉记忆”的方法,结合了深度神经网络的表示能力和数据库的灵活性。该方法将图像分类任务分为图像相似性和搜索两部分,支持灵活添加和删除数据、可解释的决策机制以及大规模数据处理能力。实验结果显示,该方法在多个数据集上取得了优异的性能,如在ImageNet上实现88.5%的top-1准确率。尽管有依赖预训练模型等限制,但视觉记忆为深度学习提供了新的思路。
32 2
|
2月前
|
机器学习/深度学习 人工智能 算法
[大语言模型-论文精读] Diffusion Model技术-通过时间和空间组合扩散模型生成复杂的3D人物动作
[大语言模型-论文精读] Diffusion Model技术-通过时间和空间组合扩散模型生成复杂的3D人物动作
30 0
|
3月前
|
人工智能 开发者
谷歌通过数据增强、对比调优,减少多模态模型幻觉
【9月更文挑战第16天】谷歌研究人员针对多模态大语言模型(MLLMs)中的幻觉问题,提出了一种结合数据增强与对比调优的新方法,旨在减少模型生成错误信息的情况。该方法通过生成式数据增强制造幻觉标记并与真实标记对比,利用对比损失优化模型参数,从而提升模型对真实信息的辨识能力。实验结果显示,此方法能显著降低对象幻觉现象,但在模拟复杂现实场景及计算需求方面仍面临挑战。相关研究已发布在论文《通过数据增强的对比调优减轻对象幻觉》中。
55 3
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
2024年5月大语言模型论文推荐:模型优化、缩放到推理、基准测试和增强性能
本文汇总了2024年5月发布的七篇重要大语言模型论文,涉及模型优化、缩放、推理及性能增强。
498 2
|
6月前
|
机器学习/深度学习 人工智能
可解释性研究新突破:OpenAI成功训练1600万个特征的自动编码器
【6月更文挑战第13天】OpenAI团队在可解释性研究上取得进展,训练出拥有1600万特征的自动编码器来解析GPT-4。此模型旨在揭示语言模型的工作原理,提高AI透明度。自动编码器从低维度特征空间重建输入数据,研究通过稀疏特征增强可解释性。虽然规模扩大带来解释性提升,但计算资源需求大,且评估指标的全面性仍受质疑。[论文链接](https://cdn.openai.com/papers/sparse-autoencoders.pdf)
82 1
|
7月前
|
人工智能 自然语言处理 测试技术
论文介绍:LLMLingua-2——面向高效忠实任务无关性提示压缩的数据蒸馏方法
【5月更文挑战第2天】LLMLingua-2是一种针对大型语言模型(LLMs)的数据蒸馏方法,旨在实现高效且忠实的提示压缩。通过从LLMs中提取知识,该方法在压缩提示的同时保持关键信息,提高模型泛化能力和效率。采用Transformer编码器,LLMLingua-2将提示压缩转化为标记分类问题,确保压缩后的提示忠实度并减少延迟。实验表明,该方法在多个数据集上优于基线,并在压缩延迟上取得显著改进,但也存在泛化能力和扩展性限制。论文链接:https://arxiv.org/abs/2403.12968
148 5
|
7月前
|
机器学习/深度学习 人工智能 缓存
Contextual发布生成式表征指导调整模型
【2月更文挑战第17天】Contextual发布生成式表征指导调整模型
139 1
Contextual发布生成式表征指导调整模型
|
7月前
|
数据采集
【大模型】大语言模型训练数据中的偏差概念及其可能的影响?
【5月更文挑战第5天】【大模型】大语言模型训练数据中的偏差概念及其可能的影响?
|
7月前
大模型开发:描述一个你遇到过的具有挑战性的数据集问题以及你是如何解决它的。
在大模型开发中,面对不平衡数据集(某些类别样本远超其他类别)的问题,可能导致模型偏向多数类。在二分类问题中,正样本远少于负样本,影响模型学习和性能。为解决此问题,采用了数据重采样(过采样、欠采样)、SMOTE技术合成新样本、使用加权交叉熵损失函数、集成学习(Bagging、Boosting)以及模型调整(复杂度控制、早停法、正则化)。这些策略有效提升了模型性能,尤其是对少数类的预测,强调了针对数据集问题灵活运用多种方法的重要性。
78 0
|
7月前
|
机器学习/深度学习 自然语言处理 算法
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
241 1
下一篇
DataWorks