CVPR论文 | 如何处理多种退化类型的卷积超分辨率?

简介: 近年来,深度卷积神经网络(CNN)方法在单幅图像超分辨率(SISR)领域取得了非常大的进展。然而现有基于CNN的SISR方法主要假设低分辨率(LR)图像由高分辨率(HR)图像经过双三次(bicubic)降采样得到,因此当真实图像的退化过程不遵循该假设时,其超分辨结果会非常差。

image

〔小叽导读〕:近年来,深度卷积神经网络(CNN)方法在单幅图像超分辨率(SISR)领域取得了非常大的进展。然而现有基于CNN的SISR方法主要假设低分辨率(LR)图像由高分辨率(HR)图像经过双三次(bicubic)降采样得到,因此当真实图像的退化过程不遵循该假设时,其超分辨结果会非常差。此外,现有的方法不能扩展到用单一模型解决多种不同的图像退化类型。

为此,提出了一种维度拉伸策略使得单个卷积超分辨率网络能够将SISR退化过程的两个关键因素(即模糊核和噪声水平)作为网络输入。归因于此,训练得到超分辨网络模型可以处理多个甚至是退化空间不均匀的退化类型。实验结果表明提出的卷积超分辨率网络可以快速、有效地处理多种图像退化类型,为SISR实际应用提供了一种高效、可扩展的解决方案。

1.引言

单幅图像超分辨率(SISR)的目的是根据单幅低分辨(LR)图像输入得到清晰的高分辨率(HR)图像。一般来说,LR图像y是清晰HR图像x由下面的退化过程得来:image

其中image表示HR清晰图像x与模糊核k之间的卷积,image表示系数为s的降采样算子,n表示标准差(噪声水平)为的加性高斯白噪声(AWGN)。

SISR方法主要分为三类:基于插值的方法、基于模型的方法以及基于判别学习的方法。

基于插值的方法(例如:最近邻插值、双三次插值)虽然速度快,但是其效果比较差。基于模型的方法通过引入图像先验,例如:非局部相似性先验、去噪先验等,然后求解目标函数得到视觉质量较好的HR图像,然而速度较慢。虽然结合基于CNN的去噪先验可以在某种程度上提升速度,但仍然受限于一些弊端,例如:无法进行端对端的训练,包含一些比较难调的参数等。

基于判别学习的方法尤其是基于CNN的方法因其速度快、可以端对端的学习因而效果好等在近几年受到了广泛关注,并且逐渐成为解决SISR的主流方法。

自从首个用CNN解决SISR的工作SRCNN在ECCV(2014)发表以来,各种不同的改进方法相继提出。例如,VDSR在PSNR指标上取得了非常大的提升;ESPCN和FSRCNN分别在速度上进行了改进;SRGAN在放大倍数较大情况下针对视觉效果的改善提出了有效的方法。

然而这些方法都存在一个共同缺点,也就是它们只考虑双三次(bicubic)降采样退化模型并且不能灵活地将其模型扩展到同时(非盲)处理其它退化类型。由于真实图像的退化过程多种多样,因而此类方法的有效实际应用场景非常有限。

一些SISR工作已经指出图像退化过程中的模糊核的准确性对SISR起着至关重要的作用,然而并没有基于CNN的相关工作将模糊核等因素考虑在内。为此引出本文主要解决的问题:是否可以设计一个非盲超分辨率(non-blind SISR)模型用以解决不同的图像退化类型?

2.方法

本文首先分析了在最大后验(MAP)框架下的SISR方法,借此希望可以指导CNN网络结构的设计。由于SISR问题的不适定性,通常需要引入正则项来约束解空间。具体来说,LR图像y对应的HR图像x可以通过求解下述问题近似:image

其中image为似然(也即数据保真)项,image为先验(也即正则)项,image为似然项和先验项之间的权衡参数。

简单来说,上述公式包含两点:

估计得到的HR图像不仅要符合SISR的退化过程,并且还要满足清晰图像所具有的先验特征;

对于非盲超分辨率问题,x的求解与LR图像y、模糊核k、噪声水平image以及权衡参数image有关。

简而言之,非盲SISR的MAP估计可以表示为image,其中image为MAP估计中的参数。进而如果将CNN看作MAP估计另一种形式的解,那么有如下结论:

由于数据保真项对应着SISR的退化过程,因此退化过程的准确建模对SISR的结果起着至关重要的作用。然而现有的基于CNN的方法其目标是求解下面的问题:image。由于没有将模糊核和噪声等因素考虑在内,因此其实用性非常有限。

为了设计更加有效的基于CNN的SISR模型,应该将更多的图像退化类型考虑在内,一个简单的思路就是将模糊核k和噪声水平image也作为网络的输入。由于权衡参数image可以融入噪声水平image之中,因此CNN映射函数可以简化成如下形式:image

由于MAP估计中大部分的参数都对应着图像先验部分,而图像先验是与图像退化过程不相关的,因此单一的CNN模型具有处理不同退化类型的建模能力。

通过上述分析可以得出非盲SISR应该将退化模型中的模糊核和噪声水平也作为网络的输入。然而LR图像、模糊核和噪声水平三者的维度是不同的,因此不能直接作为CNN的输入。

为此本文提出了一种维度拉伸策略。假设LR图像大小为image,首先将向量化的模糊核PCA降维,然后和噪声水平并在一起得到一个t+1维的向量v,接着将v拉伸为image维的张量,我们将此张量称之为退化图(Degradation Maps),其中第i个图image的所有元素均为。

image


图1:维度拉伸示意图

至此,我们可以将退化图和LR图像合并在一起作为CNN的输入。为了证明此策略的有效性,选取了快速有效的ESPCN超分辨网络结构框架。值得注意的是为了加速训练过程的收敛速度,同时考虑到LR图像中包含高斯噪声,因此网络中加入了Batch Normalization层。

图2给出了提出的超分辨率网络(简称SRMD)结构框架。

image


图2:提出的超分辨率网络结构框架(卷积层数为12,每层通道数为128)。

3.实验

在训练阶段,SRMD采用了各向同性和各向异性的高斯模糊核、噪声水平在[0, 75]之间的高斯白噪声以及 bicubic降采样算子。需要指出的是SRMD可以扩展到其它降采样算子,甚至其它退化模型。

在测试阶段,SRMD比较了不同方法在同为bicubic降采样退化下的PSNR和SSIM结果(如表1所示)。可以看出虽然SRMD是用来处理各种不同的退化类型,但是仍然在bicubic降采样退化下取得不错的效果。需要指出的是SRMD在速度上也有很大的优势,在Titan Xp GPU上处理512×512的LR图像仅需0.084秒,是VDSR超分辨率两倍所用时间的一半。

表2给出了不同退化类型下的PSNR和SSIM结果比较,可以看到SRMD同样取得了不错的效果。图4举例说明了SRMD可以设定非均匀退化图,进而可以处理退化空间不均匀的LR图像。最后,图5展示了不同方法在真实图像上的视觉效果比较,可以看到SRMD复原的HR图像在视觉效果上明显优于其它方法。

image

表1:不同方法在bicubic降采样退化下的PSNR和SSIM结果比较(其中SRMDNF表示不考虑噪声情况下训练得到的模型)。

image

图3:不同方法在bicubic降采样退化下超分辨率四倍的视觉效果比较。

image

表2:不同方法在不同退化类型下的PSNR和SSIM结果比较。

image

图4:举例说明SRMD可以处理退化空间不均匀的情形。(a)噪声水平以及模糊核宽度的空间分布;(b)LR图像(最近邻插值放大);(c)复原得到的HR图像(放大两倍)。

image

图5:不同方法在SISR经典测试图像“Chip”上超分辨率四倍的视觉效果比较。

4.结论

最后总结一下,本文的主要贡献有三个方面:

提出了一种简单、有效、可扩展的超分辨率模型,其不仅可以处理bicubic降采样退化模型,并且可以处理多个甚至是退化空间不均匀的退化类型,为SISR实际应用提供了一种解决方案。

提出了一种简单有效的维度拉伸策略使得卷积神经网络可以处理维度不同的输入,此策略可以扩展到其他应用。

通过实验展示了用合成图像训练得到的超分辨网络模型可以有效的处理真实图像复杂的退化类型。

原文发布时间为:2018-07-24
本文作者: 张凯
本文来自云栖社区合作伙伴“ 阿里巴巴机器智能”,了解相关信息可以关注“ 阿里巴巴机器智能”。

相关文章
|
7月前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8改进-论文笔记】 AKConv(可改变核卷积):任意数量的参数和任意采样形状的即插即用的卷积
AKConv是一种可改变核卷积,旨在解决传统卷积的局限,包括固定大小的卷积窗口和卷积核尺寸。AKConv提供灵活的卷积核参数和采样形状,适应不同尺度特征。其创新点包括:1)支持任意大小和形状的卷积核;2)使用新算法确定初始采样位置;3)应用动态偏移调整采样位置;4)优化模型参数和计算效率。AKConv已应用于YOLOv8,提高网络性能。相关代码可在<https://github.com/CV-ZhangXin/AKConv>找到。
|
7月前
|
机器学习/深度学习 编解码 计算机视觉
【YOLOv8改进】 SPD-Conv空间深度转换卷积,处理低分辨率图像和小对象问题 (论文笔记+引入代码)
YOLO目标检测专栏探讨了CNN在低分辨率和小目标检测中的局限性,提出SPD-Conv新架构,替代步长卷积和池化层,通过空间到深度层和非步长卷积保持细粒度信息。创新点包括消除信息损失、通用设计和性能提升。YOLOv5和ResNet应用SPD-Conv后,在困难任务上表现优越。详情见YOLO有效改进系列及项目实战目录。
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进-论文笔记】SCConv :即插即用的空间和通道重建卷积
该文介绍了一种针对卷积神经网络(CNN)的改进方法,名为SCConv,旨在减少计算冗余并提升特征学习效率。SCConv包含空间重构单元(SRU)和通道重构单元(CRU),分别处理空间和通道冗余。SRU利用分离-重构策略抑制空间冗余,而CRU通过分割-变换-融合策略减少通道冗余。SCConv可直接插入现有CNN架构中,实验结果显示,整合SCConv的模型能在降低复杂性和计算成本的同时保持或提高性能。此外,文章还展示了如何在YOLOv8中应用SCConv。
|
7月前
|
机器学习/深度学习 编解码 算法
大卷积核大有用处 | LSKNet + DiffusionDet更高更强的目标检测模型
大卷积核大有用处 | LSKNet + DiffusionDet更高更强的目标检测模型
161 0
|
7月前
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
|
7月前
|
机器学习/深度学习 编解码 数据可视化
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割
|
机器学习/深度学习 编解码 计算机视觉
建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!
建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!
72 0
|
机器学习/深度学习
CVPR2021 GAN详细解读 | AdaConv自适应卷积让你的GAN比AdaIN更看重细节(附论文下载)(二)
CVPR2021 GAN详细解读 | AdaConv自适应卷积让你的GAN比AdaIN更看重细节(附论文下载)(二)
161 0
|
机器学习/深度学习 编解码 计算机视觉
CVPR2021 GAN详细解读 | AdaConv自适应卷积让你的GAN比AdaIN更看重细节(附论文下载)(一)
CVPR2021 GAN详细解读 | AdaConv自适应卷积让你的GAN比AdaIN更看重细节(附论文下载)(一)
488 0
|
机器学习/深度学习 存储 人工智能
用CNN做基础模型,可变形卷积InternImage实现检测分割新纪录!
用CNN做基础模型,可变形卷积InternImage实现检测分割新纪录!
242 0