低光图像增强

简介: 这篇摘要讨论了低光照图像增强技术,涉及HDRNet、GAN、轻量化伪影、语义分割网络和Retinex等方法。核心任务是提升图像亮度和细节。方法包括分布映射(如伽马矫正、直方图均衡化)、模型优化(Retinex理论)和深度学习(亮度增强与噪声去除)。传统方法不依赖数据,但可能产生伪影;深度学习方法需大量训练数据,无监督学习更优。不足之处在于缺乏成对数据集和精确标签。

低光照图像综述

关键名词:HDRNet(high dynamic range network)  GAN(gen-erative adversarial network)  轻量化 伪影 语义分割网络   Retinex   拉普拉斯 金字塔

鲁棒性  RUAS  泛化能力



内容:

     低光照图像增强的一个核心任务在于提升图像亮度以显示更多结构与细节

     为获取肉眼可见且信息高质量图像   1)通过物理成像过程的参数设置来提高成像质量。2)提高ISO 构建智能化算法提高图像质量。

      根据算法设计理念不同,现有低光照增强算法分为三大类:

1>基于分布映射的方法(S型曲线变换(伽马矫正)直方图均衡化)


缺点:(1)缺乏对低光照图像自身对于光照需求的建模以及忽略了分布内在的联系,以至于无法有效区分语义,进而导致该类技术生成的结果往往存在颜色失真,以及细节异常等视觉不友好的现象。

          (2)对于低光照增强而言,伽马矫正的增强结果极其不自然且不真实,尤其在曝光水平和细节表现上。基于S型曲线的方法,曝光不均匀现象仍然是存在的最大的问题


改进:双直方图均衡化方法,二元子图像直方图均衡化方法 (实现曝光的自然化处理)

           自适应直方图均衡化方法   对比度自适应的直方图均衡化方法 (处理细节损失)

           双边滤波分解低光观测随后采用不同参数设置的S型曲线方法处理分解层,并进行重新组合。

           试图对通过分割输入而产生的每个子区域执行S型曲线功能。

2>基于模型优化的方法   (基于迭代的算法流程,Retinex理论)


缺点:限于设计的先验的刻画能力,这些传统算法往往会产生曝光不足、色彩不饱和以及伪影或噪声明显的问题。


3>基于深度学习的方法(分为两大类:用于亮度增强的方法    联合亮度增强与噪声去除的方法)

缺点(难点):缺乏有效的训练数据对



(传统与深度学习)二者对比:

     基于模型优化的方法整体上优于基于深度学习的方法,基于模型优化的方法不依赖于数据的影响,现相对突出的基于深度学习方法(表现为前两名)当中,除 FIDE外,均属于无监督方法。



基于模型优化的工作在某些具有挑战的场景中能够实现令人满意的性能。基于深度学习的方法依赖于大量的训练数据,数据是影响性能的重要因素,


基于深度学习的方法无法将已经训练好的模型快速的应用于另一种不同分布的数据上   基于无监督深度学习的方法要普遍优于全监督的深度学习方法  

传统方法通过对图像本身进行分析,不依赖于数据的影响,性能较为稳定


不足:大多数的数据集属于非成对数

据,而由于低光照图像增强建模中的光照难以得到,

无法有效合成理想的成对数据集,因此现有的成对

低光照图像数据集中的标签主要依赖于手工参数的

设置(调整曝光时间或专家修饰),存在多种物理因

素变化带来的误差,使得标签不精确;此外,一些数

据集的构造过程考虑了检测标签,即与高层视觉任

务建立联系

相关文章
halcon的灰度变换(图像增强)
halcon的灰度变换(图像增强)
918 1
|
机器学习/深度学习 人工智能 自然语言处理
视觉 注意力机制——通道注意力、空间注意力、自注意力
本文介绍注意力机制的概念和基本原理,并站在计算机视觉CV角度,进一步介绍通道注意力、空间注意力、混合注意力、自注意力等。
11745 58
|
算法 计算机视觉
图像处理之基于高斯金字塔的图像融合
图像处理之基于高斯金字塔的图像融合
121 3
|
10月前
|
机器学习/深度学习 存储 编解码
什么是图像噪声?是如何产生的?图像去噪技术都有哪些?
图像噪声是在图像采集、传输和处理过程中产生的像素值异常现象,主要由光子计数统计、电子偏移和放大器噪声等因素引起。噪声影响图像质量,降低信噪比,使特征难以识别。图像去噪技术包括传统方法(如空间域滤波、频域滤波、图像压缩和超糅合)和基于深度学习的方法(如卷积神经网络、残差网络和生成对抗网络),旨在有效去除噪声,提高图像质量。
|
11月前
|
机器学习/深度学习
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
本文探讨了深度可分离卷积和空间可分离卷积,通过代码示例展示了它们在降低计算复杂性和提高效率方面的优势。
2034 2
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
前端大模型入门(三):编码(Tokenizer)和嵌入(Embedding)解析 - llm的输入
本文介绍了大规模语言模型(LLM)中的两个核心概念:Tokenizer和Embedding。Tokenizer将文本转换为模型可处理的数字ID,而Embedding则将这些ID转化为能捕捉语义关系的稠密向量。文章通过具体示例和代码展示了两者的实现方法,帮助读者理解其基本原理和应用场景。
2816 1
|
XML 机器学习/深度学习 数据格式
YOLOv8训练自己的数据集+常用传参说明
YOLOv8训练自己的数据集+常用传参说明
19456 1
|
机器学习/深度学习 自然语言处理 大数据
【Transformer系列(2)】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解
【Transformer系列(2)】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解
6781 2
【Transformer系列(2)】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解
|
计算机视觉
限制对比度自适应直方图均衡化
【6月更文挑战第12天】限制对比度自适应直方图均衡化。
184 1
|
机器学习/深度学习 计算机视觉 知识图谱
【YOLOv8改进】ACmix(Mixed Self-Attention and Convolution) (论文笔记+引入代码)
YOLO目标检测专栏探讨了YOLO的改进,包括卷积和自注意力机制的创新结合。研究发现两者在计算上存在关联,卷积可分解为1×1卷积,自注意力也可视为1×1卷积的变形。由此提出ACmix模型,它整合两种范式,降低计算开销,同时提升图像识别和下游任务的性能。ACmix优化了移位操作,采用模块化设计,实现两种技术优势的高效融合。代码和预训练模型可在相关GitHub和MindSpore模型库找到。 yolov8中引入了ACmix模块,详细配置参见指定链接。