TensorFlow2实现空间自适应归一化(Spatial Adaptive Normalization, SPADE)

简介: GauGAN的主要创新是用于分割图的层归一化方法,称为空间自适应归一化(Spatial Adaptive Normalization, SPADE)。自此,GAN归一化家族中又添加了一新秀归一化技术。

空间自适应归一化(Spatial Adaptive Normalization, SPADE)

空间自适应归一化 (Spatial Adaptive Normalization, SPADE) 是 GauGAN 中的主要创新点,其用于语义分割图的层归一化,为了更好的解释 SPADE,需要首先了解GauGAN的网络输入——语义分割图。

使用独热编码标记分割蒙版

考虑训练 GauGAN 所用的 Facades 数据集。其中,分割图在 RGB 图像中被编码为不同的颜色,如下图所示。例如,一堵墙以蓝色表示,柱子以红色表示。这种表示在视觉上让我们易于理解,但对神经网络的学习并没有帮助,这是因为对于 GAN 而言,颜色没有语义。

绘图134.png

颜色在颜色空间中更接近并不意味着它们在语义上也接近。例如,我们可以用浅绿色表示草,用深绿色表示飞机,即使分割图的色相接近,它们的语义也不相关。

因此,我们应该使用类标签,而不是使用颜色来标记像素。但是,这仍然不能解决问题,因为类别标签是随机分配的数字,并且它们也没有语义。因此,一种更好的方法是在该像素中存在对象时使用标签为1的分割蒙版,否则使用标签为 0 的分割蒙版。换句话说,我们将分割图中的标签独热编码为形状 (H, W, number of classes) 的分割蒙版。

在 JPEG 编码中,在压缩过程中会删除一些对视觉效果不太重要的视觉信息。即使结果像素应该属于同一类并且看起来是相同的颜色,它们也可能具有不同的值。因此,我们无法将 JPEG 图像中的颜色映射到类。为了解决这个问题,我们需要使用未压缩的图片格式 BMP。在图像加载和预处理中,我们将加载文件,并将它们从 BMP 转换为独热编码的分割蒙版。

有时,TensorFlow 的基本图像预处理 API 无法执行一些复杂的任务,因此我们需要使用其他 Python 库,tf.py_function 允许我们在 TensorFlow 训练流程中运行通用 Python 函数:

defload(image_file):
defload_data(image_file):
jpg_file=image_file.numpy().decode('utf-8')
bmp_file=jpg_file.replace('.jpg', '.bmp')
png_file=jpg_file.replace('.jpg', '.png')
image=np.array(Image.open(jpg_file))/127.5-1map=np.array(Image.open(png_file))/127.5-1labels=np.array(Image.open(bmp_file), dtype=np.uint8)
h,w,_=image.shapen_class=12mask=np.zeros((h,w,n_class),dtype=np.float32)
foriinrange(n_class):
one_hot[labels==i,i] =1returnmap, image, mask    [mask, image, label] =tf.py_function(load_data, [image_file], [tf.float32, tf.float32, tf.float32])

了解了独热编码的语义分割掩码的格式后,我们将使用 TensorFlow2 实现 SPADE。

实现SPADE

实例归一化已在图像生成中非常流行,但是它往往会削弱分割蒙版的语义:假设输入图像仅包含一个分割标签;例如,假设整个图像都是天空,由于输入具有统一的值,因此输出在通过卷积层后也将具有统一的值。

实例归一化为每个通道计算跨维度 (H, W) 的平均值。因此,该通道的均值将是相同的统一值,并且用均值减去后的归一化激活将变为零。显然,语义已经丢失,这是一个十分极端的示例,但是逻辑是相似的,我们可以看到分割掩码随着其面积的增大而失去了其语义含义。

为了解决这个问题,SPADE 规范化了由分割蒙版限定的局部区域,而不是整个蒙版。下图显示了 SPADE 的体系结构:

绘图135.png

在批归一化中,计算跨维度 (N, H, W) 的通道的均值和标准差,对于 SPADE 来说是相同的。区别在于,每个通道的 γ 和 β 不再是标量值,而是二维向量,形状为 (H, W)。换句话说,对于每个从语义分割图中获悉的激活,都有一个 γ 和 β 值。因此,归一化被不同地应用于不同的分割区域。这两个参数是通过使用两个卷积层来学习的,如下图所示:

绘图136.png

SPADE 不仅应用于网络输入阶段,同样还应用于内部层。现在,我们可以为使用 TensorFlow2 的自定义层实现 SPADE。

将首先在 __init__ 构造函数中定义卷积层,如下所示:

classSPADE(layers.Layer):
def__init__(self, filters, epsilon=1e-5):
super(SPADE, self).__init__()
self.epsilon=epsilonself.conv=layers.Conv2D(128, 3, padding='same', activation='relu')
self.conv_gamma=layers.Conv2D(filters, 3, padding='same')
self.conv_beta=layers.Conv2D(filters, 3, padding='same')

接下来,获得激活图尺寸,以在以后调整大小时使用:

defbuild(self, input_shape):
self.resize_shape=input_shape[1:3]

最后,在 call() 中将层和操作连接在一起,如下所示:

defcall(self, input_tensor, raw_mask):
mask=tf.image.resize(raw_mask, self.resize_shape, method='nearest')
x=self.conv(mask)
gamma=self.conv_gamma(x)
beta=self.conv_beta(x)
mean, var=tf.nn.moments(input_tensor, axes=(0,1,2), keepdims=True)
std=tf.sqrt(var+self.epsilon)
normalized= (input_tensor-mean) /stdoutput=gamma*normalized+betareturnoutput

接下来,我们将研究如何利用 SPADE。

在残差网络中应用SPADE

最后,将研究如何将 SPADE 插入残差块中:

绘图137.png

SPADE 残差块中的基本构建块是 SPADE-ReLU-Conv 层。每个 SPADE 都接受两个输入——上一层的激活和语义分割图。

与标准残差块一样,有两个卷积 ReLU 层和一个跳跃路径。只要残差块之前和之后的通道数发生变化,就需要进行学习跳跃连接连接。发生这种情况时,前向路径中两个 SPADE 的输入处的激活图将具有不同的尺寸。但是,我们已经在 SPADE 块中内置了调整大小的功能。以下是用于 SPADE 残差块构建所需图层的代码:

classResblock(layers.Layer):
def__init__(self, filters):
super(Resblock, self).__init__()
self.filters=filtersdefbuild(self, input_shape):
input_filter=input_shape[-1]
self.spade_1=SPADE(input_filter)
self.spade_2=SPADE(self.filters)
self.conv_1=layers.Conv2D(self.filters, 3, padding='same')
self.conv_2=layers.Conv2D(self.filters, 3, padding='same')
self.learned_skip=Falseifself.filters!=input_filter:
self.learned_skip=Trueself.spade_3=SPADE(input_filter)
self.conv_3=layers.Conv2D(self.filters, 3, padding='same')

最后,在 call() 中将各层连接起来:

defcall(self, input_tensor, mask):
x=self.spade_1(input_tensor, mask)
x=self.conv_1(tf.nn.leaky_relu(x, 0.2))
x=self.spade_2(x, mask)
x=self.conv_2(tf.nn.leaky_relu(x, 0.2))
ifself.learned_skip:
skip=self.spade_3(input_tensor, mask)
skip=self.conv_3(tf.nn.leaky_relu(skip, 0.2))
else:
skip=input_tensoroutput=skip+xreturnoutput
相关文章
|
机器学习/深度学习 PyTorch Go
YOLOv5的Tricks | 【Trick4】参数重结构化(融合Conv+BatchNorm2d)
这篇文章是想要记录yolov5在模型搭建过程中的一个融合模块,就是把卷积与批归一化的参数进行融合,想卷积带有批归一化的性质,使得推理过程中可以加快模型推理速度,简化整个模型结构,实现训练与推理两个阶段的解耦。
931 0
YOLOv5的Tricks | 【Trick4】参数重结构化(融合Conv+BatchNorm2d)
|
1月前
|
机器学习/深度学习 测试技术 计算机视觉
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
|
24天前
|
机器学习/深度学习 计算机视觉 Python
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力.EMA(Efficient Multi-Scale Attention)模块是一种高效多尺度注意力机制,旨在提高计算机视觉任务中的特征表示效果。该模块通过结合通道和空间信息、采用多尺度并行子网络结构以及优化坐标注意力机制,实现了更高效和有效的特征表示。EMA模块在图像分类和目标检测任务中表现出色,使用CIFAR-100、ImageNet-1k、MS COCO和VisDrone2019等数据集进行了广泛测试。
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力
|
6月前
|
存储 机器学习/深度学习 计算机视觉
【YOLOv8改进-卷积Conv】 OREPA(Online Convolutional Re-parameterization):在线卷积重参数化
**OREPA**是在线卷积重参数化的缩写,它提出了一种两阶段流程来减少深度模型训练的开销。该方法通过线性缩放层优化复杂训练块,并在训练完成后将其压缩为单个卷积层,降低内存使用和提高训练速度。与现有技术相比,OREPA能减少约70%的训练内存开销,提升2倍训练速度,并在ImageNet上提高最多0.6%的准确性。此外,它还在目标检测和语义分割任务中表现出色。论文和代码可在提供的链接中找到。
|
机器学习/深度学习 PyTorch 算法框架/工具
空间金字塔池化(Spatial Pyramid Pooling, SPP)原理和代码实现(Pytorch)
想直接看公式的可跳至第三节 3.公式修正 一、为什么需要SPP 首先需要知道为什么会需要SPP。 我们都知道卷积神经网络(CNN)由卷积层和全连接层组成,其中卷积层对于输入数据的大小并没有要求,唯一对数据大小有要求的则是第一个全连接层,因此基本上所有的CNN都要求输入数据固定大小,例如著名的VGG模型则要求输入数据大小是 (224*224) 。
2207 0
|
6月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力 (论文笔记+引入代码)
YOLO目标检测专栏介绍了创新的多尺度注意力模块EMA,它强化通道和空间信息处理,同时降低计算负担。EMA模块通过通道重塑和并行子网络优化特征表示,增强长距离依赖建模,在保持效率的同时提升模型性能。适用于图像分类和目标检测任务,尤其在YOLOv8中表现出色。代码实现和详细配置可在文中链接找到。
|
6月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进】 ODConv(Omni-Dimensional Dynamic Convolution):全维度动态卷积
ODConv是一种增强型动态卷积方法,通过多维注意力机制在卷积的四个维度上学习互补注意力,提升轻量级CNN准确性和效率。与现有动态卷积不同,ODConv覆盖了空间、输入/输出通道和核数维度。在ImageNet和MS-COCO上,对MobileNetV2|ResNet等模型有显著性能提升,减少参数的同时超越传统方法。代码和论文链接可用。在YOLO系列中,ODConv改进了特征学习,优化了目标检测性能。
|
6月前
|
存储 PyTorch 算法框架/工具
【chat-gpt问答记录】关于pytorch中的线性层nn.Linear()
【chat-gpt问答记录】关于pytorch中的线性层nn.Linear()
114 0
|
7月前
|
数据可视化
R语言nlme、nlmer、lme4用(非)线性混合模型non-linear mixed model分析藻类数据实例(上)
R语言nlme、nlmer、lme4用(非)线性混合模型non-linear mixed model分析藻类数据实例
|
7月前
|
资源调度 安全
R语言nlme、nlmer、lme4用(非)线性混合模型non-linear mixed model分析藻类数据实例(下)
R语言nlme、nlmer、lme4用(非)线性混合模型non-linear mixed model分析藻类数据实例