背景知识
VGG 和 ResNet 回顾
1,VGGNet
系列网络有 5
个卷积阶段 ,以 VGG16
为例,每一个卷积阶段内有 2~3
个卷积层,同时每段尾部会连接一个最大池化层来缩小 Feature map
尺寸。每个阶段内的卷积核数量一样,越靠后的卷积核数量越多,分别是: 64-128-256-512-512
。VGG16
每段卷积对应的卷积层数量为 2-2-3-3-3
,5
段卷积的总层数为 2+2+3+3+3=132+2+3+3+3 = 132+2+3+3+3=13,再加上最后的三个全连接分类层,总共是 16
层网络,所以命令为 VGG16
。5
个卷积阶段的卷积核数量依次呈 2
倍递增关系: 64-128-256-512-512
。VGG
系列网络结构参数表如下图所示。
2,ResNet18
也拥有 5
个卷积阶段 ,由 1 个单独的 7×77 \times 77×7 卷积层和工程代码中 make_layer
函数产生的四个 layer
(四个卷积阶段)组成,每个 layer
的基础残差模块(basic block)数量(即 units 数量)为 2,因为 basic block
中只包含了 2
层卷积,故所有残差模块的总层数为 (2+2+2+2)∗2=16(2+2+2+2)*2=16(2+2+2+2)∗2=16,再加上第一层的卷积和最后一层的分类,总共是 18
层,所以命名为 ResNet18
。5 段卷积的卷积核数量也依次呈 2
倍递增关系: 64-64-128-256-512
。ResNet18
网络具体参数表如下所示。
总结:小卷积核代替大卷积核,分段卷积,卷积核数量逐段呈 2
倍递增,Feature Map
尺寸逐段呈 1/2
倍递减。
MAC 计算
MAC
(memory access cost) 内存访问次数也叫内存使用量,CNN
网络中每个网络层 MAC
的计算分为读输入 feature map
大小、权重大小(DDR
读)和写输出 feature map
大小(DDR
写)三部分。 以卷积层为例计算 MAC
,可假设某个卷积层输入 feature map 大小是 (Cin, Hin, Win
),输出 feature map 大小是 (Hout, Wout, Cout
),卷积核是 (Cout, Cin, K, K
),理论 MAC(理论 MAC 一般小于 实际 MAC)计算公式如下:
feature map
大小一般表示为 (N, C, H, W
),MAC
指标一般用在端侧模型推理中,端侧模型推理模式一般都是单帧图像进行推理,即N = 1(batch_size = 1)
,不同于模型训练时的batch_size
大小一般大于 1。
input = Hin x Win x Cin # 输入 feature map 大小 output = Hout x Wout x Cout # 输出 feature map 大小 weights = K x K x Cin x Cout + bias # bias 是卷积层偏置 ddr_read = input + weights ddr_write = output MAC = ddr_read + ddr_write 复制代码
卷积运算与矩阵乘积
点积
- 在数学中,点积(英语:
Dot Product
)又称数量积或标量积(英语:Scalar Product),是一种接受两个等长的数字序列(通常是坐标向量)、返回单个数字的代数运算。 - 在欧几里得几何中,两个笛卡尔坐标向量的点积常称为内积(英语:
Inner Product
),见内积空间。
卷积运算,可以看作是一串内积运算,等效于矩阵相乘,因此卷积满足交换、结合等定律。
矩阵乘积的常用性质:
- 分配律: A(B+C)=AB+BCA(B+C) = AB+BCA(B+C)=AB+BC
- 结合律: A(BC)=(AB)CA(BC) = (AB)CA(BC)=(AB)C
- 交换律:绝大多数情况不满足交换律,即大多数情况下 AB≠BAAB \neq BAAB=BA。
ACNet 理解
学习 ACNet 之前,首先得理解卷积计算的恒等式,它是“结构重参数化思想”的理论基础,卷积计算的恒等式的示意图如下图 2
所示。
概念结构重参数化(structural re-parameterization)指的是首先构造一系列结构(一般用于训练),并将其参数等价转换为另一组参数(一般用于推理),从而将这一系列结构等价转换为另一系列结构。
下面等式表达的意思就是对于输入特征图 III,先进行 K(1)K^{(1)}K(1) 和 III 卷积、K(2)K^{(2)}K(2) 和 III 卷积,再对结果进行相加,与先进行 K(1)K^{(1)}K(1) 和 K(2)K^{(2)}K(2) 的逐点相加后再和 III 进行卷积得到的结果是一致的(可通过矩阵乘积的分配律来理解)。这是 ACNet
在推理阶段不增加任何计算量的理论基础,但同时训练阶段计算量增加,训练时间更长,需要的显存更大。
I∗K(1)+I∗K(2)=I∗(K(1)⊕K(2))I \ast K^{(1)} + I \ast K^{(2)} = I \ast (K^{(1)} \oplus K^{(2)})I∗K(1)+I∗K(2)=I∗(K(1)⊕K(2))
ACNet
的创新分为训练和推理阶段:
- 训练阶段:将现有网络中的每一个 3×33 \times 33×3 卷积层换成 3×13 \times 13×1 卷积 + 1×31 \times 31×3卷积 + 3×33 \times 33×3 卷积共三个卷积层,并将三个卷积层的计算结果进行相加得到最终卷积层的输出。因为这个过程引入的 1×31 \times 31×3 卷积和 3×13 \times 13×1 卷积是非对称的,所以将其命名为
Asymmetric Convolution
。论文中有实验证(见论文Table 4
)明引入 1×31 \times 31×3 这样的水平卷积核可以提升模型对图像上下翻转的鲁棒性,竖直方向的 3×13 \times 13×1 卷积核同理。 - 推理阶段:主要是对三个卷积核进行融合,这部分在实现过程中就是使用融合后的卷积核参数来初始化现有的网络。
推理阶段的卷积融合操作是和 BN
层一起的,融合操作发生在 BN
之后,论文实验证明融合在 BN
之后效果更好些。推理阶段卷积层融合操作示意图如下所示(BN 操作省略了 ε\varepsilonε):
ACBlock
的训练阶段权重参数转化为推理阶段的权重参数的代码如下所示。
def get_equivalent_kernel_bias(self): hor_k, hor_b = self._fuse_bn_tensor(self.hor_conv, self.hor_bn) ver_k, ver_b = self._fuse_bn_tensor(self.ver_conv, self.ver_bn) square_k, square_b = self._fuse_bn_tensor(self.square_conv, self.square_bn) self._add_to_square_kernel(square_k, hor_k) self._add_to_square_kernel(square_k, ver_k) return square_k, hor_b + ver_b + square_b def _fuse_bn_tensor(self, conv, bn): std = (bn.running_var + bn.eps).sqrt() t = (bn.weight / std).reshape(-1, 1, 1, 1) return conv.weight * t, bn.bias - bn.running_mean * bn.weight / std def _add_to_square_kernel(self, square_kernel, asym_kernel): asym_h = asym_kernel.size(2) asym_w = asym_kernel.size(3) square_h = square_kernel.size(2) square_w = square_kernel.size(3) # 水平卷积和竖直卷积分别在对应位置和 square con 的权重相加 square_kernel[:, :, square_h // 2 - asym_h // 2: square_h // 2 - asym_h // 2 + asym_h, square_w // 2 - asym_w // 2: square_w // 2 - asym_w // 2 + asym_w] += asym_kernel 复制代码
ACBlock 的 Pytorch 代码实现
作者开源了代码,将原始 3×33\times 33×3 卷积替换成 3×3+3×1+1×33 \times 3 + 3 \times 1 + 1 \times33×3+3×1+1×3 卷积的训练阶段基础结构 ACBlock
代码如下:
import torch.nn as nn class CropLayer(nn.Module): """# 去掉因为 3x3 卷积的 padding 多出来的行或者列 """ # E.g., (-1, 0) means this layer should crop the first and last rows of the feature map. And (0, -1) crops the first and last columns def __init__(self, crop_set): super(CropLayer, self).__init__() self.rows_to_crop = - crop_set[0] self.cols_to_crop = - crop_set[1] assert self.rows_to_crop >= 0 assert self.cols_to_crop >= 0 def forward(self, input): return input[:, :, self.rows_to_crop:-self.rows_to_crop, self.cols_to_crop:-self.cols_to_crop] class ACBlock(nn.Module): """# ACNet 论文提出的 3x3+1x3+3x1 卷积结构 """ def __init__(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, padding_mode='zeros', deploy=False): super(ACBlock, self).__init__() self.deploy = deploy if deploy: self.fused_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(kernel_size,kernel_size), stride=stride, padding=padding, dilation=dilation, groups=groups, bias=True, padding_mode=padding_mode) else: self.square_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(kernel_size, kernel_size), stride=stride, padding=padding, dilation=dilation, groups=groups, bias=False, padding_mode=padding_mode) self.square_bn = nn.BatchNorm2d(num_features=out_channels) center_offset_from_origin_border = padding - kernel_size // 2 ver_pad_or_crop = (center_offset_from_origin_border + 1, center_offset_from_origin_border) hor_pad_or_crop = (center_offset_from_origin_border, center_offset_from_origin_border + 1) if center_offset_from_origin_border >= 0: self.ver_conv_crop_layer = nn.Identity() ver_conv_padding = ver_pad_or_crop self.hor_conv_crop_layer = nn.Identity() hor_conv_padding = hor_pad_or_crop else: self.ver_conv_crop_layer = CropLayer(crop_set=ver_pad_or_crop) ver_conv_padding = (0, 0) self.hor_conv_crop_layer = CropLayer(crop_set=hor_pad_or_crop) hor_conv_padding = (0, 0) self.ver_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(3, 1), stride=stride, padding=ver_conv_padding, dilation=dilation, groups=groups, bias=False, padding_mode=padding_mode) self.hor_conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=(1, 3), stride=stride, padding=hor_conv_padding, dilation=dilation, groups=groups, bias=False, padding_mode=padding_mode) self.ver_bn = nn.BatchNorm2d(num_features=out_channels) self.hor_bn = nn.BatchNorm2d(num_features=out_channels) def forward(self, input): if self.deploy: return self.fused_conv(input) else: square_outputs = self.square_conv(input) # 3x3 convolution square_outputs = self.square_bn(square_outputs) vertical_outputs = self.ver_conv_crop_layer(input) vertical_outputs = self.ver_conv(vertical_outputs) # 3x1 convolution vertical_outputs = self.ver_bn(vertical_outputs) horizontal_outputs = self.hor_conv_crop_layer(input) horizontal_outputs = self.hor_conv(horizontal_outputs) # 1x3 convolution horizontal_outputs = self.hor_bn(horizontal_outputs) # 3x3 卷积、1x3 卷积、3x1 卷积输出结果直接相加(+) return square_outputs + vertical_outputs + horizontal_outputs 复制代码
摘要
论文的主要贡献在于:
- 提出了一种简单而强有力的 CNN 架构 RepVGG,相比
EfficientNet
、RegNet
等架构,RepVGG
具有更佳的精度-速度均衡; - 提出采用重参数化技术对
plain
架构进行训练-推理解耦; - 在图像分类、语义分割等任务上验证了
RepVGG
的有效性。
RepVGG 模型定义
我们说的 VGG
式网络结构通常是指:
- 没有任何分支结构,即通常所说的
plain
或feed-forward
架构。 - 仅使用 3×33 \times 33×3 类型的卷积。
- 仅使用
ReLU
作为激活函数。
VGG
式极简网络结构的五大优势:
- 3x3 卷积非常快。在
GPU
上,3x3 卷积的计算密度(理论运算量除以所用时间)可达 1x1 和 5x5 卷积的四倍。 - 单路架构非常快,因为并行度高。同样的计算量,“大而整”的运算效率远超“小而碎”的运算。已有研究表明:并行度高的模型要比并行度低的模型推理速度更快。
- 单路架构省内存。例如,ResNet 的 shortcut 虽然不占计算量,却增加了一倍的显存占用。
- 单路架构灵活性更好,容易改变各层的宽度(如剪枝)。
- RepVGG 主体部分只有一种算子:
3x3
卷积接ReLU
。在设计专用芯片时,给定芯片尺寸或造价,可以集成海量的3x3
卷积-ReLU
计算单元来达到很高的效率,同时单路架构省内存的特性也可以帮我们少做存储单元。
RepVGG
模型的基本架构简单来说就是:将 20 多层 3×33 \times 33×3 卷积层堆叠起来,分成 5 个 stage,每个 stage 的第一层是 stride=2
的降采样,每个卷积层用 ReLU 作为激活函数。
RepVGG Block 结构
模型结构的创新。
相比于多分支结构(如 ResNet、Inception、DenseNet等),近年来 Plain
式架构模型(VGG
)鲜有关注,主要原因是因为性能差。有研究[1]认为 ResNet 性能好的一种解释是 ResNet 的分支结构(shortcut)产生了一个大量子模型的隐式 ensemble(因为每遇到一次分支,总的路径就变成两倍),单路直连架构显然不具备这种特点。
RepVGG
的设计是受 ResNet
启发得到,尽管多分支结构以对于推理不友好,但对于训练友好,本文作者提出一种新思想:训练一个多分支模型,推理时将多分支模型等价转换为单路模型。参考 ResNet
的 identity
与 1×11 \times 11×1 分支,设计了如下卷积模块:
y=x+g(x)+f(x)y = x + g(x) + f(x)y=x+g(x)+f(x)
其中,xxx, g(x)g(x)g(x), f(x)f(x)f(x) 分别对应恒等映射,1×11 \times 11×1 卷积,3×33 \times 33×3 卷积,即在训练时,为每一个 3x3
卷积层添加平行的 1x1
卷积分支和恒等映射分支,构成一个 RepVGG Block
。这种设计是借鉴 ResNet
的做法,区别在于 ResNet
是每隔两层或三层加一分支,RepVGG
模型是每层都加两个分支(训练阶段)。
训练阶段,通过简单的堆叠上述 RepVGG Block
构建 RepVGG
模型;而在推理阶段,上述模块转换成 y=h(x)y=h(x)y=h(x) 形式, h(x)h(x)h(x) 的参数可以通过线性组合方式从训练好的模型中转换得到。
RepVGG Block 的结构重参数化
训练时使用多分支卷积结构,推理时将多分支结构进行融合转换成单路 3×33 \times 33×3 卷积层,由卷积的线性(具体说就是可加性)原理,每个 RepVGG Block 的三个分支可以合并为一个 3×33 \times 33×3 卷积层(等价转换),Figure 4
详细描绘了这一转换过程。
论文中使用 W3∈RC2×C1×3×3W^{3} \in \mathbb{R}^{C_2 \times C_1 \times 3 \times 3}W3∈RC2×C1×3×3 表示卷积核 shape
为 (C2,C1,3,3)(C_2, C_1, 3, 3)(C2,C1,3,3)的卷积层,W1∈RC2×C1W^{1} \in \mathbb {R}^{C_{2} \times C_{1}}W1∈RC2×C1 表示输入输出通道数为 C2C_2C2、C1C_1C1,卷积核为 1×11 \times 11×1 的卷积分支,采用 μ(3),σ(3),γ(3),β(3)\mu^{(3)}, \sigma^{(3)}, \gamma^{(3)}, \beta^{(3)}μ(3),σ(3),γ(3),β(3) 表示 3×33 \times 33×3 卷积后的 BatchNorm
参数(平均值、标准差、比例因子、偏差),采用 μ(1),σ(1),γ(1),β(1)\mu^{(1)}, \sigma^{(1)}, \gamma^{(1)}, \beta^{(1)}μ(1),σ(1),γ(1),β(1) 表示 1×11 \times 11×1 卷积分支后的 BatchNorm
参数,采用 μ(0),σ(0),γ(0),β(0)\mu^{(0)}, \sigma^{(0)}, \gamma^{(0)}, \beta^{(0)}μ(0),σ(0),γ(0),β(0) 表示 identity
分支后的 BatchNorm
参数。假设 M(1)∈RN×C1×H1×W1M^{(1)} \in \mathbb{R}^{N \times C_1 \times H_1 \times W_1}M(1)∈RN×C1×H1×W1, M(2)∈RN×C2×H2×W2M^{(2)} \in \mathbb{R}^{N \times C_2 \times H_2 \times W_2}M(2)∈RN×C2×H2×W2 分别表示输入输出矩阵,∗\ast ∗ 是卷积算子。当 C2=C1,H1=H2,W1=W2C_2 = C_1, H_1 = H_2, W_1 = W_2C2=C1,H1=H2,W1=W2 时,有
M(2)=bn(M(1)∗W(3),μ(3),σ(3),γ(3),β(3))+bn(M(1)∗W(1),μ(1),σ(1),γ(1),β(1))+bn(M(1),μ(0),σ(0),γ(0),β(0)).(1)\begin{aligned} M^{(2)} &= bn(M^{(1)} \ast W^{(3)}, \mu^{(3)}, \sigma^{(3)}, \gamma^{(3)}, \beta^{(3)}) \\ &+ bn(M^{(1)} \ast W^{(1)}, \mu^{(1)}, \sigma^{(1)}, \gamma^{(1)}, \beta^{(1)}) \\ &+ bn(M^{(1)}, \mu^{(0)}, \sigma^{(0)}, \gamma^{(0)}, \beta^{(0)}). \end{aligned}\tag{1}M(2)=bn(M(1)∗W(3),μ(3),σ(3),γ(3),β(3))+bn(M(1)∗W(1),μ(1),σ(1),γ(1),β(1))+bn(M(1),μ(0),σ(0),γ(0),β(0)).(1)
如果不考虑 identity
的分支,上述等式只有前面两部分。这里 bn
表示推理时 BN
计算函数,1≤i≤C21 \leq i \leq C_21≤i≤C2。bn
函数公式如下:
bn(M,μ,σ,γ,β)=(M:,i,:,:−μi)γiσi+β.(2)\begin{aligned} bn(M, \mu, \sigma, \gamma, \beta) = (M_{:,i,:,:} - \mu_i) \frac{\gamma_i}{\sigma_i} + \beta. \end{aligned}\tag{2}bn(M,μ,σ,γ,β)=(M:,i,:,:−μi)σiγi+β.(2)
首先将每一个 BN
及其前面的卷积层转换成一个带有偏置向量的卷积(吸 BN),设 {w′,b′}\{w^{'}, b^{'}\}{w′,b′} 表示 吸 BN 之后卷积层的卷积核和偏置向量参数,卷积层和 BN
合并后的卷积有如下公式:
推理时的卷积层和其后的
BN
层可以等价转换为一个带bias
的卷积层(也就是通常所谓的“吸BN”),其原理参考深度学习推理时融合BN,轻松获得约5%的提速。
Wi,:,:,:′=γiσiWi,:,:,:,bi′=−μiγiσi+βi.(3)\begin{aligned} W_{i,:,:,:}^{'} = \frac{\gamma_i}{\sigma_i} W_{i,:,:,:}, \quad b_{i}^{'} = -\frac{\mu_{i} \gamma_i}{\sigma_i} + \beta_{i}. \end{aligned}\tag{3}Wi,:,:,:′=σiγiWi,:,:,:,bi′=−σiμiγi+βi.(3)
很容易证明当 1≤i≤C21 \leq i \leq C_21≤i≤C2:
bn(M∗W,μ,σ,γ,β):,i,:,:=(M∗W′):,i,:,:+bi′.(4)\begin{aligned} bn(M \ast W,\mu,\sigma,\gamma,\beta)_{:,i,:,:} = (M \ast W^{'})_{:,i,:,:} + b_{i}^{'}. \end{aligned}\tag{4}bn(M∗W,μ,σ,γ,β):,i,:,:=(M∗W′):,i,:,:+bi′.(4)
公式(4)同样适用于identity
分支,因为 identity
可以视作 kernel
为单位矩阵1×11\times 11×1 卷积。至此,三个分支的卷积层和 BN
合并原理和公式已经叙述完毕,可以等效于下图 Figure 4 的第二步(吸收 BN 在前)。
最后一步是三个分支的的合并,也就是三个分支卷积层的融合,每个 RepVGG Block
转换前后的输出是完全相同的,其原理参见作者的上一篇 ACNet
论文。通过前面的变换,可以知道 RepVGG Block
模块有一个 3×33 \times 33×3 卷积核,两个 1×11 \times 11×1 卷积核以及三个 bias
向量参数。通过简单的 add
方式合并三个 bias 向量可以得到融合后新卷积层的 bias
。将 1×11 \times 11×1 卷积核用 0
填充 (pad
) 成 3×33 \times 33×3 卷积核,然后和 3×33 \times 33×3 卷积核相加(elemen twise-add
),得到融合后卷积层的 3×33 \times 33×3 卷积核。
至此三个分支的卷积层合并过程讲解完毕,可以等效于 Figure 4 的第三步。
卷积核细节:注意 3×33 \times 33×3 和 1×11 \times 11×1 卷积核拥有相同的
stride
,后者的padding
值比前者小于1
。
从上述这一转换过程中,可以理解结构重参数化的实质:训练时的结构对应一组参数,推理时我们想要的结构对应另一组参数;只要能把前者的参数等价转换为后者,就可以将前者的结构等价转换为后者。
结论
最后需要注明的是,RepVGG
是为 GPU
和专用硬件设计的高效模型,追求高速度、省内存,较少关注参数量和理论计算量。在低算力设备上,可能不如 MobileNet 和 ShuffleNet 系列适用。
RepVGG 的问题
RepVGG
的推理模型很难使用后量化方法 (Post-Training Quantization
, PTQ
),比如,使用简单的 INT8 PTQ
,ImageNet 上的 RepVGG
模型的准确性会降低到 54.55%
。
RepOpt
对重参数化结构量化困难的问题进行了研究,发现重参数结构的分支融合和吸 BN
操作,显著放大了权重参数分布的标准差。而异常的权重分布又会产生了过大的网络激活层数值分布,从而进一步导致该层量化损失过大,因此模型精度损失严重。
参考美团结束团队文章-通用目标检测开源框架YOLOv6在美团的量化部署实战。
后续改进论文 RepOptimizer 中,直接量化 RepOpt-VGG
模型,ImageNet
上准确率仅会下降2.5%
。
RepOptimizer
:重参数化你的优化器:VGG 型架构 + 特定的优化器 = 快速模型训练 + 强悍性能。
参考资料
- Residual Networks Behave Like Ensembles of Relatively Shallow Networks
- ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks
- RepVGG: Making VGG-style ConvNets Great Again
- zh.wikipedia.org/wiki/%E7%9F…
- RepVGG:极简架构,SOTA性能,让VGG式模型再次伟大
- 深度学习推理时融合BN,轻松获得约5%的提速
- 【CNN结构设计】无痛的涨点技巧:ACNet
- Markdown下LaTeX公式、编号、对齐
- 重参数化你的优化器:VGG 型架构 + 特定的优化器 = 快速模型训练 + 强悍性能