【论文速递】CVPR2022 - 通过目标感知transformer进行知识蒸馏

简介: 【论文速递】CVPR2022 - 通过目标感知transformer进行知识蒸馏

【论文速递】CVPR2022 - 通过目标感知transformer进行知识蒸馏

【论文原文】:Knowledge Distillation via the Target-aware Transformer

获取地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9879889

博主关键词: transformer,知识蒸馏,目标感知

推荐相关论文:

-无

摘要:

知识蒸馏成为提高小型神经网络性能的事实标准。以前的大多数作品都提出以一对一的空间匹配方式将表征特征从教师回归到学生。然而,人们往往会忽略这样一个事实,即由于架构差异,同一空间位置的语义信息通常会有所不同。这极大地破坏了一对一蒸馏方法的基本假设。为此,我们提出了一种新的一对多空间匹配知识蒸馏方法。具体来说,我们允许将教师特征的每个像素提炼到学生特征的所有空间位置,因为它的相似性是由目标感知变压器生成的。我们的方法在各种计算机视觉基准测试(如ImageNet,Pascal VOC和COCOStuff10k)上大大超过了最先进的方法。代码可在 https://github.com/sihaoevery/TaT 获得。

关键词 :transformer,知识蒸馏,目标感知。

简介:

知识蒸馏[19],[31]是指提高任何机器学习算法性能的简单技术。一种常见的场景是将知识从较大的教师神经网络提炼到较小的学生神经网络中,这样与单独训练学生模型相比,可以显著提高学生模型的性能。具体来说,人们制定了一个外部损失函数,引导学生的特征图模仿老师的特征图。最近,它已被应用于各种下游应用,例如模型压缩[42],[48],持续学习[25]和半监督学习[8]。

早期的工作只是从神经网络的最后一层提炼出知识,例如,图像分类任务中的“logits”[1],[19]。最近,人们发现提炼中间特征图是提高学生表现的更有效方法。这一系列作品鼓励在空间维度上引出类似的模式[36],[50],并构成最先进的知识蒸馏方法[7],[22]。

6d896c6ab8b382d7169548c10376da6.png

Fig. 1. Illustration of semantic mismatch.

为了计算上述方法的蒸馏损失,需要从教师那里选择源特征图,从学生那里选择目标特征图,其中这两个特征图必须具有相同的空间维度。如图1(b)所示,损失以一对一的空间匹配方式计算,即每个空间位置的源要素和目标要素之间的距离之和。这种方法的一个基本假设是每个像素的空间信息是相同的。在实践中,这种假设通常是无效的,因为学生模型的卷积层通常比教师少。图1(a)显示了一个例子,即使在相同的空间位置,学生特征的感受野通常明显小于教师的感受场,因此包含的语义信息较少。此外,最近的工作[5],[10],[41],[49]证明了感受场对模型表示能力的影响的重要性。 这种差异是当前一对一匹配蒸馏导致次优结果的潜在原因。

为此,我们提出了一种新的一对多空间匹配知识蒸馏方法。在图1(c)中,我们的方法通过参数相关性将教师在每个空间位置的特征提炼成学生特征的所有组成部分,即蒸馏损失是所有学生成分的加权总和。为了模拟这种相关性,我们制定了一个转换器结构,该结构重建了学生特征的相应单个组件,并产生了与目标教师对齐的特征。我们称这种目标感知变压器为目标感知变压器。因此,我们使用参数相关来测量以学生特征和教师特征的表征分量为条件的语义距离,以控制特征聚合的强度,从而解决了一对一匹配知识蒸馏的缺点。

当我们的方法计算特征空间位置之间的相关性时,当特征图很大时,它可能会变得棘手。为此,我们以两步分层的方式扩展我们的管道:1)我们不计算所有空间位置的相关性,而是将特征图分成几组补丁,然后在每组中执行一对多的蒸馏;2)我们进一步将补丁内的特征平均为单个向量以提炼知识。这将我们方法的复杂性降低了几个数量级。

我们评估了我们的方法在两个流行的计算机视觉任务上的有效性,即图像分类和语义分割。在 ImageNet 分类数据集上,ResNet18 学生的准确率可以从 70.04% 提高到 72.41%,比最先进的知识蒸馏高出 1.0%。至于COCOStuff8k上的分割任务,与之前的方法相比,我们的方法能够在平均并集交点(mIoU)方面将紧凑型MobilenetV10架构提高2.1%。

我们的贡献可以总结如下:

  • 我们建议通过目标感知转换器进行知识提炼,使整个学生能够分别模仿教师的每个空间组成部分。通过这种方式,我们可以提高匹配能力,从而提高知识蒸馏性能。
  • 我们提出了分层蒸馏来转移局部特征以及全局依赖关系,而不是原始特征图。这使我们能够将所提出的方法应用于由于特征图尺寸大而承受沉重计算负担的应用程序。
  • 通过应用我们的蒸馏框架,我们在多个计算机视觉任务上实现了与相关替代方案相比的最新性能。
目录
相关文章
|
7月前
|
算法 测试技术 vr&ar
【论文速递】CVPR2022 : 用于目标跟踪的统一transformer跟踪器
【论文速递】CVPR2022 : 用于目标跟踪的统一transformer跟踪器
|
7月前
|
计算机视觉
【论文速递】CVPR2022 - 基于可重复使用的教师分类器的知识蒸馏
【论文速递】CVPR2022 - 基于可重复使用的教师分类器的知识蒸馏
|
7月前
|
机器学习/深度学习 自动驾驶 机器人
【论文速递】CVPR2022 - 泛化的小样本语义分割
【论文速递】CVPR2022 - 泛化的小样本语义分割
|
7月前
|
机器学习/深度学习 数据可视化 计算机视觉
【论文速递】CVPR2022 - 检测测器的局部和全局知识蒸馏
【论文速递】CVPR2022 - 检测测器的局部和全局知识蒸馏
|
7月前
|
机器学习/深度学习 监控 算法
【论文速递】CVPR2021 - 通过解耦特征的目标检测知识蒸馏
【论文速递】CVPR2021 - 通过解耦特征的目标检测知识蒸馏
|
7月前
|
机器学习/深度学习 计算机视觉
【论文速递】一种用于目标检测的结构知识蒸馏
【论文速递】一种用于目标检测的结构知识蒸馏
|
7月前
|
存储 算法 计算机视觉
【论文速递】CVPR2022 - MeMOT: 带有记忆的多目标跟踪
【论文速递】CVPR2022 - MeMOT: 带有记忆的多目标跟踪
|
7月前
|
机器学习/深度学习 数据挖掘 网络安全
【论文速递】CVPR2022 - 用于半监督物体检测的尺度等效蒸馏
【论文速递】CVPR2022 - 用于半监督物体检测的尺度等效蒸馏
|
7月前
|
存储 机器学习/深度学习 SQL
【论文精读】CVPR2022 - 解耦知识蒸馏
【论文精读】CVPR2022 - 解耦知识蒸馏
|
机器学习/深度学习 编解码 自然语言处理
清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花???(一)
清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花???(一)
219 0
下一篇
DataWorks