一文看懂“知识蒸馏”技术

简介: 一文看懂“知识蒸馏”技术

前言


过去几年中,深度学习已成为人工智能许多成功的基础,包括计算机视觉中的各种应用、强化学习。随着许多最新技术的帮助,包括残差连接和批量归一化,可以在强大的GPU或TPU集群上轻松训练数千层的非常深的模型。例如,使用数百万图像的流行图像识别基准测试可以在不到十分钟的时间内训练出ResNet模型;训练强大的BERT语言理解模型不需要超过一个半小时。大规模的深度模型取得了压倒性的成功,但是巨大的计算复杂度和大量的存储要求使得在实时应用中部署它们成为了一大挑战,尤其是在资源有限的设备上,比如视频监控和自动驾驶汽车。


为了开发高效的深度模型,近期的工作通常关注于以下两方面:1)深度模型的高效构建块,包括MobileNets和ShuffleNets中的深度可分离卷积;以及模型压缩和加速技术(Cheng等人,2018)。


详细可以看这篇论文:Cheng, Y., Wang, D., Zhou, P. & Zhang, T. (2018).Model compression and acceleration for deep neural networks: The principles, progress, and challenges.IEEE Signal Proc Mag 35(1): 126–136.


其中模型的压缩技术详细可以看这篇文章模型压缩技术综述

本文的主要分享关于知识蒸馏相关的技术原理。


在深度学习中的应用。由于大型深度神经网络在处理大规模数据方面具有优异的性能,因此在真实场景中被广泛使用。但是,由于移动设备和嵌入式系统的计算能力和内存受限,将深度模型部署到这些设备上仍然是一个巨大的挑战。


为了解决这个问题,学者们提出了模型压缩(model compression)的方法,将大型模型的信息转移到小型模型中进行训练,从而在不显著降低准确率的情况下获得更小的模型。而知识蒸馏则是一种特定的模型压缩方法,通过将大型教师模型的知识转移到小型学生模型中来训练后者,以获得竞争力甚至更好的性能。在知识蒸馏中,通常使用一个大型教师模型来指导一个小型学生模型的训练,学生模型通过模仿教师模型的行为来学习。而如何将教师模型的知识转移到学生模型中,则是知识蒸馏的关键问题。一般而言,知识蒸馏系统由三个关键组成部分构成:知识、蒸馏算法和教师-学生架构。在知识蒸馏中,教师-学生架构是核心,它包括一个教师模型和一个学生模型,如下图所示


8ac74696d53a4d5eafa1c0b9c3e5515a.png

知识蒸馏系统由三个关键组件组成:知识、蒸馏算法和师生体系结构

9b7d89ba2f364769b6e347db3063a7ce.png


我们的人工智能模型,已经逐渐往人的思维,社会形态演变了,所以很多知识算法都是可以从社会中找到共性的,比如知识蒸馏,就好比老师(老师懂得很多学生不懂的知识,这个就是大模型)传授给学生知识(老师只需要把这本学科的知识给学生就行了)


从老师传授学生知识这个过程,就可以分析出,其中包含的几个要素:什么知识,传授的方式,学校的师生配置架构。


文章内容参考论文:Knowledge Distillation: A Survey,感兴趣的可以跳转阅读。


知识

5c8e252d58eb40f88433a8253dd89c1c.png


知识蒸馏中,知识类型、蒸馏策略和教师-学生架构在学生学习中起着关键作用。本节中,我们关注于不同类型的知识用于知识蒸馏。传统的知识蒸馏使用大型深度模型的 logits 作为教师知识(logits是指在神经网络中最后一层计算结果的输出。在分类任务中,logits通常是一个向量,每个元素对应一个类别的得分)


也可以使用中间层的激活、神经元或特征来指导学生模型的学习。此外,不同激活、神经元或样本对之间的关系也包含了由教师模型学习到的丰富信息。教师模型的参数(或层之间的连接)也包含另一种知识。我们将不同形式的知识讨论为响应式知识、特征式知识和关系式知识。


基于响应的知识



算法思想


它的主要思想是直接模仿教师模型的最终预测结果,通过优化损失函数让学生模型的输出与教师模型相匹配,以实现模型压缩和提高性能的目的。


在基于神经响应的知识蒸馏中,损失函数的计算以教师模型最后一个全连接层的输出结果为基础,利用logits(逻辑回归函数的输出结果)的差异来计算蒸馏损失。


1687317194784.png1687317209017.png


import numpy as np
def softmax(logits, temperature=1.0):
    """
    计算softmax函数
    :param logits: 输入的logits向量
    :param temperature: softmax函数温度参数
    :return: 计算后的softmax向量
    """
    exp_logits = np.exp(logits / temperature)
    return exp_logits / np.sum(exp_logits)
# 定义一个简单的分类任务,假设共有3个类别
num_classes = 3
# 假设teacher模型的logits为[2.0, 1.0, 0.5]
teacher_logits = np.array([2.0, 1.0, 0.5])
# 用softmax函数计算teacher模型的软目标
# 假设温度参数T=1.0
soft_targets_T1 = softmax(teacher_logits, temperature=1.0)
print("teacher模型的软目标分布(温度T=1.0):", soft_targets_T1)
# 假设温度参数T=2.0
soft_targets_T2 = softmax(teacher_logits, temperature=2.0)
print("teacher模型的软目标分布(温度T=2.0):", soft_targets_T2)


结果


teacher模型的软目标分布(温度T=0.5): [0.84379473 0.1141952  0.04201007]
teacher模型的软目标分布(温度T=1.0): [0.62853172 0.2312239  0.14024438]
teacher模型的软目标分布(温度T=2.0): [0.48102426 0.29175596 0.22721977]


通过修改T,来改变预测结果的分布,这T,在diffusion生成图片中也是一个道理,通过改变T来使每次生成的图片不一样(分布不一样)。


基于特征的知识

60d953dcca9a4e188d643b16ecbc1153.png

深度神经网络擅长学习多层次的特征表示,这被称为表示学习。


因此,最后一层的输出以及中间层的输出,即特征映射,都可以用作知识来监督学生模型的训练。具体来说,来自中间层的基于特征的知识是响应式知识的一个很好的扩展,特别是对于训练更薄、更深的网络。


算法思想


主要思想同基于响应知识类似,但这里匹配的不是输出层而是教师和学生的特征激活层。受此启发,出现了其他各种方法,比如以间接匹配特征层(例如通过注意力图、因子等方式)。


最近,还有一些研究提出了更先进的方法来进行知识转移,例如通过隐藏神经元的激活边界进行知识转移。与响应式知识一起使用中间层的参数共享也被用作教师知识。为了匹配教师和学生之间的语义,还提出了一种跨层知识蒸馏的方法,通过注意力分配自适应地为每个学生层分配适当的教师层。

495d95525db04d3ca0b29b981c833c73.png



在特征知识蒸馏中,通常将中间层的特征图作为知识来辅导学生模型的训练。公式如下:


1687317270345.png

基于关系的知识


知识蒸馏响应和特征知识蒸馏使用了教师模型中特定层的输出。

而关系知识蒸馏则进一步探索了不同层或数据样本之间的关系。


例如,通过计算两个层之间的 Gram 矩阵,可以总结出对应特征映射之间的关系,用这些相关性作为蒸馏的知识。同时,学生模型也会模仿教师模型中的多个层之间的互动流,以便更好地蒸馏知识。


在这些方法中,不同类型的蒸馏损失函数被用于测量学生模型与教师模型中不同特征映射之间的差异,例如L2距离、L1距离、交叉熵损失和最大均值差异损失。


关系知识的知识蒸馏损失函数可以表示为:


1687317299009.png

蒸馏方式


在本节中,我们将讨论教师和学生模型的蒸馏方案(即训练方案)。

根据教师模型是否与学生模型同时更新,知识蒸馏的学习方案可以直接分为三类:离线蒸馏、在线蒸馏和自蒸馏。,如下图所示,红色表示为不更新,黄色为要更新。

671721265006450191cb83a0f3eb3454.png


离线蒸馏


离线蒸馏是先在一组训练样本上训练一个大型教师模型,然后将知识以logits或中间特征的形式传递给学生模型,以指导学生模型的训练。通常离线蒸馏分为两个阶段,即先训练教师模型,再对学生模型进行蒸馏。离线蒸馏的优点是简单易行,易于实现。


但是,教师模型的结构和与学生模型的关系往往被忽略。离线蒸馏的方法主要集中在改进不同部分的知识传递,包括设计知识和匹配特征或分布匹配的损失函数。这些方法虽然容易实现,但是需要大量的计算和时间,因为教师模型往往是一个复杂的高容量模型。


离线蒸馏方法通常包括以下三个步骤:


使用教师模型在大型数据集上进行训练,生成一个已经预测出正确答案的软标签。软标签是一种概率分布,它表明了每个类别的概率。

使用软标签和原始的训练数据对学生模型进行训练。在这个过程中,学生模型会尽力去匹配教师模型的输出,以便能够更好地学习到其知识。

使用原始的训练数据对学生模型进行微调,以便使其更好地适应原始数据集的特征。

离线蒸馏的核心思想是将教师模型的知识转移到学生模型中,以提高学生模型的性能和泛化能力。通过使用软标签和教师模型的预测结果来训练学生模型,可以让学生模型更好地学习到教师模型的知识。此外,离线蒸馏可以通过调整软标签的温度参数来控制知识的传递程度。温度参数越高,软标签中的概率分布越平滑,知识的传递程度也就越平滑。


在线蒸馏


在线蒸馏是指同时训练教师和学生模型,在学生模型训练的同时,教师模型也在不断更新。


在线蒸馏(Online Distillation)是知识蒸馏的一种形式,与传统的离线蒸馏(Offline Distillation)相对应。相比于离线蒸馏,在线蒸馏的特点是在训练过程中,同时更新教师模型和学生模型,使得学生模型可以快速地学习教师模型的知识。在线蒸馏可以解决离线蒸馏中的一些问题,特别是当教师模型的规模较大,性能较好时,离线蒸馏的效果可能会受到限制。在线蒸馏方法的主要思想是在训练中利用教师模型的预测结果和真实标签来更新学生模型的权重。


自蒸馏


自蒸馏(self-distillation)是一种无需使用外部教师模型的知识蒸馏技术,它可以利用同一个大型教师模型的不同层来指导小型学生模型的训练。与离线蒸馏和在线蒸馏不同,自蒸馏只需要一个模型并且不需要训练多个模型。自蒸馏技术可以提高模型的泛化能力、减少过拟合、加速模型的训练和推理等。


自蒸馏的原理是利用教师模型的高层特征来指导学生模型的训练。通常情况下,教师模型拥有更多的层数和更大的模型容量,可以提供更丰富的信息,而较浅的学生模型通常会受到过拟合和欠拟合的影响,无法学到足够的信息。因此,自蒸馏通过将教师模型的特征作为目标来训练学生模型,从而使得学生模型可以学到教师模型的知识。


教师学生架构

8223743b8fb94364b85ee1c8fa9a1d30.png


知识蒸馏教师学生架构是一种教学方法,其中老师将自己的知识和经验传授给学生,而学生通过吸收老师的知识和经验来提高自己的能力和技能。这种教学方法有多种不同的架构,下面是其中几种常见的:


一对一教学架构:这种架构中,老师和学生之间进行一对一的交流和教学。这种方法可以确保老师对每个学生的学习情况有充分的了解,同时也可以让学生在一个更加个性化的环境中学习。然而,这种架构需要较多的时间和精力投入。

小组教学架构:这种架构中,老师将学生分成小组,并让他们一起学习和探讨。这种方法可以激发学生的团队合作和沟通能力,同时也可以让学生从小组成员中互相学习和借鉴。但是,这种架构需要老师在管理和指导学生的过程中花费更多的时间和精力。

大班教学架构:这种架构中,老师在一个大班中教授知识和技能。这种方法可以让学生在更加开放和多元化的环境中学习,同时也可以节约教学资源和老师的时间。但是,在这种架构中,老师可能无法满足每个学生的个性化需求,同时学生之间的竞争可能会影响学习效果。

这架构不就是纯粹的学校的班级架构吗,难道说人工智能算法发现是按照人的学习发展,社会发展轨迹分析的?


无论是哪种教学架构,知识蒸馏的特点是老师将自己的知识和经验传授给学生,帮助他们提高能力和技能。这种教学方法的优点是可以提高学生的学习效率和学习成果,同时也可以让老师将自己的知识和经验传承下去。然而,这种教学方法也存在一些挑战,比如需要老师有足够的经验和知识来指导学生,同时需要学生拥有一定的自学能力和动力来吸收老师的知识和经验。


如果是模仿人类的学习过程,感觉是存在有老师对学生,多对一的,类似于富二代高价辅导班嘛,这种学生更优秀吧,那如果放到模型里,训练出这个模型,肯定是比目前的模型强的

相关文章
|
11月前
|
机器学习/深度学习 存储 算法
神经网络中的量化与蒸馏
本文将深入研究深度学习中精简模型的技术:量化和蒸馏
91 0
|
机器学习/深度学习 编解码 监控
目标识别知识蒸馏
翻译:《learning efficient object detection models with knowledge distillation》
113 0
|
5月前
|
机器学习/深度学习 大数据 测试技术
什么是迁移学习?
在练习机器学习时,训练模型可能需要很长时间。从头开始创建模型架构、训练模型,然后调整模型需要大量的时间和精力。训练机器学习模型的一种更有效的方法是使用已经定义的架构,可能具有已经计算出的权重。这是背后的主要思想 迁移学习,采用已使用的模型并将其重新用于新任务。在深入研究迁移学习的不同使用方式之前,让来了解为什么迁移学习如此强大且有用的技术。
48 2
|
17天前
|
机器学习/深度学习 搜索推荐
CIKM 2024:LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图
【9月更文挑战第17天】在CIKM 2024会议上,Emory大学的研究人员提出了一种创新框架,将大型语言模型(LLM)的知识蒸馏到图神经网络(GNN)中,以克服文本图(TAGs)学习中的数据稀缺问题。该方法通过LLM生成文本推理,并训练解释器模型理解这些推理,再用学生模型模仿此过程。实验显示,在四个数据集上性能平均提升了6.2%,但依赖于LLM的质量和高性能。论文链接:https://arxiv.org/pdf/2402.12022
38 7
|
2月前
|
机器学习/深度学习 监控
深度学习中的正则化技术:防止过拟合与提升泛化能力
【8月更文挑战第6天】在深度学习领域,模型的复杂性往往与其性能成正比,但同时也带来了过拟合的风险。本文将深入探讨正则化技术在深度学习中的应用,如何通过这些技术平衡模型复杂度与泛化能力,以及它们对模型性能的具体影响。我们将从理论到实践,分析不同正则化方法的优势和局限,为深度学习研究者和实践者提供指导。
110 10
|
3月前
|
机器学习/深度学习 自然语言处理 语音技术
|
5月前
|
机器学习/深度学习 算法 计算机视觉
AIGC基础模型——生成对抗神经网络(GAN)
【1月更文挑战第23天】AIGC基础模型——生成对抗神经网络(GAN)
150 1
AIGC基础模型——生成对抗神经网络(GAN)
|
5月前
|
机器学习/深度学习 人工智能 关系型数据库
南京大学提出量化特征蒸馏方法QFD | 完美结合量化与蒸馏,让AI落地更进一步!!!
南京大学提出量化特征蒸馏方法QFD | 完美结合量化与蒸馏,让AI落地更进一步!!!
198 0
|
5月前
|
机器学习/深度学习 人工智能 计算机视觉
CVPR 2023 | AdaAD: 通过自适应对抗蒸馏提高轻量级模型的鲁棒性
CVPR 2023 | AdaAD: 通过自适应对抗蒸馏提高轻量级模型的鲁棒性
236 0
|
5月前
|
机器学习/深度学习 编解码 算法
助力目标检测涨点 | 可以这样把Vision Transformer知识蒸馏到CNN模型之中
助力目标检测涨点 | 可以这样把Vision Transformer知识蒸馏到CNN模型之中
170 0