LRC-BERT:对比学习潜在语义知识蒸馏|AAAI 2021

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 背景介绍方法实验在高德具体业务场景的落地总结
【新智元导读】高德智能技术中心研发团队在工作中设计了对比学习框架进行知识蒸馏,并在此基础上提出COS-NCE LOSS,该论文已被AAAI2021接收。

NLP自然语言处理在高德各个业务线发挥重要作用,例如动态事件命名实时识别,搜索场景用户语义理解,共享出行通话文本自动判责等。
而NLP领域近期最重要的进展当属预训练模型,Google发布的BERT预训练语言模型一经推出霸占了NLP各大榜单,提升了诸多 NLP 任务的性能,在11种不同NLP测试中创出最佳成绩,预训练模型成为自然语言理解主要趋势之一。

预训练模型通常包括两个阶段:第一阶段是在大型语料库根据给定上下文预测特定文本。第二阶段是在特定的下游任务进行finetuning。
BERT的强大毫无疑问,但由于模型有上亿参数量体型庞大(如下图预训练模型越来越庞大),单个样本计算一次的开销动辄上百毫秒,因而给部署线上服务带来很大的困扰,如何让BERT瘦身是工业界以及学术界重点攻坚问题。 Hinton的文章"Distilling the Knowledge in a Neural Network"首次提出了知识蒸馏的概念,将teacher知识压缩到student网络,student网络与teacher网络具有相同的预测能力但拥有更快的推理速度,极大节省了计算资源。
目前前沿的技术有微软的 BERT-PKD (Patient Knowledge Distillation for BERT),huggingface 的 DistilBERT,以及华为TinyBERT。其基本思路都是减少 transformer encoding 的层数和 hidden size 大小,实现细节上各有不同,主要差异体现在 loss 的设计上。
然而知识蒸馏最核心问题是如何捕捉到模型潜在语义信息,而之前工作焦点在loss设计上,而这种方式让模型关注在单个样本的表达信息细节上,对于捕捉潜在语义信息无能为力。 高德智能技术中心研发团队在工作中设计了对比学习框架进行知识蒸馏,并在此基础上提出COS-NCE LOSS,通过优化COS-NCE LOSS拉近正样本,并拉远负样本距离,能够让模型有效的学习到潜在语义表达信息(LRC-BERT对比DistillBERT,BERT-PKD并不限制模型的结构,student网络可以灵活的选择模型结构以及特征维度)。
同时为进一步让LRC-BERT更加有效的学习,我们设计了两阶段训练过程。最后LRC-BERT在word vector embedding layer引入梯度扰动技术提升模型鲁棒性。 本文的主要贡献点概括如下:*提出了对比学习框架进行知识蒸馏,在此基础上提出COS-NCE LOSS可以有效的捕捉潜在语义信息。*梯度扰动技术首次引入到知识蒸馏中,在实验中验证其能够提升模型的鲁棒性。*提出使用两阶段模型训练方法更加高效的提取中间层潜在语义信息。*本文在General Language Understanding Evaluation (GLUE)评测集合取得了蒸馏模型的SOTA效果。

35.jpg

背景介绍

当前深度学习模型压缩方法的研究主要可以分为以下几个方向:裁剪、因子分解、权重共享、量化、知识蒸馏。 裁剪-移除网络中不必要的部分。剪裁方法包括weight裁剪、attention head裁剪、layer裁剪,一些方法还在训练过程中通过正则化,以增加可靠性(layer dropout)。因子分解-通过将参数矩阵分解成两个较小矩阵的乘积来逼近原始参数矩阵。
这给矩阵施加了低秩约束,权重因子分解既可以应用于输入嵌入层(这节省了大量磁盘内存),也可以应用于前馈/自注意力层的参数(为了提高速度)。
知识蒸馏是一种模型压缩常见方法,用于模型压缩指的是在teacher-student框架中,将复杂、学习能力强的网络学到的特征表示“知识蒸馏”出来,传递给参数量小、学习能力弱的网络。
例如BERT-PKD 首次提出student学习teacher中间层表达,分别尝试两种方式skip,last模式如下图。TinyBert提出了基于MSE的transformer层Attention loss、hidden loss以及emb loss来进行知识蒸馏。

36.jpg

方法  

3.1 问题定义

teacher网络定义为fT(x,θ):x为模型输入,θ为模型参数,模型输出为ZT。student网络定义为 fS(x,θ‘) 同时输出为ZS 。目标是student的fS(x,θ') 表达更加贴近fT(x,θ)表达,同时最小化prediction layer loss,使student与teacher具有同样的性能。


3.2 模型蒸馏结构

如下图即为LRC-BERT结构,对比学习作用在中间层表达使student能够学习到teacher潜在语义信息。举例来说,对于student表达ZS与teacher特征表达ZT靠近,而要远离负例n1T和n2T

37.jpg

3.3 COS-based NCE loss

对比学习的概念很早就有,但真正成为热门方向是在2020年的2月份,Hinton组的Ting Chen提出了SimCLR[9],用该框架训练出的表示以7%的提升刷爆了之前的SOTA,甚至接近有监督模型的效果。

对比学习目标是为输入X学习一个表示 Z(最好的情况就是知道Z就能知道X),衡量方式采用互信息I(X,Z),最大化互信息的目标进行推导就会得到对比学习的loss(也称InfoNCE),其核心是通过计算样本表示间的距离,拉近正样本,拉远负样本获取X深层信息表达。

本文设计了对比损失COS-NCE用于中间层知识蒸馏。对于一个给定的teacher网络fT(x,θ) 以及student网络fS(x,θ'),任何一个正例随机选择 K negative samples N = {n1-, n2-, ......., nk- },因此得到teacher中间层表达ZT,student中间层表达ZS ,以及K个负例表达 N= {n1-, n2-, ......., nk- }。

不同于之前对比学习采用Euclidean distance or mutual information作为loss, 本文提出cos角度度量方式来进行对比学习。如下图所示

(a)在特征空间ZS与ZT角度更加贴近,而与负例nTcos角度差异变大。

(b)对于不同的student fs1 fs2(student fs1 语义与teacher语义更相似):在Euclidean distance(绿色)上Zs2更加贴近ZT,然而在基于cos-based距离衡量上Zs1相对比Zs2更贴合ZT可见cos-based更加符合语义特征表达度量。

38.jpg

COS-based NCE loss公式如下,g(..,..) -> [0,2]用来衡量两个向量角度distance,g(x,y)越小代表两个向量越相似,g(x,y)=2代表两个向量不相似状态的边界。COS-NCE设计动机是最小化ZS和ZT的角度distance,最大化ZS和NT角度distance。

如下图所示,g(niT, zS ) 与g(zT, zS ) 的距离需要被放大,本文的处理是将最大化问题转换成最小化问题,其具体定义为2-(g(niT, zS ) -g(zT, zS ))。

39.jpg40.jpg

3.4 Distillation for transformer-layer

COS-NCE用于transformer-layer的蒸馏,每个tranformer-layer包含multi head attention以及FFN,本文针对FFN的输出进行蒸馏。这里假定teacher有N-transformer layer,student 有M-transformer layer。

这里我们选择使用uniform的方式完成teacher的N-transformerlayer与student的M-transformerlayer之间的映射。公式如下,hiS ∈ Rl×d 表示student网络i-th transformer layer的输出。hφiT ∈ Rl×d‘表示teacher网络φi-th transformer 的输出。j = φi即为层数映射函数student学习teacher对应层数输出,l 表示文本长度,d‘ d 表示teacher student hidden size( d的维度少于d')。

HiT = { h0,iT, h1,iT, ........, hk-1,iT } 对应teacher网络i-th transformer Knegative 样本。W ∈ Rd×d‘为维度映射参数,目的将student与teacher hidden size对齐。

41.jpg

3.5 Distillation for predict-layer


更好的适配下游预测任务,本文采用student的预测层输出学习teacher的预测层输出,即softloss。同时student学习real label,即hardloss。其中KL divergencce用于student学习teacher预测分布,cross-entropy loss用于student学习real label。

yS、yT分别是student、teacher的预测输出,t controls the smoothness of the output distribution, y为真实label。公式6是最终损失函数, α  β  γ分别是不同损失的加权系数。

为了让模型更加高效的学习中间层表达,本文采用两阶段训练方法,在第一阶段我们先关注中间层的对比损失 α  β  γ 设置为 1,0,0。在第二阶段 β  γ 权重设置大于0保证模型有能力预测下游任务。

43.jpg

3.6 Training based on Gradient Perturbation

模型结构是影响鲁棒性重要因素,因此如何让模型更加鲁棒成为模型压缩算法中一个重要的关注点。之前在模型压缩剪枝算法中引入过正则化以增加可靠性,而本文引入了梯度扰动技术增强LRC-BERT的鲁棒性。

下图展示梯度扰动过程,本文没有直接使用Ltotal对model进行反向梯度传播,而是优先计算emb的梯度▽Ltotal(embS) 将其作用于embS输入进行扰动。最终使用梯度扰动之后loss对model进行参数更新。如下公式embS'是增加梯度扰动的表示。

44.jpg

45.jpg

实验

4.1 数据集

GLUE Benchmark https://gluebenchmark.com/(通用语言理解评估基准)是衡量自然语言理解技术水平的重要指标。数据集包含了自然语言推断、语义相似度、问答匹配、情感分析等9项任务。本文将LRC-BERT在GLUE数据集合上进行评测。

4.2 实验参数设置

本文采用BERT-Base作为teacher,其包含12层transformer,每层包含12 attention head,768 hidden size, 3072 intermediate size。student网络采用4层transformer,每层包含12 attention head,312 hidden size, 1200 intermediate size。为了更好验证LRC-BERT有效性,本文设置了两组模型:LRC-BERT包含预训练(使用Wikipedia corpus)、specific tasks蒸馏;LRC-BERT1直接进行specific tasks蒸馏。

蒸馏实验中,学习率选择 { 5e-5, 1e-4, 3e-4 }, batch size 16。MRPC RTE CoLA 训练数据少于10K的数据集采用 90 epoch,其他数据集合采用18 epochs。两阶段实验设置,80% steps使用第一阶段 { α :β :γ = 1 : 0 : 0 },剩下20%step使用第二阶段训练{ α :β :γ = 1 : 1 : 3 },t 设置1.1。

4.3 主要实验结果  

主要实验结果如下:(1)LRC-BERT明显优于DistillBERT、BERT-PKD、TinyBERT。平均预测效果LRC-BERT保留BERT-base 97.4%的性能。说明LRC-BERT的有效性。(2)训练数据量较大的数据集合上(>100K), LRC-BERT1直接在下游任务上蒸馏。对比TinyBERT分别在MNLI-m, MNLI-mm,QQP,QNLI上分别提高0.3%,0.8%,0.6%,0.6%。(3)LRC-BERT对比LRC-BERT1s在MRPC,RTE,CoLA分别提高4%,12.1%,14.9%。

同时另一个重要参考指标是模型推理速度,下图所示LRC-BERT取得了9.6×速度提升,modelsize上取得了7.5× 收益。

46.jpg

4.4 消融实验

消融实验在MNLI-m, MNLI-mm, MPRC, CoLA数据集合上从loss function 以及 梯度扰动上进行分析。

Effect of different loss function,本文分别移除COS-NCE,softloss, hardloss 验证模型效果,分别用LRC-BERTC LRC-BERTS LRC-BERTH 表示。如下图所示,COS-NCE影响权重最大去除后在如下实验中效果最差,特别在CoLA数据集合上去除COS-NCE效果从50到37。而softloss, hardloss对最终效果影响有限。综上三种损失对LRC-BERT均有效。

47.jpg

Effect of gradient perturbation,梯度扰动能够在训练过程中影响中间层数据分布,同样验证效果采用LRC-BERTg作为去除gradient perturbation模型。下图展示在MNLI-m训练过程中training loss变化,在第二阶段LRC-BERT损失振幅相对比LRC-BERTg减弱,LRC-BERT趋于稳定状态。

48.jpg

Analysis of Two-stage Training Method,采用两阶段的目的是为了让student在训练开始阶段更加专注于学习teacher中间层表达,同样设置LRC-BERT2去除二阶段训练直接采用{ α :β :γ = 1 : 1 : 3 }在MNLI-m进行训练。效果如下图所示,去除两阶段效果下降明显,同样也能够说明COS-NCE在中间层蒸馏的作用。

49.jpg

Analysis of Two-stage Training Method,COS-NCE采用cos角度distance对中间层transformer蒸馏,同时本文采用BERTM(中间层使用MSE替换COS-NCE作为loss)为对比。随机抽取case分析,前两个case LRC-BERT以及BERTM预测正确,而后面两个BERTM预测比较波动导致预测错误,LRC-BERT angular distance在预期范围内,由此可见LRC-BERT 能够有效捕捉到深层语义信息。

50.jpg在高德具体业务场景的落地

动态事件是指由于道路通行能力变化影响用户出行事件,包括封闭、施工、事故等。作为高德交通动态事件重要获取途径NLP事件抽取业务,主要流程为收集交通官方平台以及各个媒体平台信息,经过命名实体识别、事件拆分组合最终输出动态事件,影响Amap用户出行规划路线,如下图示例。

本⽂提出的方法已在高德交通动态事件抽取中落地,LRC-BERT保留了BERT-base 97%的性能,人工评测平日准确率提高4%,召回率提高3%;节假日准确率提高5%,召回率提高7%。此外,本方法训练方法简单,复现成本低,可广泛应用在使用自然语言理解(NLU)各个业务线,提高模型推理速度降低部署成本。

51.jpg

总结    

本文创新提出了对比学习框架进行知识蒸馏,并在基础上提出COS-NCE LOSS可以有效的捕捉潜在语义信息。梯度扰动技术首次引入到知识蒸馏中,在实验中验证其能够提升模型的鲁棒性。

为了更加高效提取中间层潜在语义信息采用使用两阶段模型训练方法。GLUE Benchmark实验结果表明LRC-BERT模型有效性。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
BERT时代,向量语义检索我们关注什么?
在医疗搜索场景中,除了模型优化,结构化知识对于提高搜索准确性至关重要。
|
2月前
|
自然语言处理 Python
【相关问题解答1】bert中文文本摘要代码:import时无法找到包时,几个潜在的原因和解决方法
【相关问题解答1】bert中文文本摘要代码:import时无法找到包时,几个潜在的原因和解决方法
27 0
|
人工智能 自然语言处理 PyTorch
基于Pytorch学习Bert模型配置运行环境详细流程
基于Pytorch学习Bert模型配置运行环境详细流程
824 1
基于Pytorch学习Bert模型配置运行环境详细流程
|
机器学习/深度学习 数据可视化 算法
文本分类还停留在BERT?对偶比学习框架也太强了
文本分类还停留在BERT?对偶比学习框架也太强了
186 0
|
机器学习/深度学习 自然语言处理 测试技术
给Bert加速吧!NLP中的知识蒸馏论文 Distilled BiLSTM解读
给Bert加速吧!NLP中的知识蒸馏论文 Distilled BiLSTM解读
383 0
|
机器学习/深度学习 数据可视化
文本分类还停留在BERT?对偶对比学习框架也太强了(二)
文本分类还停留在BERT?对偶对比学习框架也太强了(二)
387 0
文本分类还停留在BERT?对偶对比学习框架也太强了(二)
|
机器学习/深度学习 算法 数据可视化
文本分类还停留在BERT?对偶对比学习框架也太强了(一)
文本分类还停留在BERT?对偶对比学习框架也太强了(一)
470 0
文本分类还停留在BERT?对偶对比学习框架也太强了(一)
|
机器学习/深度学习 自然语言处理 安全
BERT 蒸馏在垃圾舆情识别中的探索
近来 BERT等大规模预训练模型在 NLP 领域各项子任务中取得了不凡的结果,但是模型海量参数,导致上线困难,不能满足生产需求。舆情审核业务中包含大量的垃圾舆情,会耗费大量的人力。本文在垃圾舆情识别任务中尝试 BERT 蒸馏技术,提升 textCNN 分类器性能,利用其小而快的优点,成功落地。
1939 0
BERT 蒸馏在垃圾舆情识别中的探索
|
机器学习/深度学习 自然语言处理 数据可视化
最强NLP模型BERT可视化学习
最强NLP模型谷歌BERT狂破11项纪录,全面超越人类,本文通过可视化带你直观了解它。
2954 0
|
机器学习/深度学习 自然语言处理 计算机视觉
迁移学习NLP:BERT、ELMo等直观图解
图解,2018年自然语言处理领域最成功的方向!
2986 0

热门文章

最新文章