CogLTX:应用BERT处理长文本

简介: CogLTX:应用BERT处理长文本

论文标题:CogLTX: Applying BERT to Long Texts


论文链接:https://arxiv.org/abs/2008.02496


论文来源:NeurIPS 2020


一、概述


BERT由于其随文本长度二次增长的内存占用和时间消耗,在处理长文本时显得力不从心。通常BERT最大支持输入序列长度为512,这对于标准的benchmark比如SQuAD和GLUE数据集是足够的,但对于更加通常的情况下,比如更加复杂的数据集或者真实世界的文本数据,512的序列长度是不够用的。


  1. 相关工作


目前BERT处理长文本的方法有截断法、Pooling法和压缩法。本文提出的CogLTX(Cognize Long TeXts)属于压缩法的一种。下面简单介绍下这三种处理方法:


  • 截断法


截断法的处理方式其实就是暴力截断,分为head截断、tail截断和head+tail截断。


head截断就是从头开始保留限制的token数,tail截断就是从末尾往前截断,head+tail截断是开头和结尾各保留一部分。


  • Pooling法


将长文本分成多个segment,拆分可以使用暴力截断的方法,也可以使用断句或者划窗的方法。每一个segment都通过BERT进行encoding,然后对得到的[CLS]的embedding进行max-pooing或者mean-pooling,亦或将max-pooing、mean-pooling进行拼接。如果考虑性能,只能使用一个Pooling的话,就使用max-pooing,因为捕获的特征很稀疏,max-pooling会保留突出的特征,mean-pooling会将特征打平。


这种方法有明显缺点,首先需要将多个segment进行encoding,文本越长,速度越慢。另外这种拆分文本的方式也牺牲了长距离token之间进行attention的可能性,举例来说,如下图,这是HotpotQA中的一个例子,解答问题的两个关键句子之间长度相差超过512,因此他们不会出现在任何一个segment里,因此没法做attention:


FQPBD3(_}SU@{KA}1]OZNGS.png

                                   example


  • 压缩法


压缩法是将长文本按照句子分为多个segment,然后使用规则或者单独训练一个模型来剔除一些无意义的segment。


使用滑窗一类的方法通常会将每个segment的结果做aggregate,通常这一类方法会使用max-pooing或者mean-pooling,或者接一个额外的MLP或者LSTM,但是这样牺牲了长程注意力的机会并且需要QT}LO%{Y8BKCG~HV8`RMRPA.png的空间复杂度,这样的复杂度在batch size为1,token总数为2500,BERT版本为large的情况下对于RTX 2080ti的GPU仍然太大。并且这种方法只能优化分类问题,对于其他任务比如span extraction,有ZAA[L[T@0F8I(IAVOLWA8UK.png个BERT输出,需要Q$A@YC1SL2~HB8DSAZ2(`]7.png的空间来做aggregate。


  1. CogLTX


BERT之所以难以处理长文本的问题根源在于其Q$A@YC1SL2~HB8DSAZ2(`]7.png的时间和空间复杂度,因此另外一个思路是简化transformer的结构,但是目前为止这一部分的成果很少能够应用于BERT。


CogLTX的灵感来自working memory,这是人类用来推理和决策的信息储存系统。实验表明working memory每次只能保留5~9个item或者word,但是它却有从长文本中进行推理的能力。 Working memory中的central executive,其功能就像有限容量的注意力系统,职责是协调综合信息。研究表明working memory中的内容会随着时间衰减,除非通过rehearsal来保持,也就是注意和刷新头脑中的信息,然后通过retrieval competition从长时记忆中更新忽略的信息用来推理和决策。


CogLTX的基本理念是通过拼接关键句子来进行推理。CogLTX的关键步骤是将文本拆分成多个blcok,然后识别关键的文本block,在CogLTX中叫做MemRecall,这是CogLTX的关键步骤。CogLTX中有另一个BERT模型,叫做judge,用来给block的相关性进行打分,并且它和原来的BERT(叫做reasoner)是jointly train的。CogLTX能够通过一些干预(intervention)来将特定于任务的标签(task-oriented label)转换成相关性标注(relevance annotation),以此来训练judge。


二、方法


  1. 方法论


~2U8%$E$EA9MG_S_6X6W7SA.png

                                  CogLTX for different tasks


OGM_{T~8RJG1{(RR0GD{SAU.png


CogLTX中两个重要的要素是MemRecall和两个jointly train的BERT,其中MemRecall是利用judge模型来检索关键块然后输入到reasoner中来完成任务的算法。


  1. MemRecall


做QA任务时MemRecall的整个流程如下:


K5X1SZJPY}8N_F0FHUFQI_M.png

                                             MemRecall


  • 输入


前面图中(a)Span Extraction Tasks、(b)Sequence-level Tasks和(c)Token-wise Tasks三种不同类型的任务有不同的特定设置,在任务(a)、(c)中,问题Q和子句ULX$GYU~O`5PF5ATT[N[4DS.png作为query来检索相关的block,但是在任务(b)中没有query,并且相关性只被训练数据隐式地定义。


J1T8%V5CG{N(C9%$Y11WQB8.png是被MemRecall维护的关键短文本,MemRecall除了接受F4]AGIL2[C1GB%V@BSBO8W3.png外还接受一个额外的初始J1T8%V5CG{N(C9%$Y11WQB8.png,在任务(a)、(c)中,query成为初始的J1T8%V5CG{N(C9%$Y11WQB8.png,judge在J1T8%V5CG{N(C9%$Y11WQB8.png的辅助下学习预测特定于任务的相关性。


  • 模型


R~1}~M5(9G11}NP67`})8IW.png


  • 流程


B{~D06G30L6Z_[(AC}~$234.png

8VBABVD(0B%KF0@WYLVEKQR.pngLFCRO7$)L]IGQ5D}%WNQU{J.png


  1. 训练


  • judge的监督学习


通常span extraction tasks会把答案block标记为relevant,即使是multi-hop的数据集比如HotpotQA,通常也会标注支持的句子。在这些情况下,judge通常使用监督学习的方式来训练:

27ZAM3QP`F7}IFM_`H{4@V9.png

  • reasoner的监督学习


理想情况下,训练时reasoner的输入应该由MemRecall来生成,但是并不能保证所有的相关block都能被检索到。以QA任务为例,如果答案的blcok没有被检索到,reasoner就无法通过检索到的block进行训练,因此解决方案为做一个近似,将所有相关blcok和retrieval competition中的“winner” block输入到reasoner中进行训练。


  • judge的无监督学习


大多数的任务不会提供相关性的label。对于这种情况我们使用干预的手段来推断相关性标签:通过从DNL46]G}75U825OR8KTK$2J.png中剔除某个block来看它是否是不可或缺的。


假设DNL46]G}75U825OR8KTK$2J.png种包含所有的相关block,则根据我们的假设则有:

$8QQ~KIAYCTE[(~U53DJ_QF.png

下图展示了20News数据集上无监督学习的一个例子:


V82}6N~8SIKNRGM`ZB~JP5L.png

                                              example


  • 总结


训练的流程图总结如下:


LZ]OB6PHZU8_EJ]}4PVQ[UM.png

                                      训练


三、实验


  1. Reading comprehension


}[MQWXWAQM6AFVIJSLAMDAW.png

                             Reading comprehension


  1. Multi-hop question answering


Y~V5[$PHH[)}8V$SHS1}UPK.png

                              Multi-hop question answering


  1. Text classification


M7`G9Z8CQV1H`5}D}9~4}FB.png

                           Text classification


  1. Multi-label classification


8_31OMZIPFHJGH7_TCAMI4D.png

                           Multi-label classification



  1. 内存和时间消耗

QW%$QUF(MPU~H6S4GG9])0T.png

                                                  内存和时间消耗


相关文章
|
机器学习/深度学习 JSON 自然语言处理
bert中文文本摘要代码(2)
bert中文文本摘要代码(2)
304 0
lda模型和bert模型的文本主题情感分类实战
lda模型和bert模型的文本主题情感分类实战
224 0
|
数据可视化 数据挖掘
基于Bert的文本聚类工具:BERTopic
基于Bert的文本聚类工具:BERTopic
1781 0
基于Bert的文本聚类工具:BERTopic
|
2月前
|
搜索推荐 算法
模型小,还高效!港大最新推荐系统EasyRec:零样本文本推荐能力超越OpenAI、Bert
【9月更文挑战第21天】香港大学研究者开发了一种名为EasyRec的新推荐系统,利用语言模型的强大文本理解和生成能力,解决了传统推荐算法在零样本学习场景中的局限。EasyRec通过文本-行为对齐框架,结合对比学习和协同语言模型调优,提升了推荐准确性。实验表明,EasyRec在多个真实世界数据集上的表现优于现有模型,但其性能依赖高质量文本数据且计算复杂度较高。论文详见:http://arxiv.org/abs/2408.08821
58 7
|
6月前
|
数据采集 机器学习/深度学习 自然语言处理
【相关问题解答2】bert中文文本摘要代码:结果输出为一些重复的标点符号和数字
【相关问题解答2】bert中文文本摘要代码:结果输出为一些重复的标点符号和数字
53 0
|
6月前
|
自然语言处理 Python
【相关问题解答1】bert中文文本摘要代码:import时无法找到包时,几个潜在的原因和解决方法
【相关问题解答1】bert中文文本摘要代码:import时无法找到包时,几个潜在的原因和解决方法
53 0
|
存储 自然语言处理 PyTorch
bert中文文本摘要代码(1)
bert中文文本摘要代码(1)
131 0
|
存储 自然语言处理 并行计算
bert中文文本摘要代码(3)
bert中文文本摘要代码(3)
131 0
bert中文文本摘要代码(3)
bert知识库问答 实现建筑领域的问答匹配 文本相似性计算 完整代码数据
bert知识库问答 实现建筑领域的问答匹配 文本相似性计算 完整代码数据
100 0
|
人工智能 自然语言处理 PyTorch
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践

相关实验场景

更多