【多标签文本分类】BERT for Sequence-to-Sequence Multi-Label Text Classification

简介: 【多标签文本分类】BERT for Sequence-to-Sequence Multi-Label Text Classification

·阅读摘要:

 本文在已有的SGM和BERT模型上改进,提出了SGM+BERT模型、混合模型。实验证明SGM+BERT模型收敛比BERT快很多,混合模型的效果最好。

·参考文献:

 [1] BERT for Sequence-to-Sequence Multi-Label Text Classification

 [2] SGM模型讲解,参考博客:【多标签文本分类】SGM: Sequence Generation Model for Multi-Label Classification

 [3] Bert模型讲解,参考博客:【文本分类】BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

  本文是改进模型类型的论文,重点全在模型上,其他部分可以不看。

  本文提出了SGM+BERT模型、混合模型一共两个模型。

[1] SGM+BERT模型


  如下图,是论文中的SGM+BERT模型:

image.png

  如下图,是SGM模型:

1fb516f459c14a979083a90030cd770b.png

  对比上述两个模型,可以看到,SGM+BERT模型只是在文字转词向量的时候,使用了BERT来获取文本嵌入的语言表示。其他和SGM模型是一模一样的。

  论文中仅仅提到,SGM+BERT模型比SGM模型的好处在于,多标签BERT通常需要几十个epoch才能收敛,这与BERT+SGM模型不同,后者只需几百次迭代(不到半个epoch)就可以得到令人满意的结果。

  SGM+BERT模型的具体流程如下:

image.png

image.png

【注】:这一步叫做Mask softmax,是在SGM那篇论文里的,感兴趣可以参考【多标签文本分类】SGM: Sequence Generation Model for Multi-Label Classification

 · 6、softmax预测。

   · 7、找出对应标签,添加到预测的标签集image.png 中。

[2] 混合模型


  首先明确,混合的是BERT模型SGM+BERT模型

  SGM+BERT模型BERT模型快,但是效果并不好,论文探究了把两者的输出混合的算法,实验发现效果更好。算法如下:

image.png

image.png

 · 3、以L个标签来遍历,纵向从第2步的每个时间步中,找出最大的概率。

 · 4、通过参数来把第1步和第3步的概率中和一下。

 · 5、以第4步的概率为准,大于0.5的就算是该文本x xx有此标签。

【注】:这个混合模型看起来很不靠谱……


相关文章
|
11月前
|
机器学习/深度学习 数据采集 自然语言处理
【Deep Learning A情感文本分类实战】2023 Pytorch+Bert、Roberta+TextCNN、BiLstm、Lstm等实现IMDB情感文本分类完整项目(项目已开源)
亮点:代码开源+结构清晰+准确率高+保姆级解析 🍊本项目使用Pytorch框架,使用上游语言模型+下游网络模型的结构实现IMDB情感分析 🍊语言模型可选择Bert、Roberta 🍊神经网络模型可选择BiLstm、LSTM、TextCNN、Rnn、Gru、Fnn共6种 🍊语言模型和网络模型扩展性较好,方便读者自己对模型进行修改
419 0
|
机器学习/深度学习
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
240 0
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
|
10月前
|
数据采集
基于Bert文本分类进行行业识别
基于Bert文本分类进行行业识别
163 0
|
12月前
|
机器学习/深度学习 XML 人工智能
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型(五)
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型
371 0
|
12月前
|
机器学习/深度学习 自然语言处理 数据可视化
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型(四)
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型
242 0
|
12月前
|
机器学习/深度学习 自然语言处理 算法
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型(三)
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型(三)
246 0
|
机器学习/深度学习 数据可视化 PyTorch
【BERT-多标签文本分类实战】之七——训练-评估-测试与运行主程序
【BERT-多标签文本分类实战】之七——训练-评估-测试与运行主程序
388 0
|
机器学习/深度学习 存储
【BERT-多标签文本分类实战】之六——数据加载与模型代码
【BERT-多标签文本分类实战】之六——数据加载与模型代码
290 0
【BERT-多标签文本分类实战】之六——数据加载与模型代码
|
自然语言处理 PyTorch TensorFlow
【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
742 0
【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
|
存储 数据采集 自然语言处理
【BERT-多标签文本分类实战】之四——数据集预处理
【BERT-多标签文本分类实战】之四——数据集预处理
630 1
【BERT-多标签文本分类实战】之四——数据集预处理