【多标签文本分类】《融合注意力与CorNet的多标签文本分类》

简介: 【多标签文本分类】《融合注意力与CorNet的多标签文本分类》

·阅读摘要:

 本文主要提出标签与文本注意力+文本注意力、CorNet增强标签预测概率两个创新点,提升了实验精度。

·参考文献:

 [1] 融合注意力与CorNet的多标签文本分类

参考论文信息


  论文名称:《融合注意力与CorNet的多标签文本分类》

  发布期刊:《西北大学学报(自然科学版)》

  期刊信息:CSCD扩展

image.png

[0] 摘要


  目前文本分类存在问题:只关注文本本身的信息,忽略了标签的信息。

  为了解决这个问题:论文提出使用图注意力网络GAT来编码标签信息,然后使用 “文本-标签”注意力机制来强化标签与文本的语义联系,最后把它与文本的注意力向量融合,得到最终编入了标签信息的文本向量。

  论文最后使用CorNet模型增强标签预测概率。

[1] 相关工作


  论文介绍多标签文本分类算法的历史:机器学习算法和深度学习算法。

  机器学习算法有BR、CC、ML-DT、SVM、KNN等老算法;

  深度学习算法有CNN系列、RNN系列模型,比如CNN、LSTM、LSTM_Attention、Seq2Seq、SGM、CNN-RNN等。

【注一】:这里已经被各个论文介绍烂了,老生常谈。

  最后,还介绍了LSAN、GCN等会用到标签信息的模型。

【注二】:2022年的论文,竟然不介绍预训练语言模型,比如ELMo、BERT、XLNet这些。

[2] 模型


  模型图如下:

image.png

  该模型主要分为6个部分:

  1、嵌入层+LSTM层

  2、多标签注意力层

  3、图注意力网络  4、“文本 -标签”注意力机制

  5、自适应融合机制

  6、CorNet模块

  1、嵌入层+LSTM层

  论文使用的是Glove预训练词向量作为embedding层,然后输入到Bi-LSTM层得到文本表示。

【注三】:使用embedding+Bi-LSTM是比较早的深度学习方法,现在更多的是用预训练语言模型来微调。

  2、多标签注意力层

  论文原文写的是:多标签文本可以由多个标签标记,每个标签对应的最相关文本是不同的。通过多标签注意力机制计算每个标签对应的文本向量hi的线性组合,可以有效地表示文本的重要程度。

  论文给的小标题“多标签注意力层”比较让人困惑,似乎这里用了标签的信息?看原文的意思是用了,但是看他贴的公式并没有用,而且我也想象不到怎么使用标签信息。

【注四】:这里我去论文贴出来的参考论文《A structured self-attentive sentenceembedding》看了一下,人家写的是文本数据自注意,如下图:

ef3ab7fad62d47518b566029edbd5d4b.png

  3、图注意力网络

  图注意力网络GAT是比较火的一种图神经网络,不再介绍。

  它的输入是标签嵌入,输出是经过注意力机制后的标签向量。

【注五】:GAT原文 《GRAPH ATTENTION NETWORKS》值得一看

  4、“文本 -标签”注意力机制

  强化标签之间的语义联系,将标签语义信息与文本上下文语义信息进行交互,获得基于标签语义的文本特征表示。

  论文的做法是,把 嵌入层+LSTM层 的输出与 图注意力网络 的输出相乘。

  5、自适应融合机制

  自适应融合机制是把 多标签注意力层 的输出与 **“文本 -标签”注意力机制 ** 的输出加权相乘,得到最终的文本表示。

image.png

image.png

  6、CorNet模块

  CorNet模块能够学习标签相关性,使用相关性知识增强原始标签预测,并输出增强的标签预测。

【注六】:CorNet模型原文:《Correlation Networks for Extreme Multi-label Text Classification》

相关文章
|
6月前
|
机器学习/深度学习 数据可视化 计算机视觉
【残余注意力】简单且有效的多标签识别方法
【残余注意力】简单且有效的多标签识别方法
83 0
|
数据挖掘
InsTag:大语言模型监督微调数据标签标注工具
魔搭社区发布了一个名为“InsTagger”的工具,用于分析LLM(大语言模型)中符合人类偏好的监督微调(SFT)数据。InsTagger 是基于 InsTag 方法训练的本地指令标签标注器,用于为符合人类偏好的监督微调数据集中的指令标注描述其意图和语义的标签,从而指导指令的分流或监督微调数据集的分析。
|
6月前
|
机器学习/深度学习 编解码 自然语言处理
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
387 0
|
机器学习/深度学习 算法 计算机视觉
【多标签文本分类】层次多标签文本分类方法
【多标签文本分类】层次多标签文本分类方法
729 0
【多标签文本分类】层次多标签文本分类方法
|
机器学习/深度学习
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
452 0
【文本分类】基于预训练语言模型的BERT-CNN多层级专利分类研究
|
计算机视觉
【多标签文本分类】《采用平衡函数的大规模多标签文本分类》
使用最常见的BERT+fc的多标签文本分类模型,只是改进了一下损失函数。
|
机器学习/深度学习 编解码 人工智能
【计算机视觉】MaskFormer:将语义分割和实例分割作为同一任务进行训练
目标检测和实例分割是计算机视觉的基本任务,在从自动驾驶到医学成像的无数应用中发挥着关键作用。目标检测的传统方法中通常利用边界框技术进行对象定位,然后利用逐像素分类为这些本地化实例分配类。但是当处理同一类的重叠对象时,或者在每个图像的对象数量不同的情况下,这些方法通常会出现问题。
【计算机视觉】MaskFormer:将语义分割和实例分割作为同一任务进行训练
|
机器学习/深度学习 人工智能 自然语言处理
深度学习应用篇-自然语言处理[10]:N-Gram、SimCSE介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等
深度学习应用篇-自然语言处理[10]:N-Gram、SimCSE介绍,更多技术:数据增强、智能标注、多分类算法、文本信息抽取、多模态信息抽取、模型压缩算法等
|
机器学习/深度学习 数据可视化 计算机视觉
使用深度学习进行图像类别分类
使用预训练卷积神经网络 (CNN) 作为特征提取器来训练图像类别分类器。
133 0
|
机器学习/深度学习 Serverless 语音技术
多模态特征融合:图像、语音、文本如何转为特征向量并进行分类
多模态特征融合:图像、语音、文本如何转为特征向量并进行分类
1175 0