TextCNN、DCNN、AttentionXML…你都掌握了吗?一文总结文本分类必备经典模型(三)

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: TextCNN、DCNN、AttentionXML…你都掌握了吗?一文总结文本分类必备经典模型

二、Attention

CNN和RNN在文本分类任务中表现出色。然而,这些模型不够直观,可解释性差,特别是在分类错误中,由于隐藏数据的不可读性而无法解释。随后,基于注意力的方法被成功地应用于文本分类中。基于注意力的模型架构如图8。注意力机制让模型对特定的输入给予不同的注意。它首先将重要的词聚集成句子向量,然后将重要的句子向量聚集成文本向量。它可以了解每个词和句子对分类判断的贡献有多大,这有利于通过两个层次的关注进行应用和分析。


图8 注意力机制架构


2.1 AttentionXML

AttentionXML是针对多标签分类(XML)问题引入注意力机制,文章发表在 NeurIPS 2019中 。本文提出一种基于树结构的模型,即probabilistic label tree (PLT),来解决标签数量大的问题。

XML-CNN的方法是将所有的labels看作平行结构,类似one-hot,这样导致所有的label都基于一个共同的表征向量来学习预测。PLT是一棵有L个叶子的树,每个叶子都对应着一个原始标签。首先将label文本用特征向量表示,然后用递归聚类构建label tree,生成的树结构,叶子节点是真实标签,非叶子节点是伪标签。本文对PLT做了改进,构建了一个较浅并且很宽的树结构。

AttentionXML的过程如图9所示:(1) 给PLT中每一个level训练一个模型;(2) 从d-1层选出TOP c个标签作为下一层训练的候选标签,以d-1层训练得到的权重作为以d层训练的初始化;(3) 用d层训练好的模型,只预测属于d-1层TOP c节点中的子节点。

图9 用于多标签文本分类任务的基于标签树的深度模型Attention XML。(a) AttentionXML中使用的PLT的例子。(b) PLT构建过程的一个例子,设置为K=M=8=23,H=3,L=8000。从左到右的数字表示从上到下每一层的节点。红色的数字表示为了得到T_h+1而被删除的T_h中的节点。(c) 在AttentionXML中,以文本(长度Tˆ)为输入,以预测分数zˆ为输出的注意力感知深度模型的概述


当前 SOTA!平台收录 AttentionXML 共 1 个模型实现资源。


模型 SOTA!平台模型详情页
AttentionXML 前往 SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/models/models/839883d4-569c-4d5c-9457-e5a374375875

前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及API等资源。

网页端访问:在浏览器地址栏输入新版站点地址 sota.jiqizhixin.com ,即可前往「SOTA!模型」平台,查看关注的模型是否有新资源收录。

移动端访问:在微信移动端中搜索服务号名称「机器之心SOTA模型」或 ID 「sotaai」,关注 SOTA!模型服务号,即可通过服务号底部菜单栏使用平台功能,更有最新AI技术、开发资源及社区动态定期推送。

相关文章
|
机器学习/深度学习 自然语言处理 安全
Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型(1)
Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型
158 0
|
机器学习/深度学习 数据采集 自然语言处理
【Deep Learning A情感文本分类实战】2023 Pytorch+Bert、Roberta+TextCNN、BiLstm、Lstm等实现IMDB情感文本分类完整项目(项目已开源)
亮点:代码开源+结构清晰+准确率高+保姆级解析 🍊本项目使用Pytorch框架,使用上游语言模型+下游网络模型的结构实现IMDB情感分析 🍊语言模型可选择Bert、Roberta 🍊神经网络模型可选择BiLstm、LSTM、TextCNN、Rnn、Gru、Fnn共6种 🍊语言模型和网络模型扩展性较好,方便读者自己对模型进行修改
647 0
|
机器学习/深度学习 自然语言处理 数据挖掘
Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型(2)
Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型
258 1
|
机器学习/深度学习 自然语言处理 算法
TextRCNN、TextCNN、RNN…你都掌握了吗?一文总结文本分类必备经典模型(一)
TextRCNN、TextCNN、RNN…你都掌握了吗?一文总结文本分类必备经典模型(一)
471 0
|
机器学习/深度学习 数据采集 人工智能
基于TextCNN实现文本分类
本文参考Yoon Kim的论文"Convolutional Neural Networks for Sentence Classification",实现TextCNN卷积神经网络进行文本分类。
271 0
基于TextCNN实现文本分类
|
编解码 人工智能 搜索推荐
TGANv2、VideoGPT、DVG…你都掌握了吗?一文总结视频生成必备经典模型(四)
TGANv2、VideoGPT、DVG…你都掌握了吗?一文总结视频生成必备经典模型
434 0
|
机器学习/深度学习 移动开发 知识图谱
论文解读系列| 03:【NER】FGN模型详解
汉字作为象形文字有其潜在的特殊字形信息,而这一点经常被忽视。FGN是一种将字形信息融入网络结构的中文NER方法。除了用一个新型CNN对字形信息进行编码外,该方法可以通过融合机制提取字符分布式表示和字形表示之间的交互信息。
|
机器学习/深度学习 自然语言处理 资源调度
论文解读系列| 06:【NER】LatticeLSTM模型详解
Lattice LSTM模型是基于词汇增强方法的中文NER的开篇之作。在该模型中,使用了字符信息和所有词序列信息,具体地,当我们通过词汇信息(词典)匹配一个句子时,可以获得一个类似Lattice的结构。这种方式可以避免因分词错误导致实体识别错误,在中文NER任务上有显著效果。
|
机器学习/深度学习 自然语言处理 算法
论文解读系列| 05:【NER】SoftLexicon模型详解
SoftLexicon是一种简单而有效的将词汇信息纳入字符表示的方法。这种方法避免设计复杂的序列建模结构,并且对于任何NER模型,它只需要细微地调整字符表示层来引入词典信息。在4个中文NER基准数据集上的实验结果表明,该方法的推理速度比现有SOTA方法快6.15倍,性能更好。
|
机器学习/深度学习 XML 自然语言处理
TextCNN、DCNN、AttentionXML…你都掌握了吗?一文总结文本分类必备经典模型(二)
TextCNN、DCNN、AttentionXML…你都掌握了吗?一文总结文本分类必备经典模型(二)
157 0

热门文章

最新文章