【多标签文本分类】融合CNN-SAM与GAT的多标签文本分类模型

简介: 【多标签文本分类】融合CNN-SAM与GAT的多标签文本分类模型

·阅读摘要:

 在本文中,作者基于CNN、Attention、GAT提出CS-GAT模型,在一些通用数据集上,表现良好。

·参考文献:

 [1] 融合CNN-SAM与GAT的多标签文本分类模型

  本篇论文写的比较好,在介绍模型的时候,条理清晰。有借鉴意义。

【注一】:个人觉得本文是标准的“模型缝合”的产出,眼下这种出论文的方式还是很香的。

[1] 参考论文信息


  论文名称:《融合CNN-SAM与GAT的多标签文本分类模型》

  发布期刊:《计算机工程与应用》

  期刊信息:CSCD扩展

image.png

[2] 模型


  模型图如下:

image.png

   文本与标签词嵌入层: 使用了glove的预训练词向量,对文本数据和标签都是使用glove来转化词向量的。

   BiLSTM层: 双向LSTM,用的很多了。

  融合局部与全局的文本特征提取层: 这里想要对BiLSTM层的输出H HH提取局部信息和全局信息。

 · 对于局部信息,采用多卷积核大小的CNN+最大Pooling来提取。

  · 对于全局信息,采用注意力机制提取。

  · 最后,把提取出来的局部信息和全局信息拼接即可。

【注二】:CNN+Pooling、Attention是比较基础的文本分类领域知识。也比较常用这些技术。

   标签图注意力层: 这是GAT模型的内容。为标签编码成图结构。

   标签文本交互层: 把全局标签信息表示与文本上下文语义信息表示做交互注意力计算。

   自适应融合层:标签文本交互层融合局部与全局的文本特征提取层的输出进行融合,然后就可以分类了。

【注三】:GAT模型比较抽象,论文地址:https://arxiv.org/pdf/1710.10903.pdf

相关文章
|
7月前
|
机器学习/深度学习 数据采集 并行计算
多步预测系列 | LSTM、CNN、Transformer、TCN、串行、并行模型集合研究(Python代码实现)
多步预测系列 | LSTM、CNN、Transformer、TCN、串行、并行模型集合研究(Python代码实现)
766 2
|
8月前
|
机器学习/深度学习 数据采集 运维
基于WOA-CNN-BiLSTM-Attention、CNN-BiLSTM-Attention、WOA-CNN-BiLSTM、CNN-BiLSTM、BiLSTM、CNN6模型单变量时序预测一键对比研究
基于WOA-CNN-BiLSTM-Attention、CNN-BiLSTM-Attention、WOA-CNN-BiLSTM、CNN-BiLSTM、BiLSTM、CNN6模型单变量时序预测一键对比研究
304 7
|
7月前
|
机器学习/深度学习 计算机视觉
基于CNN和大气散射模型的图像去雾
基于CNN和大气散射模型的图像去雾
|
8月前
|
机器学习/深度学习 算法 物联网
基于WOA-CNN-LSTM-Attention、CNN-LSTM-Attention、WOA-CNN-LSTM、CNN-LSTM、LSTM、CNN6模型多变量时序预测一键对比研究(Matlab代码)
基于WOA-CNN-LSTM-Attention、CNN-LSTM-Attention、WOA-CNN-LSTM、CNN-LSTM、LSTM、CNN6模型多变量时序预测一键对比研究(Matlab代码)
307 0
|
机器学习/深度学习 人工智能 编解码
【AI系统】轻量级CNN模型新进展
本文继续探讨CNN模型的小型化,涵盖ESPNet、FBNet、EfficientNet和GhostNet系列。ESPNet系列通过高效空间金字塔卷积减少运算量;FBNet系列采用基于NAS的轻量化网络设计;EfficientNet系列通过复合缩放方法平衡网络深度、宽度和分辨率;GhostNet系列则通过Ghost模块生成更多特征图,减少计算成本。各系列均旨在提升模型效率和性能,适用于移动和边缘设备。
1216 6
|
机器学习/深度学习 存储 人工智能
【AI系统】轻量级CNN模型综述
本文介绍了几种常见的小型化CNN模型,包括SqueezeNet、ShuffleNet、MobileNet等系列。这些模型通过减少参数量和计算量,实现在有限资源下高效运行,适用于存储和算力受限的场景。文章详细解释了各模型的核心技术和优化策略,如Fire Module、Channel Shuffle、Depthwise Separable Convolutions等,旨在帮助读者理解和应用这些高效的小型化CNN模型。
1325 3
|
机器学习/深度学习
CNN模型验证和CNN模型保存
【8月更文挑战第10天】CNN模型验证和CNN模型保存。
229 27
|
机器学习/深度学习
ACM MM24:复旦提出首个基于扩散模型的视频非限制性对抗攻击框架,主流CNN和ViT架构都防不住它
【9月更文挑战第23天】复旦大学研究团队提出了ReToMe-VA,一种基于扩散模型的视频非限制性对抗攻击框架,通过时间步长对抗性潜在优化(TALO)与递归令牌合并(ReToMe)策略,实现了高转移性且难以察觉的对抗性视频生成。TALO优化去噪步骤扰动,提升空间难以察觉性及计算效率;ReToMe则确保时间一致性,增强帧间交互。实验表明,ReToMe-VA在攻击转移性上超越现有方法,但面临计算成本高、实时应用受限及隐私安全等挑战。[论文链接](http://arxiv.org/abs/2408.05479)
403 3
|
机器学习/深度学习
加载CNN保存模型
【8月更文挑战第10天】加载CNN保存模型。
163 12
|
机器学习/深度学习 编解码 算法
【深度学习】经典的深度学习模型-01 开山之作:CNN卷积神经网络LeNet-5
【深度学习】经典的深度学习模型-01 开山之作:CNN卷积神经网络LeNet-5

热门文章

最新文章