【多标签文本分类】融合CNN-SAM与GAT的多标签文本分类模型

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 【多标签文本分类】融合CNN-SAM与GAT的多标签文本分类模型

·阅读摘要:

 在本文中,作者基于CNN、Attention、GAT提出CS-GAT模型,在一些通用数据集上,表现良好。

·参考文献:

 [1] 融合CNN-SAM与GAT的多标签文本分类模型

  本篇论文写的比较好,在介绍模型的时候,条理清晰。有借鉴意义。

【注一】:个人觉得本文是标准的“模型缝合”的产出,眼下这种出论文的方式还是很香的。

[1] 参考论文信息


  论文名称:《融合CNN-SAM与GAT的多标签文本分类模型》

  发布期刊:《计算机工程与应用》

  期刊信息:CSCD扩展

image.png

[2] 模型


  模型图如下:

image.png

   文本与标签词嵌入层: 使用了glove的预训练词向量,对文本数据和标签都是使用glove来转化词向量的。

   BiLSTM层: 双向LSTM,用的很多了。

  融合局部与全局的文本特征提取层: 这里想要对BiLSTM层的输出H HH提取局部信息和全局信息。

 · 对于局部信息,采用多卷积核大小的CNN+最大Pooling来提取。

  · 对于全局信息,采用注意力机制提取。

  · 最后,把提取出来的局部信息和全局信息拼接即可。

【注二】:CNN+Pooling、Attention是比较基础的文本分类领域知识。也比较常用这些技术。

   标签图注意力层: 这是GAT模型的内容。为标签编码成图结构。

   标签文本交互层: 把全局标签信息表示与文本上下文语义信息表示做交互注意力计算。

   自适应融合层:标签文本交互层融合局部与全局的文本特征提取层的输出进行融合,然后就可以分类了。

【注三】:GAT模型比较抽象,论文地址:https://arxiv.org/pdf/1710.10903.pdf

相关文章
|
8月前
|
机器学习/深度学习
大模型开发:解释卷积神经网络(CNN)是如何在图像识别任务中工作的。
**CNN图像识别摘要:** CNN通过卷积层提取图像局部特征,池化层减小尺寸并保持关键信息,全连接层整合特征,最后用Softmax等分类器进行识别。自动学习与空间处理能力使其在图像识别中表现出色。
117 2
|
1月前
|
机器学习/深度学习 存储 人工智能
【AI系统】轻量级CNN模型综述
本文介绍了几种常见的小型化CNN模型,包括SqueezeNet、ShuffleNet、MobileNet等系列。这些模型通过减少参数量和计算量,实现在有限资源下高效运行,适用于存储和算力受限的场景。文章详细解释了各模型的核心技术和优化策略,如Fire Module、Channel Shuffle、Depthwise Separable Convolutions等,旨在帮助读者理解和应用这些高效的小型化CNN模型。
46 3
|
3月前
|
机器学习/深度学习 编解码 算法
【深度学习】经典的深度学习模型-01 开山之作:CNN卷积神经网络LeNet-5
【深度学习】经典的深度学习模型-01 开山之作:CNN卷积神经网络LeNet-5
65 0
|
4月前
|
机器学习/深度学习
ACM MM24:复旦提出首个基于扩散模型的视频非限制性对抗攻击框架,主流CNN和ViT架构都防不住它
【9月更文挑战第23天】复旦大学研究团队提出了ReToMe-VA,一种基于扩散模型的视频非限制性对抗攻击框架,通过时间步长对抗性潜在优化(TALO)与递归令牌合并(ReToMe)策略,实现了高转移性且难以察觉的对抗性视频生成。TALO优化去噪步骤扰动,提升空间难以察觉性及计算效率;ReToMe则确保时间一致性,增强帧间交互。实验表明,ReToMe-VA在攻击转移性上超越现有方法,但面临计算成本高、实时应用受限及隐私安全等挑战。[论文链接](http://arxiv.org/abs/2408.05479)
95 3
|
5月前
|
机器学习/深度学习
CNN模型验证和CNN模型保存
【8月更文挑战第10天】CNN模型验证和CNN模型保存。
71 27
|
5月前
|
机器学习/深度学习
加载CNN保存模型
【8月更文挑战第10天】加载CNN保存模型。
48 12
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
算法金 | 秒懂 AI - 深度学习五大模型:RNN、CNN、Transformer、BERT、GPT 简介
**RNN**,1986年提出,用于序列数据,如语言模型和语音识别,但原始模型有梯度消失问题。**LSTM**和**GRU**通过门控解决了此问题。 **CNN**,1989年引入,擅长图像处理,卷积层和池化层提取特征,经典应用包括图像分类和物体检测,如LeNet-5。 **Transformer**,2017年由Google推出,自注意力机制实现并行计算,优化了NLP效率,如机器翻译。 **BERT**,2018年Google的双向预训练模型,通过掩码语言模型改进上下文理解,适用于问答和文本分类。
177 9
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。
【7月更文挑战第2天】计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。AlexNet开启新时代,后续模型不断优化,推动对象检测、语义分割、图像生成等领域发展。尽管面临数据隐私、模型解释性等挑战,深度学习已广泛应用于安防、医疗、零售和农业,预示着更智能、高效的未来,同时也强调了技术创新、伦理考量的重要性。
78 1
|
6月前
|
机器学习/深度学习 数据采集 算法
Python基于卷积神经网络CNN模型和VGG16模型进行图片识别项目实战
Python基于卷积神经网络CNN模型和VGG16模型进行图片识别项目实战

热门文章

最新文章