Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型(2)

简介: Bert on ABSA、ASGCN、GAN、Sentic GCN…你都掌握了吗?一文总结情感分析必备经典模型



3、  GAN

本文提出了一种新的面向属性层次情感分类任务的目标依赖图注意网络(Target-Dependent Graph Attention Network,TD-GAT),这种网络能在属性级情感分类任务中很好地利用句子的语法结构,并将此类句子表示称为依赖图,而非单词序列。使用上述依赖图,可以使上下文中对某一属性的情感特征通过语法结构传播。在依赖图中,属性目标和相关属性词直接相连。作者采用多层图注意力网络,将情感特征从重要的语法相邻词传播到属性目标。作者还进一步在TD-GAT中加入了一个LSTM单元,以便在递归邻域扩展过程中明确地捕获跨层次的属性相关信息。

文本表示
句子中的单词用Glove或bert初始化,之后将句子转换为依存图。两个单词之间的边代表这两个单词是语义相关的。比如句子“delivery was early too.”的依赖图如下,对于aspect “delivery”,模型可以将特征从距离为2的单词经过两次迭代之后传递到delivery。



图3 “delivery was early too.”的依赖图

Graph Attention Network(GAT)
GAT是GNN的一种变种,可以将一个aspect的语法上下文的特征传递到aspect。这篇论文的graph attention network使用的是multi-attention,就是将节点的维度分为K份,然后在K份上分别做attention,之后再将结果拼接起来。公式如下:



简写为:

Target-Dependent Graph Attention Network
为了利用target信息,论文使用LSTM来建模跨层的aspect信息。具体做法是用LSTM中的hidden层来表示aspect target信息,在第0层的hidden只依赖于target周围的特征,而在L层,target的L跳邻居中与aspect相关的信息通过LSTM单元加入到其hidden层状态中。给出之前的hidden状态与cell状态,论文首先用GAT得到一个临时状态表示作为LSTM的新观察值,之后用LSTM单元来更新hidden状态。前向传播过程可以表示为:



Final Classification
通过L层的TD-GAT网络,可以得到aspect target的最终表示,这里仅仅取出aspect的hidden状态,之后通过线性变换将隐藏层状态变换到分类空间,最后通过softmax函数得到预测概率:




其中的W 、b分别为线性变换的权重矩阵和偏置,C为情感分类集。训练使用L2正则化的交叉熵损失进行:



项目 SOTA!平台项目详情页

GAN

前往 SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/gan-7

4、  Sentic GCN

基于属性的情感分析是一项细粒度的情感分析任务,它需要检测对特定属性的情感极性。最近,依赖树上的图神经模型被广泛地应用于基于属性的情感分析。然而,大多数现有的工作都集中在基于句子的依赖树来学习从上下文词到属性词的依赖信息,这缺乏对特定属性的上下文情感知识的利用。本文提出了一个基于SenticNet的图卷积网络,根据具体的属性来利用句子的情感依赖关系,称为Sentic GCN。具体来说,作者探索了一种新的解决方案,通过整合SenticNet的情感知识来构建图神经网络,以增强句子的依赖图。在此基础上,新的情感增强图模型既考虑了上下文词和属性词的依赖关系,也考虑了观点词和属性之间的情感信息。

文章提出模型框架如图4所示,嵌入层可选用glove或者BERT,然后通过双向LSTM或者文本的特征向量表示。在另一方面通过spacy工具,在结合SenticNet的基础上生成词语之间的依赖最后输入到GCN中完成分类。


图4 模型架构图

对于每一句话作者首先采用了最基本的spacy工具生成词语间的邻接矩阵(spaCy 是一个 Python 和 CPython 的 NLP 自然语言文本处理库,GitHub - explosion/spaCy: 💫 Industrial-strength Natural Language Processing (NLP) in Python):


然后通过SenticNet(SenticNet)获取每个单词的情感评分,并与邻接矩阵相加:


此外,现有的基于GCN的属性情感分析模型在构建图时通常忽略了对给定属性的重要关注。因此,在这项工作中,作者基于SenticNet进一步增强了上下文词和主体词之间的情感依赖性,最终表示如下:

项目 SOTA!平台项目详情页
Sentic GCN 前往 SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/sentic-gcn




相关文章
|
1月前
|
机器学习/深度学习 数据采集 人工智能
35_BERT与RoBERTa:优化编码器模型
2018年,Google发布的BERT(Bidirectional Encoder Representations from Transformers)模型彻底改变了自然语言处理领域的格局。作为第一个真正意义上的双向预训练语言模型,BERT通过创新的掩码语言模型(Masked Language Model, MLM)预训练策略,使模型能够同时从左右两侧的上下文信息中学习语言表示,从而在多项NLP任务上取得了突破性进展。
|
1月前
|
人工智能 自然语言处理 调度
24_BERT模型详解:从预训练到微调的全方位指南
BERT(Bidirectional Encoder Representations from Transformers)是由Google AI在2018年推出的革命性预训练语言模型,它彻底改变了自然语言处理(NLP)领域的格局。通过创新的双向训练方式,BERT能够捕捉词语在上下文环境中的完整语义信息,从而在各种下游任务中取得了突破性的表现。
|
5月前
|
存储 机器学习/深度学习 自然语言处理
避坑指南:PAI-DLC分布式训练BERT模型的3大性能优化策略
本文基于电商搜索场景下的BERT-Large模型训练优化实践,针对数据供给、通信效率与计算资源利用率三大瓶颈,提出异步IO流水线、梯度压缩+拓扑感知、算子融合+混合精度等策略。实测在128卡V100集群上训练速度提升3.2倍,GPU利用率提升至89.3%,训练成本降低70%。适用于大规模分布式深度学习任务的性能调优。
275 3
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
昇腾AI行业案例(四):基于 Bert 模型实现文本分类
欢迎学习《昇腾行业应用案例》的“基于 Bert 模型实现文本分类”实验。在本实验中,您将学习如何使用利用 NLP (natural language processing) 领域的AI模型来构建一个端到端的文本系统,并使用开源数据集进行效果验证。为此,我们将使用昇腾的AI硬件以及CANN等软件产品。
760 0
|
自然语言处理 PyTorch 算法框架/工具
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!
【10月更文挑战第1天】随着深度学习技术的进步,预训练模型已成为自然语言处理(NLP)领域的常见实践。这些模型通过大规模数据集训练获得通用语言表示,但需进一步微调以适应特定任务。本文通过简化流程和示例代码,介绍了如何选择预训练模型(如BERT),并利用Python库(如Transformers和PyTorch)进行微调。文章详细说明了数据准备、模型初始化、损失函数定义及训练循环等关键步骤,并提供了评估模型性能的方法。希望本文能帮助读者更好地理解和实现模型微调。
1086 2
掌握从零到一的进阶攻略:让你轻松成为BERT微调高手——详解模型微调全流程,含实战代码与最佳实践秘籍,助你应对各类NLP挑战!
|
机器学习/深度学习 自然语言处理 知识图谱
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
1205 1
|
搜索推荐 算法
模型小,还高效!港大最新推荐系统EasyRec:零样本文本推荐能力超越OpenAI、Bert
【9月更文挑战第21天】香港大学研究者开发了一种名为EasyRec的新推荐系统,利用语言模型的强大文本理解和生成能力,解决了传统推荐算法在零样本学习场景中的局限。EasyRec通过文本-行为对齐框架,结合对比学习和协同语言模型调优,提升了推荐准确性。实验表明,EasyRec在多个真实世界数据集上的表现优于现有模型,但其性能依赖高质量文本数据且计算复杂度较高。论文详见:http://arxiv.org/abs/2408.08821
424 7
|
机器学习/深度学习 自然语言处理 算法
[大语言模型-工程实践] 手把手教你-基于BERT模型提取商品标题关键词及优化改进
[大语言模型-工程实践] 手把手教你-基于BERT模型提取商品标题关键词及优化改进
|
自然语言处理 索引
使用BERT进行情感分析
【10月更文挑战第2天】

热门文章

最新文章