【论文速递】EMNLP2022:随机模态缺失情况下的多模态情感分析

简介: 【论文速递】EMNLP2022:随机模态缺失情况下的多模态情感分析

【论文原文】:EMNLP2022 - Mitigating Inconsistencies in Multimodal Sentiment Analysis under Uncertain Missing Modalities

论文:https://preview.aclanthology.org/emnlp-22-ingestion/2022.emnlp-main.189.pdf

代码:https://github.com/JaydenZeng/EMMR

博主关键词:多模态情感分析,模态缺失重建, ensemble learning


摘要


模态缺失问题是多模态情感分析任务(MSA)的常见问题。整体的情感极性可能会因某一模态的缺失而发生变化,出现情感不一致的现象(inconsistency phenomenon)。缺少的,能够决定整体情感极性的模态,被称为关键缺失模态(key missing modality)。以往工作忽略了情感不一致现象(inconsistency phenomenon),简单地丢弃缺失模态,仅从现有的模态中生成相关特征。本文提出了一个ensemble-based 缺失模态重建网络(EMMR)来检测并恢复关键缺失模态(key missing modality)的语义特征。首先, EMMR通过骨干编码器-解码器网络来学习其余模态的联合表征。然后,基于重建的缺失模态特征,本文通过检查语义一致性以确定缺失模态是否对整体情感极性的判定起关键作用。在确定关键缺失模态后,本文引入 多个 encoder-decoder 模型,以late fusion的方式做出更好的决策

640.png

简介


经典的多模态情感分析方法根据所有模态的信息来做出判断,但很多场景中部分模态往往是缺失的。尽管有一些方法关注于缺失模态的重建,但是它们忽略了,模态缺失所带来的情感极性的反转现象。例如Figure 1 中,当声音,文本,图片三模态信息完整时,展现出中性的(Neutral)情感;当声音模态的信息缺失时,仅凭文本和图像,更倾向于展示出负面的(Negative)情感。这种情感极性不一致的现象(inconsistency phenomenon)表明在这个例子中,声音模态是关键缺失模态(key missing modality)。此外,当不同模态表现出略微不同的情感极性时,如何在多模态信息之间做好取舍,也是待解决的问题。

在本文中,作者提出了Ensemble-based Missing Modality Reconstruction (EMMR) 网络来解决情感极性不一致的现象。对于输入的一条多模态样本: S = [Xv, Xa, Xt] (vedio,acoustic,text),EMMR 通过基于transformer结构的encoder-decoder骨干网络来恢复缺失模态信息(图例中该样本缺失的模态信息是声音模态Xa),并在除分类损失外增加两个loss, L_{forward}和 L_{backword}辅助缺失模态信息的重建:

640.png

骨干网络中引入了已经预训练好的Pre-trained Network,该网络在预训练时利用所有模态的信息(不存在缺失模态),并在训练完成后冻结参数。引入它的目的是利用它的预训练知识指导骨干网络中的Encoder,通过将Pre-trained Network 的输出与骨干网络Encoder的输出计算KL散度损失作为 L_{forward},达到迁移预训练知识的目的。类似地,将处理后的多模态输入特征与骨干网络decoder的输出计算KL散度损失,作为 L_{backward}, 以更好地监督特征重建的过程。

在完成缺失模态特征的重建之后,EMMR重点关注情感极性是否发生反转,并据此确定缺失模态是否为关键模态,以采取不同的ensemble策略。用骨干网络decoder的输出代替缺失的模态信息后,将恢复后的完备模态信息通过多头注意力与全连接层进行标签预测,若预测的标签与基于除缺失模态外的剩余模态信息预测的标签不一致,则认定缺失模态为关键模态,并引入 多个模型,包括AutoEncoder (AE),Missing Modality Imagination Network (MMIN), Transformer-based encoder-decoder model (TF) 以late fusion的方式做出更好的决策,如下Figure 3所示:

640.png

由于ensemble learning结合了多个模型的信息知识,并以自适应的方式实现更好的预测性能,所以它可以基于恢复的特征有效地缓解情感极性不一致的现象。EMMR检查恢复的完整模态与原始可用模态之间的语义一致性(预测标签的差异)。一旦它们不一致,则对TF、AE和MMIN进行进一步的整合来决策。在ensemble learning中,多种方法的整体表现会比单一方法的表现要好,EMMR将三种提取的特征根据相应的注意力进行组合,以获取最后的预测结果。


文章的主要创新点如下:

  • 本文提出EMMR来解决模态信息丢失情况下的多模态情感分析任务。以往工作更多的关注于缺失模态信息的重建,而本文进一步考虑到缺失的模态可能引起情感极性的不一致,并对此情况分别讨论。
  • 在出现情感极性不一致的情况下,本文引入Auto Encoder-based model 和transformer-based model,并针对情感极性不一致的样本采用ensemble learning以改善分类性能。
  • 在多模态情感分析数据集 CMU-MOSI 和IEMOCAP,本文方法取得了新的SOTA效果,特别是在CMU-MOSI的M-F1指标上取得大幅提升(9%)
相关文章
|
机器学习/深度学习 算法 Python
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
1820 1
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
|
机器学习/深度学习 算法框架/工具
什么是ablation study(消融实验)?
什么是ablation study(消融实验)?
什么是ablation study(消融实验)?
|
11月前
|
数据采集 前端开发 物联网
【项目实战】通过LLaMaFactory+Qwen2-VL-2B微调一个多模态医疗大模型
本文介绍了一个基于多模态大模型的医疗图像诊断项目。项目旨在通过训练一个医疗领域的多模态大模型,提高医生处理医学图像的效率,辅助诊断和治疗。作者以家中老人的脑部CT为例,展示了如何利用MedTrinity-25M数据集训练模型,经过数据准备、环境搭建、模型训练及微调、最终验证等步骤,成功使模型能够识别CT图像并给出具体的诊断意见,与专业医生的诊断结果高度吻合。
20941 162
【项目实战】通过LLaMaFactory+Qwen2-VL-2B微调一个多模态医疗大模型
|
10月前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
Shell 网络安全 开发工具
【已解决】SSL certificate problem: self signed certificate
SSL certificate problem: self signed certificate
2358 2
|
自然语言处理 数据处理
情感分析的终极形态:全景式细粒度多模态对话情感分析基准PanoSent
【9月更文挑战第24天】PanoSent是一种全新的多模态对话情感分析框架,旨在全景式地提取和分析情感元素,包括情感六元组提取与情感翻转分析两大任务。此框架依托大规模、高质量的多模态数据集PanoSent,涵盖文本、图像、音频等多种模态及多种语言,适应不同应用场景。为解决这些任务,研究人员提出了Chain-of-Sentiment推理框架,结合多模态大语言模型Sentica,实现细粒度的情感分析。尽管PanoSent在情感分析任务上表现优异,但仍面临多模态数据处理和跨领域适用性的挑战。
394 2
|
人工智能 负载均衡 网络架构
混合专家更有主见了,能感知多模态分情况行事,Meta提出模态感知型专家混合
【9月更文挑战第3天】在人工智能领域,多模态学习备受关注。Meta AI提出了一种名为模态感知型专家混合(MoMa)的新架构,通过模态特定的专家模块组合处理图像和文本,提升了多模态早期融合语言模型的预训练效率。MoMa在1万亿令牌训练下,实现了3.7倍的FLOPs节省,优于标准混合专家方案。尽管存在因果推理性能和负载平衡方面的局限性,MoMa仍为多模态预训练提供了高效新方法。论文详细内容见:https://arxiv.org/pdf/2407.21770
288 3
|
机器学习/深度学习 数据可视化 UED
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理
【9月更文挑战第4天】Transformer Explainer是一款基于网页的交互式可视化工具,专为帮助用户理解复杂的Transformer模型而设计。通过多层次抽象、实时推理及互动实验,以及无需安装即可使用的便捷性,此工具选取GPT-2作为教学模型,降低了学习门槛并提升了教育普及度。用户可以通过输入自定义文本观察预测过程,深入了解内部组件的工作原理。此外,它还减少了认知负荷,增强了互动学习体验。未来,该工具将在复杂性管理和性能优化方面继续改进,并通过用户研究进一步提升功能和可用性。[论文地址:https://arxiv.org/pdf/2408.04619]
548 1
|
机器学习/深度学习 自然语言处理 数据挖掘
从理论到实践:详解GraphRAG框架下的多模态内容理解与生成
【10月更文挑战第10天】随着多媒体内容的爆炸性增长,如何有效地理解和生成跨模态的数据(如图像、文本和视频)变得越来越重要。近年来,图神经网络(GNNs)因其在处理非结构化数据方面的强大能力而受到广泛关注。在此背景下,Graph Retrieval-Augmented Generation (GraphRAG) 框架作为一种新的方法,通过结合图检索和生成模型来提升多模态内容的理解与生成效果。本文将深入探讨GraphRAG的基本原理、核心组件以及实际应用,并通过代码示例展示其在多媒体内容处理中的潜力。
1753 0
|
PyTorch 测试技术 算法框架/工具
Python中Thop库的常见用法和代码示例
肆十二在B站分享了关于THOP(Torch-OpCounter)的实战教学视频。THOP是一个用于计算PyTorch模型操作数和计算量的工具,帮助开发者评估模型复杂度和性能。本文介绍了THOP的安装、使用方法及基本用例,包括如何计算模型的FLOPs和参数量。
1153 0

热门文章

最新文章