论文笔记之:Heterogeneous Image Features Integration via Multi-Modal Semi-Supervised Learning Model

简介: Heterogeneous Image Features Integration via Multi-Modal Semi-Supervised Learning Model ICCV 2013      本文提出了一种结合多种传统手工设计 feature 的多模态方法,在 label propagation 的基础上进行标签传递,进行半监督学习,综合利用各种 feature 的优势,自适应的对各种feature 的效果进行加权,即:对于判别性较好的 feature给予较高的权重,较差的 feature 给予较低的权重,然后将整个流程融合在一个框架中进行学习。

 

Heterogeneous Image Features Integration via Multi-Modal Semi-Supervised Learning Model

ICCV 2013

  

  本文提出了一种结合多种传统手工设计 feature 的多模态方法,在 label propagation 的基础上进行标签传递,进行半监督学习,综合利用各种 feature 的优势,自适应的对各种feature 的效果进行加权,即:对于判别性较好的 feature给予较高的权重,较差的 feature 给予较低的权重,然后将整个流程融合在一个框架中进行学习。

    关于基于 Graph 的标签传递的基础知识,请参考具体论文,或者本博客的博文“Dynamic Label Propagation for Semi-supervised Multi-class Multi-label Classification”。

     下面的公式即为所提出的 general 的 framework:

  其中,这个公式主要有 3个成分,即:各个feature 所占的权重 $\alpha^{(v)}$,V 是所有feature类别总数,$G^{(v)}$ 是第 v 个特征对应的类别标签矩阵 (class label matrix),$G$ 是我们所感兴趣的 比较趋于一致的 类别标签矩阵。通过求解该公式,同时得到 $G^{(v)}$, $G$, $\alpha^{(v)}$。

  由于该框架并非凸的,那么无法直接对其进行求解,那么我们要做的就是将其拆分为 3个 步骤,分别进行求解,即:

  Step 1:   固定 $G^{(v)}$, $G$, 然后先求解 $\alpha^{(v)}$:

  然后这个子问题,就可以利用拉格朗日乘数法进行求解,因为这是一个带有约束的最小值问题。

  然后可以求解得到公式(11),即为各个模态的权重,但是 蓝色加深字体,可能是作者笔误,我认为这里应该是 $\alpha^{(v)}$才对,因为求得就是这个,不知道为何弄出一个 $a^{(v)}$出来。额。。。

  

  Step 2.  就是固定已经求出的 $\alpha^{(v)}$ 以及 $G$,然后去求解 $G^{(v)}$

  将上述问题转换为:

  可以得到公式(13),即为所求。

 

  Step 3.   固定已经求出的 $\alpha^{(v)}$ 以及  $G^{(v)}$,然后去求解 $G$

  由此可以得到:

 

  迭代的进行上述三个步骤,直至收敛。

  最后一步,就是将所得到的标签向量取最大值,作为对应样本的标签,即:

  

  完整的算法流程如下:

 

  本文的实验部分,做的比较充分,在 4个数据集上进行了验证。本文所要验证的主要问题就是,这种方式自适应加权的 feature 组合可以得到更好的标签传递效果。


 

  感受:

  今天由于是博主要做实验对比,才去搜索对应的半监督学习论文,然后发现了聂飞平老师的文章,也算是比较老的文章了。我觉得这也给我们做学术的人提供了一个很好的示例,如何做研究。本来 label propagation 是一种经典的算法,那么如何在别人在算法进行修改的基础上,做出自己的东西来,额,这个其实看着是大空话,不过还是很有指导意义的。归纳下本文的贡献点,即:提出一种 general 的半监督学习框架,在传统方法 label propagation 的基础上,引入了多种 feature 的思想,对各个feature 的性能进行加权处理,当然求解方法也是经常使用的拆分成子问题的方法来做。

  本文给出了 算法的主要 code,但是各种 feature 的提取真是蛋疼,我找了半天才找到一个工具包,但是还是不够全面,因为文中涉及到多种feature的提取,我觉得作者最好还是将 feature的提取工具放出来比较好,这样别人在引用您的文章时,也可以很不费劲的进行实验,然后对比。额。。。

  不说了,我去提 feature了 。。。

  拜拜 。。。

  

  

相关文章
|
数据挖掘
【提示学习】Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
文章提出了一种简单确高效地构建verbalization的方法:
|
6月前
|
存储 JSON 算法
【论文代码】②.1 STIOCS: Active learning-based semi-supervised training framework for IOC extraction
【论文代码】②.1 STIOCS: Active learning-based semi-supervised training framework for IOC extraction
36 0
|
自然语言处理 算法
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
在社交媒体上,面临着大量的知识和信息,一个有效的关键词抽取算法可以广泛地被应用的信息检索和自然语言处理中。传统的关键词抽取算法很难使用外部的知识信息。
161 0
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
|
机器学习/深度学习 人工智能 自然语言处理
OneIE:A Joint Neural Model for Information Extraction with Global Features论文解读
大多数现有的用于信息抽取(IE)的联合神经网络模型使用局部任务特定的分类器来预测单个实例(例如,触发词,关系)的标签,而不管它们之间的交互。
183 0
|
6月前
|
自然语言处理
【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction
【论文代码】① STIOCS: Active learning-based semi-supervised training framework for IOC extraction
45 0
|
自然语言处理 算法 知识图谱
DEGREE: A Data-Efficient Generation-Based Event Extraction Model论文解读
事件抽取需要专家进行高质量的人工标注,这通常很昂贵。因此,学习一个仅用少数标记示例就能训练的数据高效事件抽取模型已成为一个至关重要的挑战。
159 0
|
机器学习/深度学习 自然语言处理 算法
Multimedia Event Extraction From News With a Unified Contrastive Learning Framework论文解读
从新闻中提取事件在下游应用程序中有很多好处。然而,今天的事件提取(EE)系统通常专注于单一的模态——无论是文本还是图像
182 0
|
机器学习/深度学习 自然语言处理 算法
SS-AGA:Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment 论文解读
预测知识图(KG)中缺失的事实是至关重要的,因为现代知识图远未补全。由于劳动密集型的人类标签,当处理以各种语言表示的知识时,这种现象会恶化。
102 0
|
机器学习/深度学习 自然语言处理 索引
GTEE-DYNPREF: Dynamic Prefix-Tuning for Generative Template-based Event Extraction 论文解读
我们以基于模板的条件生成的生成方式考虑事件抽取。尽管将事件抽取任务转换为带有提示的序列生成问题的趋势正在上升,但这些基于生成的方法存在两个重大挑战
140 0
|
数据可视化 数据挖掘
【论文解读】Dual Contrastive Learning:Text Classification via Label-Aware Data Augmentation
北航出了一篇比较有意思的文章,使用标签感知的数据增强方式,将对比学习放置在有监督的环境中 ,下游任务为多类文本分类,在低资源环境中进行实验取得了不错的效果
412 0