Keyphrase Extraction Using Deep Recurrent Neural Networks on Twitter论文解读

简介: 该论文针对Twitter网站的信息进行关键词提取,因为Twitter网站文章/对话长度受到限制,现有的方法通常效果会急剧下降。作者使用循环神经网络(recurrent neural network,RNN)来解决这一问题,相对于其他方法取得了更好的效果。

Keyphrase Extraction Using Deep Recurrent Neural Networks on Twitter


论文简介


该论文针对Twitter网站的信息进行关键词提取,因为Twitter网站文章/对话长度受到限制,现有的方法通常效果会急剧下降。作者使用循环神经网络(recurrent neural network,RNN)来解决这一问题,相对于其他方法取得了更好的效果。


Twitter限制长度在140个字。和几百字文档关键词抽取相比,从短文档中提取关键短语更加困难,因为短文档中很难使用到词频的统计特征。


数据少,基本没有公开的数据资源;标签的效果难以衡量。


作者提出的这种RNN模型,可以用于联合处理关键字排名、关键字短语生成和关键字短语排名步骤。该RNN在结构上包含两层,第一层用于捕捉关键字信息,第二层在其基础上使用序列标注方法。


论文实现


9ae9c6a2ee23477f8af2664d1eaaca95.png


图1 作者提出的RNN关键词提取模型


RNN模型可以用以下公式来表示:


image.png


其中image.png是在t 时刻第l个层的结果;U l  和W l 分别是t−1时刻隐藏层的激活矩阵和t时刻底层的激活层矩阵。当l=1时,隐藏层将被计算image.png,∅ l 是一个非线性函数,例如sigmoid激活函数。则第l 层的输出为:


image.png


其中V l 是第l层隐藏层image.png的权重矩阵,φ l也是一种非线性矩阵,例如softmax激活函数。


联合的RNN计算如下:


image.png


最终的评估函数为:


image.png


给出N 个训练序列D =image.png,则子目标公式计算如下:


image.png


d(a,b)函数代表的是向量a 和b之间的距离计算函数,可以是欧氏距离,交叉熵等计算函数。


6d6bf44a0af84b5db0b3ecfe3e2300f5.png


图1 在Twitter上实现的具体算法流程图


论文结果展示


表1 各种模型在Twitter文本关键字抽取的效果


aff36308c7964341958156de5b475730.png


词嵌入更新比不更新效果更好;不同窗口大小会导致模型的效果不一样;常规参数α \alphaα设置大小也会影响模型抽取的效果。


149d71c25fba435ab9310c33c409ecf4.png


图2 不同模型在使用不同的参数效果展示


论文总结


该论文使用RNN构建了一种有监督关键字抽取模型,相对于其他baseline模型,实现了较好的效果提升。主要在于直接从Twitter文本预料中直接可以抽取出关键字,然后再进行有监督的学习,所以效果才可以达到80%左右的效果。目前有监督效果都还可以,相对于无监督模型效果好特别多。


作者对比了RNN、R-CRF、CRF、LSTM、AKET等模型,确实作者提出的模型效果更加。作者还进行了训练数据大小、词共现窗口大小和常数α三者对模型的效果影响。


N、R-CRF、CRF、LSTM、AKET等模型,确实作者提出的模型效果更加。作者还进行了训练数据大小、词共现窗口大小和常数α三者对模型的效果影响。

目录
打赏
0
0
0
0
3
分享
相关文章
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
本文探讨了使用复数卷积神经网络进行MRI图像重建的方法,强调了复数网络在保留相位信息和减少参数数量方面的优势,并通过实验分析了不同的复数激活函数、网络宽度、深度以及结构对模型性能的影响,得出复数模型在MRI重建任务中相对于实数模型具有更优性能的结论。
87 0
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
|
12月前
|
[Knowledge Distillation]论文分析:Distilling the Knowledge in a Neural Network
[Knowledge Distillation]论文分析:Distilling the Knowledge in a Neural Network
81 1
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation
推荐系统的出现,有效地缓解了信息过载的问题。而传统的推荐系统,要么忽略用户和物品的丰富属性信息,如用户的人口统计特征、物品的内容特征等,面对稀疏性问题,要么采用全连接网络连接特征信息,忽略不同属性信息之间的交互。本文提出了基于信息融合的深度神经注意矩阵分解(ifdnamf)推荐模型,该模型引入了用户和物品的特征信息,并采用不同信息域之间的交叉积来学习交叉特征。此外,还利用注意机制来区分不同交叉特征对预测结果的重要性。此外,ifdnamf采用深度神经网络来学习用户与项目之间的高阶交互。同时,作者在电影和图书这两个数据集上进行了广泛的实验,并证明了该模型的可行性和有效性。
380 0
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation
SysRec2016 | Deep Neural Networks for YouTube Recommendations
YouTube有很多用户原创内容,其商业模式和Netflix、国内的腾讯、爱奇艺等流媒体不同,后者是采购或自制的电影,并且YouTube的视频基数巨大,用户难以发现喜欢的内容。本文根据典型的两阶段信息检索二分法:首先描述一种深度候选生成模型,接着描述一种分离的深度排序模型。
293 0
SysRec2016 | Deep Neural Networks for YouTube Recommendations

热门文章

最新文章