JointKPE关键词抽取论文算法解读

简介: 这篇论文是清华大学2021年的论文,主要目的是在开放领域进行关键词/短语抽取。作者提出了一种模型叫做JointKPE,是建立在预训练语言模型上的开放领域关键词抽取模型

Capturing Global Informativeness in Open Domain Keyphrase Extraction


JointKPE简介


这篇论文是清华大学2021年的论文,主要目的是在开放领域进行关键词/短语抽取。作者提出了一种模型叫做JointKPE,是建立在预训练语言模型上的开放领域关键词抽取模型,它能捕捉局部的短语和全局的信息。JointKPE通过评估关键短语在整个文档中的的信息量对其进行排序,并在关键短语组块任务上接受联合训练,以确定最后的关键词短语。


高质量的关键词/短语抽取主要依赖 phraseness和informativeness两个要素,目前的神经网络方法在关键词抽取算法中主要体现的是 phraseness,给予优先考虑,这是因为这些方法更加侧重与建模关键短语的本地化语义特征,而不是全局文档信息。神经网络方法倾向于从开放领域文档中抽取具有语义完整性的关键短语,如n-grams和head-ish实体,而长尾短语有时候传达着更加重要的信息。


JointKPE方法


对于一个文档D,JointKPE先通过n-gram枚举抽取出所有的候选关键词p,并利用层级结构去建模n-gram表示。基于n-gram表示,JointKPE使用信息排序网络来整合多次出现词的局部信息得分,来估计词在文档的全局信息得分。在训练过程中,JointKPE和关键词组块任务联合训练,来平衡phraseness和informativeness。


N-gram Representation:使用BERT对文档进行编码,将文档D = { w 1 , . . . , w i , . . . , w n } 进行输入,输出字的embedding表示H = { h 1 , . . . , h i , . . . , h n },总结来说就是下式1,将BERT看成一个函数:


H = B E R T { w 1 , . . . , w i , . . . , w n }


其中h i 是字w i 的向量表示。


为了从文档D 中枚举出候选关键词,这个字向量将被添加到n-gram表示中去,一旦出现一定格式的n-grams后,我们将使用一系列卷积神经网络对其进行提取特征。当文档中从第i个字开始,有一个k-gram的词,那么image.png

将被CNN进行计算:


image.png


每一个k-gram将被输入到对应的C N N k 中去,其中k(1≤k≤K)。K 是n-gram的最大长度。


Informative Ranking:为了评估n-gram的image.png的信息在局部的内容,JointKPE使用前向传播层去映射它的精确的内容image.png的得分:


image.png


进一步计算文档的不同上下文多次出现的词的全局信息得分,具体来说,让词p k 是文档D 中长度为k且多次出现的词。这个短语出现在文档的不同内容中image.png这将被划分局部信息得分image.png对于多次出现的词,JointKPE将根据她的本地化信息得分应用最大池化,以确定其全局信息得分f ∗ ( p k , D ) :


image.png


然后去评估文档的D 中所有词的全局信息得分,JointKPE通过成对出现的排名损失函数(the pairwise ranking loss)能学习每个词在文档的的全局信息得分:


image.png


在同一文档D 中,排名损失L R a n k 要求JointKPE去排序关键词p + 在非关键词p _ 的前面。


Keyphrase Chunking:去强化n-gram水平下关键词的测试,JointKPE结合关键词分块任务(the keyphrase chunking task)去直接测试和预测n-grams关键词的概率,去优化分类损失L C h u n k


image.png


image.png是而二分类标签,它将致力于判断n-gram image.png是否精确地匹配上正确的标注。


Mukti-Task Training:JointKPE的训练的最终目标是最小化信息排名损失L R a n k 和关键短语分块损失L C h u n k 的线性组合。


L = L R a n k + L C h u n k


在被给文档中最终排名靠前的候选关键词将会得到更高的全局信息得分。


JointKPE实现


数据集:OpenKP、KP20k

代码:https://github.com/thunlp/BERT-KPE

评价指标:precision、recall、f-measure(F1@ @@{1,3,5})


JointKPE结果展示


表1 各种不同模型在两个数据集上的结果


5b10d93194fc498ba1138cc67c3f991b.png

57b9bfe3bc6943d690934be8b176f8c7.png


图1 关键词长度分析


JointKPE总结


JointKPE是基于预训练语言模型在开放领域关键词抽取的模型,它能捕捉本地短语信息和全局信息,有监督关键词抽取。展示JointKPE在开放领域和科学场景以及不同预训练模型中的有效性。综合实证研究进一步表明,JointKPE可以缓解以往神经网络关键词抽取方法中偏好较短且实体风格的关键短语的问题,并在不同长度和不同类型的关键短语上表现出更均衡的性能。

目录
相关文章
|
8天前
|
存储 机器学习/深度学习 编解码
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
本文提出统一相位正交啁啾分复用(UP-OCDM)方案,利用循环矩阵特性设计两种低复杂度均衡算法:基于带状近似的LDL^H分解和基于BEM的迭代LSQR,将复杂度由$O(N^3)$降至$O(NQ^2)$或$O(iNM\log N)$,在双选择性信道下显著提升高频谱效率与抗多普勒性能。
37 0
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
|
2月前
|
机器学习/深度学习 算法 数据挖掘
没发论文的注意啦!重磅更新!GWO-BP-AdaBoost预测!灰狼优化、人工神经网络与AdaBoost集成学习算法预测研究(Matlab代码实现)
没发论文的注意啦!重磅更新!GWO-BP-AdaBoost预测!灰狼优化、人工神经网络与AdaBoost集成学习算法预测研究(Matlab代码实现)
|
18天前
|
传感器 资源调度 算法
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
本文提出一种多子带相干累积(MSCA)算法,通过引入空带和子带相干处理,解决DDMA-MIMO雷达的多普勒模糊与能量分散问题。该方法在低信噪比下显著提升检测性能,实测验证可有效恢复目标速度,适用于车载雷达高精度感知。
177 4
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
|
1月前
|
机器学习/深度学习 算法 算法框架/工具
256KB内存约束下的设备端训练:算法与系统协同设计——论文解读
MIT与MIT-IBM Watson AI Lab团队提出一种创新方法,在仅256KB SRAM和1MB Flash的微控制器上实现深度神经网络训练。该研究通过量化感知缩放(QAS)、稀疏层/张量更新及算子重排序等技术,将内存占用降至141KB,较传统框架减少2300倍,首次突破设备端训练的内存瓶颈,推动边缘智能发展。
137 6
|
2月前
|
人工智能 算法 安全
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
|
6月前
|
机器学习/深度学习 人工智能 JSON
这个AI把arXiv变成代码工厂,快速复现顶会算法!Paper2Code:AI论文自动转代码神器,多智能体框架颠覆科研复现
Paper2Code是由韩国科学技术院与DeepAuto.ai联合开发的多智能体框架,通过规划、分析和代码生成三阶段流程,将机器学习论文自动转化为可执行代码仓库,显著提升科研复现效率。
705 19
这个AI把arXiv变成代码工厂,快速复现顶会算法!Paper2Code:AI论文自动转代码神器,多智能体框架颠覆科研复现
|
10月前
|
机器学习/深度学习 自然语言处理 算法
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
《A Systematic Survey on Large Language Models for Algorithm Design》综述了过去三年大型语言模型(LLMs)在算法设计中的应用。LLMs通过自然语言处理技术,助力生成、优化和验证算法,在优化、机器学习、数学推理等领域展现出广泛应用前景。尽管存在资源需求高、结果不确定等挑战,LLMs仍为算法设计带来新机遇。论文地址:https://arxiv.org/abs/2410.14716。
319 14
|
12月前
|
机器学习/深度学习 安全 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
161 0
|
12月前
|
安全 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
135 0
|
12月前
|
自然语言处理 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
137 0

热门文章

最新文章