将语言模型用作知识嵌入:链接预测、三元组分类全部SOTA,超越基于结构的传统方法

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 将语言模型用作知识嵌入:链接预测、三元组分类全部SOTA,超越基于结构的传统方法
本文提出了一个将语言模型用作知识嵌入的方法LMKE(Language Models as Knowledge Embeddings),同时利用结构信息和文本信息,并首次将基于文本的知识嵌入学习建模在对比学习框架下,从而在提升长尾实体表示的同时解决了现有基于文本的知识嵌入方法在表现、效率等方面的不足。相关研究成果现已被IJCAI 2022录用。


背景
知识图谱(Knowledge Graphs)以三元组的形式储存了大量的知识。其中,三元组用(h,r,t)表示,头实体 h 与尾实体 t 间存在关系 r,如(法国,包含,卢浮宫)。

知识嵌入(Knowledge Embeddings, KEs)将知识图谱上的实体和关系嵌入到向量空间中进行表示,以便在向量空间中推理,用于三元组分类、链接预测等任务。比如说,TransE 将实体 “法国”、“卢浮宫” 和关系 “包含” 分别表示为向量“法国”、“卢浮宫”、“包含”,而如果“法国”+“包含”≈“卢浮宫”,则认为该三元组为真。近年来,知识嵌入也越来越多地被用于与预训练语言模型相结合,以赋予语言模型更多的知识。

现有的知识嵌入方法可以被大致分为两类:传统的基于结构的方法(Structure-based Methods)和近期兴起的基于文本的方法(Description-based Methods)。

基于结构的方法在向量空间中表达知识图谱的结构信息,包括 TransE、RotatE 等。这类方法可以建模多种特殊的关系模式,如对称模式、逆模式、组合模式等。比如,已知“A 的父亲是 B”,“B 的父亲是 C”,且“父亲的父亲是爷爷”,则这类方法可以推理出“A 的爷爷是 C”,如下图所示。

图 1 知识图谱中的组合模式

然而,这类方法单纯依赖知识图谱的结构信息,因此自然难以良好地表示结构信息匮乏的长尾实体。在真实世界的知识图谱中,实体的度数分布服从 power-law 定律,形成一条长长的尾巴,意味着大量实体缺乏充足的结构信息。比如,下方左图展示了知识图谱数据集 WN18RR 中的实体度数分布,其中 14.1% 的实体度数为 1,60.7% 的实体度数不超过 3,这意味着这些实体在知识图谱上连边极少。下方右图的结果则表明,以 RotatE 为代表的典型基于结构的方法在长尾实体上表现不佳。

图 2 WN18RR 上的节点度数分布及基于结构的方法在该数据集上的表现

基于文本的方法引入了文本信息和语言模型进行知识的嵌入与推理,如 DKRL、KEPLER 等。许多知识图谱提供了实体和关系的文本描述,而这些丰富的文本信息可以良好地用于实体和关系的表示,并弥补结构信息的不足。同时,近期关于语言模型的相关研究表明:①语言模型在预训练时不仅掌握了语言知识,还学会了大量事实知[1];②语言模型可以同基于结构的知识嵌入方法一样,掌握对称模式、逆模式、隐含模式等部分关系模式[2]。因此,我们认为语言模型非常适合作为知识嵌入使用。


此前已有工作尝试将语言模型用于知识嵌入的三元组分类、链接预测任务上。然而,现存的基于文本的方法存在以下缺陷:

  1. 效率问题。语言模型规模庞大,因此现有工作在训练及下游任务中或是时间复杂度过高,或进行了大量的 trade-off。一方面,它们在训练时限制负采样率。比如基于文本的 KEPLER 中正样本和负样本的数量是 1:1 的,而基于结构的 TransE 中一个正样本会搭配上千个负样本。另一方面,现有方法的模型结构在链接预测等下游任务上复杂度也过高。
  2. 表现不佳。尽管引入了更多的信息与更大的模型,现存的基于文本的方法在许多数据集和指标上并未超越基于结构的方法,其中效率问题带来的负采样率不足等 trade-off 一定程度上造成了负面影响。
  3. 限制性文本依赖。现存方法只适用于有文本描述的实体,而往往舍弃掉大量没有文本信息(但有结构信息)的实体。现存方法对数据的严苛要求限制了他们在下游任务中的使用。


方法

在本文中,我们提出了一个更好地将语言模型用作知识嵌入的方法 LMKELanguage Models as Knowledge Embeddings),同时利用结构信息和文本信息,在提升长尾实体表示的同时解决基于文本方法的上述问题。


论文地址:https://www.ijcai.org/proceedings/2022/0318.pdf

在 LMKE 中,实体和关系被视作额外的词(token),并从相关实体、关系和文本描述中学习表示。本文进一步提出将基于文本的知识嵌入学习建模在对比学习框架下,使得一个三元组里的实体表示可以作为同 batch 中其他三元组的负样本,从而避免了编码负样本带来的额外开销。LMKE 也是一种将知识图谱与语言模型结合的具体方式。

图 3 LMKE 的模型结构(用于三元组分类)

LMKE 用语言模型作为知识嵌入,即用语言模型获得实体和关系的嵌入向量表示,从而对三元组或实体进行预测。在 LMKE 中,实体和关系的嵌入向量与文本中的词被表示在同一个向量空间中。如图 3 所示,给定一个特定的三元组 u=(h,r,t),LMKE 利用相应的文本描述信息,并将它们拼为一个序列。将该序列作为语言模型的输入,h,r,t 的相应输出向量 h,r,t 即是相应的实体和关系的嵌入向量。一个实体(或关系)的嵌入向量同时依赖于其自身、其自身的文本描述、其相关实体和关系、以及相关实体和关系的文本描述,对文本信息进行了最大程度的利用。因此,长尾实体可以利用文本信息而被良好表示,而缺乏文本信息的实体则可以利用相关实体和关系(结构信息)以及它们的文本描述被良好表示。语言模型中的 CLS token(或 BOS token)对应的向量聚合了整个序列的信息,因此我们将其视作代表整个三元组 u 的向量 u。与 KG-BERT 相似,LMKE 将向量 u 输入一个线性层,来计算三元组为真的概率 p(u)


知识嵌入的主要应用是预测缺失的链接(链接预测)和对可能的三元组进行分类(三元组分类)。其中,三元组分类基于上述 p(u)即可进行。链接预测则需要预测出不完整三元组(?,r,t)(h,r,?)的缺失实体。具体来说,模型需要将候选实体(一般为所有实体)填入不完整三元组,并将相应的三元组进行打分,从而对候选实体按照得分进行排序。然而,对于上述 LMKE 模型,以及大部分现有的基于文本的方法,这一流程的计算时间复杂度都过高,如表 1 所示。

表 1 部分基于文本的方法在训练和链接预测上的时间复杂度

为了将语言模型高效地用于链接预测任务,一个简单的方法是不完整地编码三元组,而仅编码部分三元组。实体遮盖模型(MEM-KGC)可以视为 LMKE 的 masked 变体,将待预测的缺失实体和其文本描述 mask,并将相应的向量表示 q 输入一个线性层来预测缺失实体。因为仅需要编码一个不完整的三元组,MEM-KGC 显著降低了时间复杂度。然而,MEM-KGC 忽视了待预测实体的文本信息,降低了文本信息的利用率。

我们提出了一个对比学习框架来更充分地利用文本信息。在我们的对比学习框架中,给定的实体关系对被视作查询 q,而目标实体被视作键 k,我们通过匹配 q 和 k 进行对比学习。在这一框架的视角下,MEM-KGC 中的向量 q 即为查询的向量表示,而 MEM-KGC 的线性层权重的每一行则是每一个实体作为键的向量表示。因此,将 q 输入到线性层即为查询 q 匹配键。差别在于,MEM-KGC 的键是用可学习的向量表示,而非像查询一样是文本信息的语言模型编码。我们提出的对比学习框架也使得语言模型能够被高效地用于链接预测。

C-LMKE 是对比学习框架下的 LMKE 变体,将 MEM-KGC 中的可学习实体权重改进为目标实体的文本描述编码,如图 4 所示。C-LMKE 进行批次内的对比匹配,从而避免了编码负样本带来的额外开销。具体来说,对于 batch 中的第 i 个三元组,它的给定实体关系对 q 和目标实体 k 构成一个正样本,而同 batch 内其他三元组的目标实体 k’ q 构成负样本。由表 1 可见,C-LMKE 在训练和链接预测时的时间复杂度均显著优于现有基于文本的方法。

图 4 C-LMKE 的模型结构(用于链接预测)

不同于一般的对比学习方法,C-LMKE 采用一个双层 MLP 而非余弦相似度来计算 qk 的匹配度。假设查询 q=(法国,包含)同时与 =(卢浮宫)和 =(巴黎)匹配,则基于相似度的得分会迫使 的表示相似,这在知识嵌入的场合是不被期望的。同时,我们还发现,引入度数信息 (相应实体在训练集中的三元组个数)对于链接预测任务相当有帮助。



基于得分 p(q, k),我们使用二元交叉熵作为损失函数进行训练,并参考 RotatE 中提出的自对抗负采样来提高难负样本的损失权重。

实验结果

表 2 FB15k-237 及 WN18RR 上的链接预测结果

我们在链接预测和三元组分类两个任务上对我们的方法进行了实验,以 BERT-tiny 和 BERT-base 作为基本模型。在链接预测上,我们的模型显著超越了现有模型。使用 BERT-BASE 的 C-LMKE 在 WN18RR 上取得了 80.6% 的 Hits@10,而此前最好的结果仅为 70.4%。即使我们使用 BERT-tiny 作为语言模型,我们的方法取得的表现也优于或相当于使用更大模型的现有方法。同时,使用 BERT-tiny 的 C-LMKE 在 FB15k-237 上取得了 57.1% 的 Hits@10,是首个超越基于结构方法的基于文本方法。

一个有趣的现象是,基于文本的方法在 WN18RR 上显著超越基于结构的方法,但在 FB15k-237 上却不然。我们认为背后的原因是数据集的差异。WN18RR 来源于字典知识图谱 WordNet,其中的实体是词而文本描述是词的定义,而从词的定义中可以很容易推出词之间的关系。相对地,FB15k-237 来源于真实知识图谱 Freebase,其中的文本仅部分地描述了一个实体最广为人知的知识,比如(爱因斯坦,是,和平主义者)这一知识就不被它们的文本描述所涵盖。因此,过度依赖于文本而非结构信息可能导致模型表现不佳。这也解释了在该数据集上使用 BERT-tiny 替换 BERT-base 后表现没有下降。

表 3 FB13 和 UMLS 上的三元组分类结果
LMKE 在三元组分类任务上也取得了最优的表现。其中,LMKE 和 KG-BERT 的差距代表了引入实体和关系作为特殊词的有效性。

图 5 不同模型对于 FB15k-237 中包含不同度数实体的三元组的平均表现
为了展示我们的方法在长尾实体表示上的有效性,我们将实体按度数的对数进行分组,统计包含不同度数实体的三元组,并研究包含不同度数实体的三元组上的表现。实验结果表明,基于文本的方法在低度数组 0,1,2(即包含度数低于 4 的实体的三元组)上的表现显著优于基于结构的方法,而 C-LMKE 又显著优于其他的基于文本的方法。同时,在加入了度数信息后,C-LMKE 在中高度数组上的表现有了显著提升。

图 6 不同负采样率下 C-LMKE 在 FB15k-237 上的表现

我们进一步研究了负采样率对基于文本的知识嵌入学习的影响。我们将 batch size 设为 32,因此 1 个正样本最多配有 31 个负样本,而我们进一步限制可见负样本数为{1, 2, 4, 8, 16}。实验结果表明,更大的负采样率能显著提升模型的表现,证明了负采样率对基于文本的方法的重要性。然而,现有基于文本方法受限于负样本编码代价,一般仅使用 1 个或 5 个负样本。

总结起来,我们的贡献主要有以下三点:

  1. 我们注意到基于结构的知识嵌入在表示长尾实体上的不足,并首次提出利用文本信息和语言模型来提升长尾实体的表示。
  2. 我们提出了一个基于文本的新模型 LMKE,解决了现有基于文本方法的三个不足之处。同时,我们也首次提出将基于文本的知识嵌入学习建模为对比学习问题。
  3. 我们在多个知识嵌入数据集上进行了广泛实验,实验结果表明 LMKE 在三元组分类和链接预测任务上取得了 state-of-the-art 的表现,显著超越现有知识嵌入方法,使得基于文本的方法首次在数据集 FB15K-237 上超越基于结构的方法。


LMKE 提出的对比学习框架将是基于文本的知识嵌入的发展方向。在这一方向上,我们仍可参考对比学习领域的优秀方法来取得进一步提升。同时,信息检索、实体链接在本质上也是链接预测任务,近年来也越来越多地采用了对比学习,我们也可以从这些领域的工作中吸取经验。


参考文献


  1. Petroni, Fabio, et al. "Language Models as Knowledge Bases?." Proceedings of EMNLP-IJCNLP 2019.
  2. Kassner, Nora, Benno Krojer, and Hinrich Schütze. "Are Pretrained Language Models Symbolic Reasoners over Knowledge?." Proceedings of CoNLL 2020.
相关文章
|
6月前
|
机器学习/深度学习 算法 机器人
【论文速递】TMM2023 - FECANet:用特征增强的上下文感知网络增强小样本语义分割
【论文速递】TMM2023 - FECANet:用特征增强的上下文感知网络增强小样本语义分割
|
5月前
|
机器学习/深度学习 数据采集
开源多结构蛋白质预测大模型——Genie 2
【6月更文挑战第24天】Genie 2,一款开源的深度学习蛋白质设计模型,扩展了原始Genie的结构预测能力,通过创新架构和大规模数据增强处理更复杂多样的蛋白质结构。引入的多基序框架允许设计多功能蛋白质,提升无条件和有条件生成的性能。尽管面临数据质量、复杂相互作用处理及模型可解释性的挑战,Genie 2仍为蛋白质设计树立新标杆。[论文链接](https://arxiv.org/abs/2405.15489)
61 1
|
6月前
|
机器学习/深度学习 编解码 自然语言处理
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
382 0
|
机器学习/深度学习 传感器 编解码
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)
随着自动驾驶技术的发展,多目标跟踪已成为计算机视觉领域研究的热点问题之一。MOT 是一项关键的视觉任务,可以解决不同的问题,例如拥挤场景中的遮挡、相似外观、小目标检测困难、ID切换等。为了应对这些挑战,研究人员尝试利用transformer的注意力机制、利用图卷积神经网络获得轨迹的相关性、不同帧中目标与siamese网络的外观相似性,还尝试了基于简单 IOU 匹配的 CNN 网络、运动预测的 LSTM。为了把这些分散的技术综合起来,作者研究了过去三年中的一百多篇论文,试图提取出近年来研究者们更加关注的解决 MOT 问题的技术。
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)
|
计算机视觉
ONE-PEACE: 更好的通用表征模型
ONE-PEACE: 更好的通用表征模型
|
机器学习/深度学习 编解码 自然语言处理
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)
409 0
|
机器学习/深度学习 数据可视化 自动驾驶
NeurIPS 2022 | 准确建模多智能体系统,斯坦福提出隐空间多层图模型
NeurIPS 2022 | 准确建模多智能体系统,斯坦福提出隐空间多层图模型
195 0
NeurIPS 2022 | 准确建模多智能体系统,斯坦福提出隐空间多层图模型
|
机器学习/深度学习 存储 算法
优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA
优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA
115 0
|
机器学习/深度学习 存储 自然语言处理
文档级关系抽取:基于结构先验产生注意力偏差SSAN模型
文档级关系抽取:基于结构先验产生注意力偏差SSAN模型
文档级关系抽取:基于结构先验产生注意力偏差SSAN模型
|
机器学习/深度学习 数据采集 Oracle
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
382 0

热门文章

最新文章