Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation

简介: Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation

1. Background & Motivation


Legal-Rec和传统推荐系统的区别:

  1. 法律信息的结构联系和文本内容都很重要,因此特征融合很重要。
  2. 用户偏向于新案例(最新司法解释和司法实践),因此新item问题严重。
  3. 用户关注少数主题、兴趣稳定,所以准确建模用户兴趣很重要。


本文认为:

  1. 传统在图中传播节点特征的方法对结构联系的应用不够充分。
  2. 传统解决new-item的方法是基于内容,没有考虑与之前有充分交互信息的item的关系。本文用法律概念作为这个桥梁。


以前的Legal-Rec工作主要考虑多主题内容和冗余关系,因此使用基于主题模型的方法(如LDA)或基于图的方法。但这忽略了法律信息的联系。基于图的方法还丢失了法律文书的内容信息。

以前有用法律知识图谱做IR或QA的工作。


传统仅使用内容的推荐系统缺失结构信息,使用知识图谱的推荐系统(KG+user-item二部图)缺乏对知识图谱节点内容的应用(利用节点内容特征不够充分)。


2. LegalGNN


f503c81865a9465cb68101a7ba4b825e.png


2.1 HLIN

image.png

节点:users, cases, queries, legal concepts, and connections among them

法律概念包括:cause, law, clause, and factor

特征:文本

边(建模用户兴趣):user-query and item-query relationships


User-item Interaction History

Search History


legal knowledge graph

Legal Domain Knowledge(作为side information):文本法律概念和其间的结构化联系。


结构化联系包括:

  • item-entity alignments(案例与法律概念相关)
  • 法律概念之间的联系(层级化定义)


有向图,但是每种关系同时考虑其反向关系


user behavior graph

interaction:user & item

submit:user & query

retrieval:query & item


2.2 LegalGNN

ab6376b9076243568046e3ac0289828a.png

image.png


BERT+SDAE+TransR+GNN


Unified Content and Structure Representation Module

图基本上就是上一节的构图内容


BERT(OpenCLaP的预训练模型,最后一层嵌入token的平均池化)

降维:autoencoder (SDAE)

 Denoising Autoencoder (DAE)

 两层SDAE:

image.png


以上两个模块与下游任务解耦


Unified Node Representation:TransR+与固定的文本内容向量(经线性变换后)concat

image.png


两种嵌入都随机初始化后梯度下降(我没太搞懂为什么,难道不是前面得到的吗?而且我确实觉得已经有GNN了还要显式建模一下结构,很奇怪)

image.png


通过随机corrupt构建负三元组


Multi-relational GNN Module

本文参考LightGCN构建了简化版的GNN模型。

image.png


GNN:pool + aggregate(直接对每种关系的邻居做一个整体的池化,然后再用attention进行聚合。不使用transformation矩阵:避免过拟合问题)

image.png


  1. propagation:

image.png


  1. Relational Attention

image.png

注意力计算方式:

image.png


Prediction:内积

image.png

pair-wise ranking loss:

image.png

(对每一个训练集样本,随机选择一个负样本)

模型训练

image.png

  1. 用SDAE降维:image.png
  2. 联合学习推荐任务和表示任务:
  3. 按推荐任务等比例抽取图中的mini-batch进行训练;类似GraphSAGE的抽样策略


Leakage Path Bias during Graph Modeling

break-path strategy


3. 实验


3.1 数据集

大型法律推荐数据集。由于隐私问题不能完全公开。


划分数据集:leave-one-out strategy(用每个用户最新交互作为测试集,倒数第二次交互作为验证集,其他作为训练集)

不考虑重复推荐问题

negative sampling method:评估排序任务中的推荐表现(1-99)

image.png

69104e7f3b8a4156903618a2a8d88ee9.png


(注意表格中只有一个方向的关系,事实上反向边也考虑)


3.2 baseline

  • 基于因式分解:BPR
  • 基于GNN

KGAT

LightGCN

  • 基于HIN

CFKG

GATNE-T

GATNE-I

  • 基于内容

ACCM

NFM

NRMS

NRHUB

image.png


3.3 实验设置

PyTorch

重复5次实验(只有随机种子改变)

其他略


3.4 主实验结果

评估指标:

Hit Ratio (HR)

Normalized Discounted Cumulative Gain (NDCG)

image.png


3.5 模型分析

3.5.1 Ablation Study

image.png

C:文本内容特征

S:结构特征

Debias:训练过程中的debias strategy

Q:query节点及其相关边

image.png


3.5.2 冷启动问题

image.png


3.5.3 超参设置

image.png


3.5.4 案例分析

image.png

相关文章
|
6月前
|
TensorFlow 算法框架/工具
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(上)
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(上)
50 1
|
算法 计算机视觉 知识图谱
ACL2022:A Simple yet Effective Relation Information Guided Approach for Few-Shot Relation Extraction
少样本关系提取旨在通过在每个关系中使用几个标记的例子进行训练来预测句子中一对实体的关系。最近的一些工作引入了关系信息
125 0
|
机器学习/深度学习 人工智能 自然语言处理
OneIE:A Joint Neural Model for Information Extraction with Global Features论文解读
大多数现有的用于信息抽取(IE)的联合神经网络模型使用局部任务特定的分类器来预测单个实例(例如,触发词,关系)的标签,而不管它们之间的交互。
181 0
|
人工智能 自然语言处理 算法
UIE: Unified Structure Generation for Universal Information Extraction 论文解读
信息提取受到其不同目标、异构结构和特定需求模式的影响。本文提出了一个统一的文本到结构生成框架,即UIE,该框架可以对不同的IE任务进行统一建模,自适应生成目标结构
508 0
|
机器学习/深度学习 存储 传感器
Automated defect inspection system for metal surfaces based on deep learning and data augmentation
简述:卷积变分自动编码器(CVAE)生成特定的图像,再使用基于深度CNN的缺陷分类算法进行分类。在生成足够的数据来训练基于深度学习的分类模型之后,使用生成的数据来训练分类模型。
155 0
《Autoencoder-based Semi-Supervised Curriculum Learning For Out-of-domain Speaker Verification》电子版地址
Autoencoder-based Semi-Supervised Curriculum Learning For Out-of-domain Speaker Verification
78 0
《Autoencoder-based Semi-Supervised Curriculum Learning For Out-of-domain Speaker   Verification》电子版地址
《Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition》电子版地址
Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition
104 0
《Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition》电子版地址
|
机器学习/深度学习 自然语言处理 PyTorch
Re6:读论文 LeSICiN: A Heterogeneous Graph-based Approach for Automatic Legal Statute Identification fro
Re6:读论文 LeSICiN: A Heterogeneous Graph-based Approach for Automatic Legal Statute Identification fro
Re6:读论文 LeSICiN: A Heterogeneous Graph-based Approach for Automatic Legal Statute Identification fro
Re8:读论文 Hier-SPCNet: A Legal Statute Hierarchy-based Heterogeneous Network for Computing Legal Case
Re8:读论文 Hier-SPCNet: A Legal Statute Hierarchy-based Heterogeneous Network for Computing Legal Case
Re8:读论文 Hier-SPCNet: A Legal Statute Hierarchy-based Heterogeneous Network for Computing Legal Case
|
机器学习/深度学习
Re22:读论文 HetSANN An Attention-based Graph Neural Network for Heterogeneous Structural Learning
Re22:读论文 HetSANN An Attention-based Graph Neural Network for Heterogeneous Structural Learning
Re22:读论文 HetSANN An Attention-based Graph Neural Network for Heterogeneous Structural Learning