Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation

简介: Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation

1. Background & Motivation


Legal-Rec和传统推荐系统的区别:

  1. 法律信息的结构联系和文本内容都很重要,因此特征融合很重要。
  2. 用户偏向于新案例(最新司法解释和司法实践),因此新item问题严重。
  3. 用户关注少数主题、兴趣稳定,所以准确建模用户兴趣很重要。


本文认为:

  1. 传统在图中传播节点特征的方法对结构联系的应用不够充分。
  2. 传统解决new-item的方法是基于内容,没有考虑与之前有充分交互信息的item的关系。本文用法律概念作为这个桥梁。


以前的Legal-Rec工作主要考虑多主题内容和冗余关系,因此使用基于主题模型的方法(如LDA)或基于图的方法。但这忽略了法律信息的联系。基于图的方法还丢失了法律文书的内容信息。

以前有用法律知识图谱做IR或QA的工作。


传统仅使用内容的推荐系统缺失结构信息,使用知识图谱的推荐系统(KG+user-item二部图)缺乏对知识图谱节点内容的应用(利用节点内容特征不够充分)。


2. LegalGNN


f503c81865a9465cb68101a7ba4b825e.png


2.1 HLIN

image.png

节点:users, cases, queries, legal concepts, and connections among them

法律概念包括:cause, law, clause, and factor

特征:文本

边(建模用户兴趣):user-query and item-query relationships


User-item Interaction History

Search History


legal knowledge graph

Legal Domain Knowledge(作为side information):文本法律概念和其间的结构化联系。


结构化联系包括:

  • item-entity alignments(案例与法律概念相关)
  • 法律概念之间的联系(层级化定义)


有向图,但是每种关系同时考虑其反向关系


user behavior graph

interaction:user & item

submit:user & query

retrieval:query & item


2.2 LegalGNN

ab6376b9076243568046e3ac0289828a.png

image.png


BERT+SDAE+TransR+GNN


Unified Content and Structure Representation Module

图基本上就是上一节的构图内容


BERT(OpenCLaP的预训练模型,最后一层嵌入token的平均池化)

降维:autoencoder (SDAE)

 Denoising Autoencoder (DAE)

 两层SDAE:

image.png


以上两个模块与下游任务解耦


Unified Node Representation:TransR+与固定的文本内容向量(经线性变换后)concat

image.png


两种嵌入都随机初始化后梯度下降(我没太搞懂为什么,难道不是前面得到的吗?而且我确实觉得已经有GNN了还要显式建模一下结构,很奇怪)

image.png


通过随机corrupt构建负三元组


Multi-relational GNN Module

本文参考LightGCN构建了简化版的GNN模型。

image.png


GNN:pool + aggregate(直接对每种关系的邻居做一个整体的池化,然后再用attention进行聚合。不使用transformation矩阵:避免过拟合问题)

image.png


  1. propagation:

image.png


  1. Relational Attention

image.png

注意力计算方式:

image.png


Prediction:内积

image.png

pair-wise ranking loss:

image.png

(对每一个训练集样本,随机选择一个负样本)

模型训练

image.png

  1. 用SDAE降维:image.png
  2. 联合学习推荐任务和表示任务:
  3. 按推荐任务等比例抽取图中的mini-batch进行训练;类似GraphSAGE的抽样策略


Leakage Path Bias during Graph Modeling

break-path strategy


3. 实验


3.1 数据集

大型法律推荐数据集。由于隐私问题不能完全公开。


划分数据集:leave-one-out strategy(用每个用户最新交互作为测试集,倒数第二次交互作为验证集,其他作为训练集)

不考虑重复推荐问题

negative sampling method:评估排序任务中的推荐表现(1-99)

image.png

69104e7f3b8a4156903618a2a8d88ee9.png


(注意表格中只有一个方向的关系,事实上反向边也考虑)


3.2 baseline

  • 基于因式分解:BPR
  • 基于GNN

KGAT

LightGCN

  • 基于HIN

CFKG

GATNE-T

GATNE-I

  • 基于内容

ACCM

NFM

NRMS

NRHUB

image.png


3.3 实验设置

PyTorch

重复5次实验(只有随机种子改变)

其他略


3.4 主实验结果

评估指标:

Hit Ratio (HR)

Normalized Discounted Cumulative Gain (NDCG)

image.png


3.5 模型分析

3.5.1 Ablation Study

image.png

C:文本内容特征

S:结构特征

Debias:训练过程中的debias strategy

Q:query节点及其相关边

image.png


3.5.2 冷启动问题

image.png


3.5.3 超参设置

image.png


3.5.4 案例分析

image.png

相关文章
|
Shell Linux Python
基于远程服务器安装配置Anaconda环境及创建python虚拟环境详细方案(一)
基于远程服务器安装配置Anaconda环境及创建python虚拟环境详细方案
8267 0
基于远程服务器安装配置Anaconda环境及创建python虚拟环境详细方案(一)
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
Qwen3:小而强,思深,行速
Qwen3(千问3)于北京时间4月29日凌晨发布,是Qwen系列大型语言模型的最新成员,具备全系列、开源最强、混合推理等特性。它包括两款MoE模型(Qwen3-235B-A22B和Qwen3-30B-A3B)及六个Dense模型,支持119种语言。Qwen3在代码、数学和通用能力测试中超越行业顶尖模型,如DeepSeek-R1和Grok-3。其旗舰版Qwen3-235B-A22B仅需4张H20即可本地部署,成本为DeepSeek-R1的35%。此外,Qwen3原生支持思考模式与非思考模式切换,降低复杂任务门槛,并支持MCP协议优化Agent架构。
7749 2
|
人工智能 Ubuntu 机器人
【ubuntu】手把手教你解决ubuntu报错openssh-server E: Sub-process /usr/bin/dpkg returned an error code (1)
【ubuntu】手把手教你解决ubuntu报错openssh-server E: Sub-process /usr/bin/dpkg returned an error code (1)
|
Linux 数据安全/隐私保护 网络安全
Centos7环境下搭建SVN服务器
SVN是subversion的缩写,是一个开放源代码的版本控制系统,通过采用分支管理系统的高效管理,简而言之就是用于多个人共同开发同一个项目,实现共享资源,实现最终集中式的管理。
607 0
|
存储 缓存 前端开发
理清 nginx 中的 location 配置
理清 nginx 中的 location 配置
|
机器学习/深度学习 人工智能 自然语言处理
【人工智能】Transformers之Pipeline(概述):30w+大模型极简应用
【人工智能】Transformers之Pipeline(概述):30w+大模型极简应用
483 1
|
机器人 Linux API
基于Ollama+AnythingLLM轻松打造本地大模型知识库
Ollama是开源工具,简化了在本地运行大型语言模型(ile优化模型运行,支持GPU使用和热加载。它轻量、易用,可在Mac和Linux上通过Docker快速部署。AnythingLLM是Mintplex Labs的文档聊天机器人,支持多用户、多种文档格式,提供对话和查询模式,内置向量数据库,可高效管理大模型和文档。它也是开源的,能与Ollama结合使用,提供安全、低成本的LLM体验。这两款工具旨在促进本地高效利用和管理LLMs。
156832 32
|
机器学习/深度学习 自然语言处理 计算机视觉
【大模型】小样本学习的概念及其在微调 LLM 中的应用
【5月更文挑战第5天】【大模型】小样本学习的概念及其在微调 LLM 中的应用
|
编解码 算法 自动驾驶
【计算机视觉】基于光流特征的目标跟踪算法LK光流法的讲解(图文解释 超详细)
【计算机视觉】基于光流特征的目标跟踪算法LK光流法的讲解(图文解释 超详细)
1323 0

热门文章

最新文章