Re18:读论文 GCI Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis

简介: Re18:读论文 GCI Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis

1. Background


1.1 因果推理

自变量treatment,因变量outcome,自变量上的改变量intervention,计算自变量被扰动是否会引起因变量变化以及如何变化,就是因果推理

Confounder:变量,同时影响自变量和因变量

treated group是自变量为1的,反之是untreated group


1.2 因果图

image.png

factor(本文中所有factor都是二元变量)和charge是节点,因果关系是边

传统的结合文本的因果推理方法比较简单,就直接将文本视作一个节点,而没有考虑不同的aspect如事件等。


1.3 PAG

image.png


2. 模型


image.png

从事实描述文本中自动构建因果图,用因果推理来辅助法律决策的制定,本文中similar charge disambiguation任务上测试了该框架的效果。

①用关键词抽取(用YAKE+IDF计算单词对罪名的重要性),来识别出事实描述中的key factors。②将相似的key factors聚类到组中,每个组视为一个独立节点。(图的节点的每个组和罪名)③用对未识别变量鲁棒(无监督抽取可能导致关键词不完全,因果发现时有未识别confounder)的causal discovery algorithm(Greedy Fast Causal Inference (GFCI))来构造因果图。(输出是Partial Ancestral Graph (PAG))(在附录中可以看到,这种算法能够识别出隐factor)(限制:1. 禁止罪名节点出边。2. 以案例(事件描述文本)的时间顺序来限制因果关系)(抽样因果图)④估算每条边的causal strength来减少不可靠边的影响。(保持Confounder不变)(方法:Average Treatment Effect (ATE))(估算ATE的方法:Propensity Score Matching (PSM) 在treated/untreated group之间构建相似样本对)

将因果知识结合到NN中:①在NN attention weights上加入causal strength限制(加损失函数)。②在因果图上抽取出的因果链上使用RNN。

image.png


3. 实验


3.1 数据集

本文使用的是CAIL数据集。


3.2 实验结果

证明的结果:(1) 构建的因果图是合理的。(2) 可以捕捉到文本中的细微差别,尤其在训练数据很少时。

image.png


证明因果的优势的baseline:GCI-co(correlation-based graph,factor之前如皮尔森相关系数>0.5则从出现更早的频率更高的factor连一条边到另一个)

解释了一下为什么没用多任务等范式、没用预训练模型,以前的结合因果推理的工作无法捕捉文本内部的因果关系所以也不作为baseline。

比较了不同训练集比例下模型的表现效果。

每个实验在3个随机种子上跑,以平均ACC和macro-F1作为指标。

408763f714694733813d352bb472109b.png


3.3 因果图质量分析

因果发现过程的鲁棒性,因果图的敏感度分析


  1. Random Confounder
  2. Placebo Treatment
  3. Subset of Data

image.png

image.png


3.4 人工评估:看attention

image.png


3.5 讨论

聚类导致的粒度变粗、否定语义、pronoun resolution、intent


3.6 由于数据不平衡而产生的性别公平问题

False Positive Equality Difference (FPED) and False Negative Equality Difference (FNED)

image.png

相关文章
|
数据挖掘
【提示学习】Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
文章提出了一种简单确高效地构建verbalization的方法:
|
7月前
|
Python
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
47 0
|
7月前
|
自然语言处理 算法 Python
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
109 0
|
自然语言处理 算法
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
在社交媒体上,面临着大量的知识和信息,一个有效的关键词抽取算法可以广泛地被应用的信息检索和自然语言处理中。传统的关键词抽取算法很难使用外部的知识信息。
166 0
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
|
自然语言处理 数据挖掘 数据处理
【提示学习】Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference
目前流行的第四大范式Prompt的主流思路是PVP,即Pattern-Verbalizer-Pair,主打的就是Pattern(模板)与Verbalizer(标签映射器)。   本文基于PVP,提出PET与iPET,但是关注点在利用半监督扩充自己的数据集,让最终模型学习很多样本,从而达到好效果。
123 0
|
数据挖掘
【提示学习】Prompt Tuning for Multi-Label Text Classification: How to Link Exercises to Knowledge Concept
文章这里使用的是BCEWithLogitsLoss,它适用于多标签分类。即:把[MASK]位置预测到的词表的值进行sigmoid,取指定阈值以上的标签,然后算损失。
|
自然语言处理 算法 知识图谱
DEGREE: A Data-Efficient Generation-Based Event Extraction Model论文解读
事件抽取需要专家进行高质量的人工标注,这通常很昂贵。因此,学习一个仅用少数标记示例就能训练的数据高效事件抽取模型已成为一个至关重要的挑战。
169 0
|
机器学习/深度学习 自然语言处理 算法
Multimedia Event Extraction From News With a Unified Contrastive Learning Framework论文解读
从新闻中提取事件在下游应用程序中有很多好处。然而,今天的事件提取(EE)系统通常专注于单一的模态——无论是文本还是图像
193 0
|
机器学习/深度学习 编解码 自然语言处理
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers论文解读
我们提出了SegFormer,一个简单,高效而强大的语义分割框架,它将transformer与轻量级多层感知器(MLP)解码器统一起来。
839 0
|
机器学习/深度学习 移动开发 编解码
【论文阅读】A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation
【论文阅读】A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation
212 0
【论文阅读】A Three-Stage Self-Training Framework for Semi-Supervised Semantic Segmentation