Re18:读论文 GCI Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis

简介: Re18:读论文 GCI Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis

1. Background


1.1 因果推理

自变量treatment,因变量outcome,自变量上的改变量intervention,计算自变量被扰动是否会引起因变量变化以及如何变化,就是因果推理

Confounder:变量,同时影响自变量和因变量

treated group是自变量为1的,反之是untreated group


1.2 因果图

image.png

factor(本文中所有factor都是二元变量)和charge是节点,因果关系是边

传统的结合文本的因果推理方法比较简单,就直接将文本视作一个节点,而没有考虑不同的aspect如事件等。


1.3 PAG

image.png


2. 模型


image.png

从事实描述文本中自动构建因果图,用因果推理来辅助法律决策的制定,本文中similar charge disambiguation任务上测试了该框架的效果。

①用关键词抽取(用YAKE+IDF计算单词对罪名的重要性),来识别出事实描述中的key factors。②将相似的key factors聚类到组中,每个组视为一个独立节点。(图的节点的每个组和罪名)③用对未识别变量鲁棒(无监督抽取可能导致关键词不完全,因果发现时有未识别confounder)的causal discovery algorithm(Greedy Fast Causal Inference (GFCI))来构造因果图。(输出是Partial Ancestral Graph (PAG))(在附录中可以看到,这种算法能够识别出隐factor)(限制:1. 禁止罪名节点出边。2. 以案例(事件描述文本)的时间顺序来限制因果关系)(抽样因果图)④估算每条边的causal strength来减少不可靠边的影响。(保持Confounder不变)(方法:Average Treatment Effect (ATE))(估算ATE的方法:Propensity Score Matching (PSM) 在treated/untreated group之间构建相似样本对)

将因果知识结合到NN中:①在NN attention weights上加入causal strength限制(加损失函数)。②在因果图上抽取出的因果链上使用RNN。

image.png


3. 实验


3.1 数据集

本文使用的是CAIL数据集。


3.2 实验结果

证明的结果:(1) 构建的因果图是合理的。(2) 可以捕捉到文本中的细微差别,尤其在训练数据很少时。

image.png


证明因果的优势的baseline:GCI-co(correlation-based graph,factor之前如皮尔森相关系数>0.5则从出现更早的频率更高的factor连一条边到另一个)

解释了一下为什么没用多任务等范式、没用预训练模型,以前的结合因果推理的工作无法捕捉文本内部的因果关系所以也不作为baseline。

比较了不同训练集比例下模型的表现效果。

每个实验在3个随机种子上跑,以平均ACC和macro-F1作为指标。

408763f714694733813d352bb472109b.png


3.3 因果图质量分析

因果发现过程的鲁棒性,因果图的敏感度分析


  1. Random Confounder
  2. Placebo Treatment
  3. Subset of Data

image.png

image.png


3.4 人工评估:看attention

image.png


3.5 讨论

聚类导致的粒度变粗、否定语义、pronoun resolution、intent


3.6 由于数据不平衡而产生的性别公平问题

False Positive Equality Difference (FPED) and False Negative Equality Difference (FNED)

image.png

相关文章
|
10月前
|
自然语言处理 算法 Python
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
178 0
|
自然语言处理 数据挖掘 数据处理
【提示学习】Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference
目前流行的第四大范式Prompt的主流思路是PVP,即Pattern-Verbalizer-Pair,主打的就是Pattern(模板)与Verbalizer(标签映射器)。   本文基于PVP,提出PET与iPET,但是关注点在利用半监督扩充自己的数据集,让最终模型学习很多样本,从而达到好效果。
157 0
|
数据挖掘
【提示学习】Prompt Tuning for Multi-Label Text Classification: How to Link Exercises to Knowledge Concept
文章这里使用的是BCEWithLogitsLoss,它适用于多标签分类。即:把[MASK]位置预测到的词表的值进行sigmoid,取指定阈值以上的标签,然后算损失。
127 0
|
机器学习/深度学习 人工智能 自然语言处理
【论文精读】AAAI 2022 - Unified Named Entity Recognition as Word-Word Relation Classification
到目前为止,命名实体识别(NER)已经涉及三种主要类型,包括扁平、重叠(又名嵌套)和不连续NER,它们大多是单独研究的。
308 0
【论文精读】AAAI 2022 - Unified Named Entity Recognition as Word-Word Relation Classification
|
自然语言处理 算法 知识图谱
DEGREE: A Data-Efficient Generation-Based Event Extraction Model论文解读
事件抽取需要专家进行高质量的人工标注,这通常很昂贵。因此,学习一个仅用少数标记示例就能训练的数据高效事件抽取模型已成为一个至关重要的挑战。
232 0
|
机器学习/深度学习 编解码 自然语言处理
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers论文解读
我们提出了SegFormer,一个简单,高效而强大的语义分割框架,它将transformer与轻量级多层感知器(MLP)解码器统一起来。
955 0
|
机器学习/深度学习 自然语言处理 算法
SS-AGA:Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment 论文解读
预测知识图(KG)中缺失的事实是至关重要的,因为现代知识图远未补全。由于劳动密集型的人类标签,当处理以各种语言表示的知识时,这种现象会恶化。
134 0
|
存储 自然语言处理 测试技术
LASS: Joint Language Semantic and Structure Embedding for Knowledge Graph Completion 论文解读
补全知识三元组的任务具有广泛的下游应用。结构信息和语义信息在知识图补全中都起着重要作用。与以往依赖知识图谱的结构或语义的方法不同
168 0
|
机器学习/深度学习 存储 人工智能
Event Extraction by Answering (Almost) Natural Questions论文解读
事件抽取问题需要检测事件触发词并抽取其相应的论元。事件论元抽取中的现有工作通常严重依赖于作为预处理/并发步骤的实体识别,这导致了众所周知的错误传播问题。
185 0
|
数据可视化 数据挖掘
【论文解读】Dual Contrastive Learning:Text Classification via Label-Aware Data Augmentation
北航出了一篇比较有意思的文章,使用标签感知的数据增强方式,将对比学习放置在有监督的环境中 ,下游任务为多类文本分类,在低资源环境中进行实验取得了不错的效果
578 0