1. Background
计算最优运输准备以后慢慢看的参考资料:
- 优化 | 计算最优传输(Computational Optimal Transport) - 知乎
- 运筹千里纵横论坛|王祥丰:计算最优传输及其应用浅谈_哔哩哔哩_bilibili
- The Book - Computational Optimal Transport
- 数值优化与分布式优化 - 知乎
法律案例匹配关注识别成对法律案例之间的关系。这对普通法系和民法系的判案决策都有参考价值。
现存方法有基于PCNet1和基于Bert2的,这些方法的问题在于无法对匹配结果提供有说服力的、忠实的解释。
在篇幅长的法律文书中,只有rationales表征支持匹配结果的legal characteristics和对应的解释。但现存方法会忽略rationales和其他句子的角色差异。
此外,理想的解释还需要正负两方面的理由。但现存各领域的rationales抽取方法都不能实现这一点。
最后,标记解释(不同案例的对齐rationales)昂贵、稀疏、有偏(仅正确标记少量正样本对,存在海量负样本对)。因此有监督方法往往会导致次优匹配结果和不可靠的解释。
IOT-Match将正负rationales的抽取和匹配视作最优运输问题,由一个反应跨案例句子之间语义和legal characteristic关系的、可学习的affinity matrix来指导,这个affinity matrix由逆向最优运输过程学习,即需解决一个bi-level optimization problem。这样,IOT-Match学习直接抽取正负rationales。然后将抽取出的rationales输入预训练模型生成匹配结果的label-specific自然语言解释。为了去除噪声句并对正负理由赋权,最终匹配结果基于抽取出的rationales和label-specific解释生成。
related work部分包含法律案例匹配和legalAI可解释性两部分,细节待补。
2. 问题定义与模型构建
2.1 问题定义
每对标注数据包含:
示例:
可解释的法律案例匹配:①抽取对齐和非对齐的rationales。②从中抽取出候选解释。③生成最终匹配标签和解释。
2.2 模型原理
因为最优运输这块我完全不懂,所以论文说啥我就当是啥了:
给出两个句子表征集合(X 和Y ),我们假设其实证分布是uniform的:
离散地计算最优运输距离……底下的没看懂,懒得粘了,以后看懂了再说吧。
2.3 IOT-based Rationale Extraction
2.4 Generating Candidate Explanations
3. 实验
实验目标是:
- 超过带解释的法律案例匹配和文本匹配的SOTA模型的匹配准确度
- 解释(包括抽取的rationales和生成自然语言)效果
- 利用有限的rationale alignment labels
以下细节待补。
3.1 数据集ELAM&eCAIL
3.2 baseline
无解释的:
- Sentence-Bert
- lawformer
- BERT-PLI
- Thematic Similarity
带解释的:
- NILE
- LIREx
rationale extraction:
- MT-H-LSTM
- MLMC
- DecAtt
3.3 实验设置
3.4 主实验结果
3.5 实验分析
3.5.1 Ablation Study
3.5.2 Case Study
4. 代码复现
等我服务器好了再说。