1. Background
传统罪名预测任务被视为文本分类任务,但是加上了法律知识。两种主流使用法律知识的方式为:
- 评估事实描述和法条之间的关联,用以预测罪名123,这种做法粒度太粗,因为单个法条可能对应多条罪名,不足以区分这些易混淆罪名之间的细微差别。
- 手动抽取legal attributes(如罪犯是否有暴力行为)456,这对专家人力要求很高,而且难以理解。
大陆法系的犯罪要素(CE)是重要的司法解释(不在法条中),借以指导判决。
在中国,每个罪名由这4个部分描述:
- subject element
- subjective element
- object element
- objective element
CE示例图:
嫌疑人的事实匹配了纵火罪的4个CE,所以被叛纵火罪。
7利用了objective和subjective信息,但完整利用4个CE也很重要。
CE的识别逻辑顺序:
- 损害事实(objectIve):火灾
- 原因(subject):火是否人造
- 罪犯是否有责任,有什么责任(subjective):当事人精神态度(区别蓄意纵火和失火罪)
- 什么社会关系(object)被破坏,罪名是否成立8:公众安全是否被损害,是否有人获罪
2. CECP模型
legal agent:自动挖掘CE实例(句子)
actor-critic框架
用encoder network中得到的事实描述和CE的嵌入作为observations,按类型组合不同罪名的CE,依CE逻辑顺序循环迭代选取每一类最重要的实例,在每一时间步,加权聚合该类及对应该类选出的句子,权重由其间的relevance estimation计算得到。这相当于提供了选出句子和CE在最相关实例和罪名上的摘要表征。然后agent基于这个CE的摘要表征和历史表征(编码以前对所有CE类选出的句子,强调高相关权重的句子)选出一个未选过的句子,这个历史表征表示“以前识别出的重点”,由当前类选出句子的摘要表征更新。
最后用选出句的摘要表征和所有CE类的CE来预测罪名。
reward function基于预测结果和被选出句子的重复程度设计。
强化学习我不太懂,也未作更多了解。
2.1 Encoder Network
编码事实描述和CE
- Fact Encoder
GRU
- CE Encoder
2.2 Reinforcement Learning Module
2.3 Prediction Network
3. 实验
3.1 数据集
3.2 baseline
常规文本分类模型OTC:
- TextCNN
- DPCNN
- HARNN
- BERT
- SAttCaps
基于法律知识的文本分类模型LKB:
- FewShot
- FLA
- LADAN
3.3 主实验结果
3.4 模型分析