论文推荐|[NAACL 2019] 基于图卷积网络的视觉富文本数据中文档图像信息抽取

简介: 简要介绍NAACL 2019录用论文“Graph Convolution for Multimodal Information Extraction from Visually Rich Documents”的主要工作。该论文主要针对视觉富文本数据的信息抽取问题,提出了一种图卷积网络,结合文本信息与视觉信息,取得了比纯文本方法更好的效果。

image.png

  本文简要介绍NAACL 2019录用论文“Graph Convolution for Multimodal Information Extraction from Visually Rich Documents”的主要工作。该论文主要针对视觉富文本数据的信息抽取问题,提出了一种图卷积网络,结合文本信息与视觉信息,取得了比纯文本方法更好的效果。

image.png


图1 视觉富文本数据示例

一、研究背景

  信息抽取是从非结构化文本中提取结构化信息的过程,其作为一个经典和基础的自然语言处理问题已经得到广泛研究。传统的信息抽取聚焦于从纯文本中提取实体与关系信息,却较少有对视觉富文本的研究。视觉富文本数据是指语义结构不仅由本文内容决定,也与排版、表格结构、字体等视觉元素有关的文本数据。视觉富文本数据在生活中随处可见,例如收据、证件、保险单等,本文主要关心的是该类图片经过OCR后带坐标文字行数据的信息抽取。基于模板匹配的方法1[3]虽然可以结合文本与视觉信息,但是以收据为例一种数据可能有上千种模板,并且以图片为输入的系统伴随着变形、模糊、干扰信息等问题,每个模板都需要大量工程调优,其可扩展性很差。

二、方法原理简述

image.png


图2 视觉富文本数据建模

  图2是本文对视觉富文本数据的建模方式。每张图片经过OCR系统后会得到一组文本块,每个文本块包含其在图片中的坐标信息与文本内容。本文将这一组文本块构成全连接有向图,即每个文本块构成一个节点,每个节点都与其他所有节点有连接。节点的初始特征由文本块的文本内容通过BiLSTM[4]编码得到。边的初始特征为邻居文本块与当前文本块的相对坐标与长宽信息,该特征使用当前文本块的高度进行归一化,具有仿射不变性。

image.png


图3 视觉富文本数据图卷积模型

  图3是本文对视觉富文本数据使用的图卷积模型。与其他图卷积工作(GAT[5]等)仅在节点上进行卷积不同,本文认为在信息抽取中“个体-关系-个体”的三元信息更加重要,所以在“节点-边-节点”的三元特征组上进行卷积。本文同时引入了Self-attention机制[6],让网络在全连接有向图构成的所有有向三元组中挑选更加值得注意的信息,并加权聚合特征。初始的节点特征与边特征经过多层卷积后得到节点与边的高层表征。

image.png


图4 图特征的BiLSTM-CRF解码

  图4是本文使用信息抽取解码器,解码阶段将之前得到的节点高层表征与节点文本每个单字的特征表征拼接,使用经典的BiLSTM+CRF结构,输出单字级别的抽取结果。实验中使用Word2Vec生成单字的特征表征,并对单字进行IOB打标[7]。实验中同时对每个文字块所属的实体标签进行打标,并将节点高层表征输入Sigmoid分类器对文字块的实体标签进行判定,作为一个辅助任务同时进行训练。

三、主要实验结果

  本文在两份真实商业数据上测试了方法的效果,分别为增值税发票(VATI,固定版式,3000张)和国际采购收据(IPR,非固定版式,1500张),其中OCR部分使用了阿里巴巴读光OCR团队的技术。本文使用了两个Baseline,Baseline I为对每个文本块的文本内容独立做BiLSTM+CRF解码,Baseline II为将所有文本块的文本内容进行“从左到右、从上到下”的顺序拼接后,对拼接文本整体做BiLSTM+CRF解码。

表1 整体F1score评价


image.png

表2 实体F1score评价


image.png

  从表1和表2可以看到,本文提出的模型在Basline的基础上都有明显提升,其中在仅依靠文本信息就可以抽取的字段(如日期)上与Baseline持平,而在需要依靠视觉信息做判断的字段(如价格、税额)上有较大提升。

表3 模型简化测试(F1score)


image.png

  表3为模型简化测试结果,进一步研究视觉信息(初始边特征)、文本信息(初始节点特征)与self-attention所扮演的作用。实验显示,视觉信息起主要作用,增加了语义相近文本的区分度。文本信息也对视觉信息起到一定的辅助作用。self-attention在固定版式数据上基本没有帮助,但是在非固定版式数据上有一定提升。

表4 辅助任务有效性验证(F1score)


image.png

  表4为辅助任务有效性验证实验结果,可以看到辅助任务由于引入了更多信息,所以取得了更佳的效果。实验同时发现,引入辅助任务有助于网络训练更快收敛。

四、总结及讨论

1. 本文提出了一种用于视觉富文本数据信息抽取的图卷积网络,在图卷积网络抽取的特征上做BiLSTM+CRF解码,对比在独立文本块和拼接文本上做BiLSTM+CRF解码有明显的效果提升。
2. 本文标注了两个真实场景视觉富文本数据集,并进行了综合实验与分析,直观展现了视觉信息、文本信息、Self-Attention和辅助任务的作用。
3. 本文展现了处理视觉富文本的新思路,未来会应用于更多视觉富文本理解任务。

五、相关资源

• Graph Convolution for Multimodal Information Extraction from Visually Rich Documents 论文地址:https://arxiv.org/pdf/1903.11279.pdf
• GAT论文地址:https://arxiv.org/pdf/1710.10903.pdf
• Self-Attention论文地址:https://arxiv.org/pdf/1706.03762.pdf

参考文献

[1] Laura Chiticariu, Yunyao Li, and Frederick R Reiss. 2013. Rule-based information extraction is dead! long live rule-based information extraction systems! In Proceedings of the 2013 conference on empirical methods in natural language processing, pages 827–832.
[2] Andreas R Dengel and Bertin Klein. 2002. smartfix: A requirements-driven system for document analysis and understanding. In International Workshop on Document Analysis Systems,pages 433–444. Springer.
[3] Daniel Schuster, Klemens Muthmann, Daniel Esser, Alexander Schill, Michael Berger, Christoph Weidling, Kamil Aliyev, and Andreas Hofmeier. 2013. Intellix–end-user trained information extraction for document archiving. In 2013 12th International Conference on Document Analysis and Recognition,pages 101–105. IEEE.
[4] Mike Schuster and Kuldip K Paliwal. 1997. Bidirectional recurrent neural networks.IEEE Transactions on Signal Processing,45(11):2673.
[5] Petar Veliˇckovi´c, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Li`o,and Yoshua Bengio. 2018. Graph attention networks. International Conference on Learning Representations.
[6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, ŁukaszKaiser, and Illia Polosukhin. 2017. Attention is all you need. In Advances in Neural Information Processing Systems, pages 5998–6008.
[7] Erik F Sang and Jorn Veenstra. 1999. Representing text chunks. In Proceedings of the ninth conference on European chapter of the Association for Computational Linguistics, pages 173–179.Association for Computational Linguistics.

__
原文作者:Xiaojing Liu, Feiyu Gao,Qiong Zhang, Huasha Zhao

**本文出处:
https://mp.weixin.qq.com/s/CwLN2SRyN7RTEFtNx3u8Pg**

相关文章
|
2天前
|
机器学习/深度学习 算法 算法框架/工具
数据分享|PYTHON用KERAS的LSTM神经网络进行时间序列预测天然气价格例子
数据分享|PYTHON用KERAS的LSTM神经网络进行时间序列预测天然气价格例子
23 0
|
1天前
|
存储 SQL 安全
网络安全与信息安全:保护数据的关键策略
【4月更文挑战第24天】 在数字化时代,数据成为了新的货币。然而,随着网络攻击的日益猖獗,如何确保信息的安全和隐私成为了一个亟待解决的问题。本文将深入探讨网络安全漏洞的概念、加密技术的重要性以及提升安全意识的必要性,旨在为读者提供一套综合性的网络安全防护策略。通过对这些关键知识点的分享,我们希望能够增强个人和组织在面对网络威胁时的防御能力。
|
2天前
|
安全 JavaScript 前端开发
第十六届山东省职业院校技能大赛中职组 “网络安全”赛项竞赛试题—B模块安全事件响应/网络安全数据取证/应用安全
该内容描述了一次网络安全演练,包括七个部分:Linux渗透提权、内存取证、页面信息发现、数字取证调查、网络安全应急响应、Python代码分析和逆向分析。参与者需在模拟环境中收集Flag值,涉及任务如获取服务器信息、提权、解析内存片段、分析网络数据包、处理代码漏洞、解码逆向操作等。每个部分都列出了若干具体任务,要求提取或生成特定信息作为Flag提交。
5 0
|
2天前
|
安全 测试技术 网络安全
2024年山东省职业院校技能大赛中职组 “网络安全”赛项竞赛试题-C安全事件响应/网络安全数据取证/应用安全
B模块涵盖安全事件响应和应用安全,包括Windows渗透测试、页面信息发现、Linux系统提权及网络安全应急响应。在Windows渗透测试中,涉及系统服务扫描、DNS信息提取、管理员密码、.docx文件名及内容、图片中单词等Flag值。页面信息发现任务包括服务器端口、主页Flag、脚本信息、登录成功信息等。Linux系统渗透需收集SSH端口号、主机名、内核版本,并实现提权获取root目录内容和密码。网络安全应急响应涉及删除后门用户、找出ssh后门时间、恢复环境变量文件、识别修改的bin文件格式及定位挖矿病毒钱包地址。
9 0
|
2天前
|
安全 测试技术 Linux
2024年山东省职业院校技能大赛中职组 “网络安全”赛项竞赛试题-A模块安全事件响应/网络安全数据取证/应用安全
该内容描述了一个网络安全挑战,涉及Windows和Linux系统的渗透测试以及隐藏信息探索和内存取证。挑战包括使用Kali Linux对Windows Server进行服务扫描、DNS信息提取、密码获取、文件名和内容查找等。对于Linux系统,任务包括收集服务器信息、提权并查找特定文件内容和密码。此外,还有对Server2007网站的多步骤渗透,寻找登录界面和页面中的隐藏FLAG。最后,需要通过FTP获取win20230306服务器的内存片段,从中提取密码、地址、主机名、挖矿程序信息和浏览器搜索关键词。
4 0
|
2天前
|
安全 测试技术 网络安全
2024年甘肃省职业院校技能大赛中职组 “网络安全”赛项竞赛样题-C模块安全事件响应/网络安全数据取证/应用安全
涉及安全事件响应和应用安全测试。需使用Kali对Windows Server2105进行渗透测试,包括服务扫描、DNS信息提取、管理员密码、文件名与内容、图片中单词等。另外,需收集win20230305的服务器端口、页面信息、脚本、登录后信息等。在Linux Server2214上,要获取SSH端口、主机名、内核版本并进行提权操作。网络安全响应针对Server2228,涉及删除后门用户、查找SSH后门时间、恢复环境变量、识别篡改文件格式和矿池钱包地址。最后,对lin20230509进行网站渗透,获取端口号、数据库服务版本、脚本创建时间、页面路径、内核版本和root目录下的flag文件内容
6 0
|
3天前
|
机器学习/深度学习 传感器 数据可视化
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
19 1
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
|
8天前
|
机器学习/深度学习 数据可视化 测试技术
深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据
深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据
21 0
|
8天前
|
机器学习/深度学习 API 算法框架/工具
R语言深度学习:用keras神经网络回归模型预测时间序列数据
R语言深度学习:用keras神经网络回归模型预测时间序列数据
17 0
|
8天前
|
机器学习/深度学习 数据采集 TensorFlow
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
29 0