命名实体识别的一点经验与技巧(下)

简介: 命名实体识别的一点经验与技巧(下)

3.2 如何积累语料

3.2.1 寻找开源数据

百度和谷歌直接搜,可以找到很多NER的资源。顺便还能找到问答等任务的数据。


Github里的兄弟姐妹们是共产主义的先锋,经常会把代码和数据一块分享出来。我们需要更多这样的人。


知乎里有很多NLP方面的爱好者,乐于分享自己了解的内容和数据。如果搜索一下,知乎也能提供相关的数据集信息。


3.2.2 买数据

买数据是一种短平快的积累手段。目前为止我还没有干过,原因如图3-1。




图3-1 不买数据原因示意图


当然了,公司有实力,有需要就会买。这时候就可以愉快地开始建模了。


3.2.3 自己动手,丰衣足食

NER语料标注需要一个趁手的工具才能保证效率。之前调研过一个开源的,叫做doccano,安装比较简单、用起来很顺手。

四、数据预处理的一点经验

4.1 标签体系规范化

目前允许开放获取的NER语料,使用的标签体系不是统一的,有的是BIO,有的是BIOES,有的采用了类似词性标注的标记方式。因此需要做细致的标签体系规范化工作。比如《人民日报》的语料,虽然是一个词性标注语料,但是里面的若干词性实际上就是命名实体,我们可以基于词性和实体类型的映射、完成转换。该语料存在大量合成词作为命名实体的情况,以及命名体识嵌套的情况,都需要根据需求做专门的处理。


4.2 去重

我找了一堆开放获取的数据,而大家也通常是从其他渠道找到的这些数据,里面不可避免的有一些重复的情况。如果你的数据里存在重复,意味着测试集里很有可能混杂了训练集里的样本——测试得到的各项指标会虚高。这会导致模型上线的时候,实际效果比预想的差很多,而我们还很难找出原因、只能挠头。


一定要做好去重工作,以句为单位对语料进行排重。我们可以将句子切分成ngram,然后用余弦相似度或者杰卡德相似度,判断两个句子是否相似。由于句子数量较多,可以使用一个以ngram为key、句子列表为value的倒排索引来辅助减少计算量。


4.3 数据扩增

4.3.1 文本数据扩增的困难

做CV的同志们真是幸福。我们可以用规则、基于几十张图片,生成上万张图片,让模型好好学习。我能理解的原因主要有3个:(1)图像是对真实世界的一种比较直接的描述方式,信息的损失量比较小的同时,人可以基于自己的视觉经验对图像做各种各样的变换;(2)图像数据具有比较强的空间相关性,我们施加的变换不会完全破幻这种相关性,比如“大黄”变成“大蓝”,它还是一条狗。


做NLP的同志们就稍微惨一些:(1)语言是人类用人造的离散符号,对世界的一种描述,信息量损失很大;(2)一般来说,语言只有一个维度上存在相关性,而这种相关性比较纠结、是语法上的相关(破坏句子结构的变换一般人接受不了)。这导致我们可以对文本数据施加的变换,比较少。常见的方法有几个:(1)同义词替换;(2)回译;(3)随机增删词语。


4.3.2 同义词替换

语言学家对同义词的定义是:用A词语替换句子中的B词语,句子的语义和句法结构不发生改变,那么A和B就是同义词。因此,我们可以收集一个命名实体之间的同义关系数据,然后做各种替换,就可以得到一些新的数据。


另外,通常来说,相同类型的实体名称在句子结构中的作用是一样的。比如“我今天要去天安门看升国旗”,改为“我今天要去黄山看升国旗”,句子仍然是合法的,只是语义有所变化(有时候还会出现不合常理的句子)。用这种方式,我们也可以得到一些新数据。


4.3.3 回译

最近几年机器翻译做的越来越好了,有人想到另一种扩增语料的办法:先把中文翻译成英文,然后在把英文翻译回中文。这样也可以得到新的语料。比如说“我要去北京,吃那里的烤鸭”,会被翻译成“I’m going to Beijing to eat roast duck”,然后回译为“我要去北京吃烤鸭”。


4.3.4 随机增删字词

我们说话或者写作的时候,经常会出错。比如我打字的时候会打出错别字而没有检查出来,写了一句“我腰去北京,吃那里的烤鸭”。我们需要NER模型对这些错误有一定的鲁棒性,可以在文本有噪声的情况下,可以正确判断句子里的实体。


这时候,我们可以从训练集中,随机抽取出来一些句子,对里面的字词进行随机增删改,然后把这样的错误样本添加到训练集中。是的,加一点噪声。


五、建模的一点经验

5.1 如何选择算法或者模型

如果有业务场景对应的词表,直接上“分词+词典匹配”的方案即可;如果有一定量的标注数据,可以用CRF;如果有钱有人、标注数据量比较大,那就试一下深度学习。


5.2 模型效果的评价

NER任务的目标,通常是“尽量发现所有的命名实体,发现的命名实体要尽量纯净”,也就是要求查全率和查准率比较高。当然,场景也有可能要求其中一项要非常高。


需要注意的是,这里统计recall和precision的时候,对象是命名实体,而不是单个标签。以表5-1所示计算结果为例,我们把“北京”标记成了“SS”,“北”和“京”是两个命名实体,这是错误的;“天安门”和“毛”的标签是正确的——因此,这句话中,模型的召回率是:




精度是:




表5-1 NER任务的真实标签和预测标签对比




5.3 如何判定模型结构有效

用全量训练数据之前,一定要先用一份较小的数据(比如测试数据),训练模型——看一下模型会不会过拟合,甚至记住所有的样本。如果模型不能过拟合,说明参数不能收敛,也就是模型无法从数据中学习到东西。这时候我们需要检查一下模型结构和数据,看看那里出了问题。


开始用全量数据后,我们还会遇到各种各样的问题,这里列几个常见的症状和原因,如表5-2。


表5-2 模型常见症状




六、结束语

做NER的过程中,比较消耗精力的环节是数据采集和预处理。采集数据需要耐心地持续进行;而数据预处理需要细心,并根据bad case不断纠错。在这个过程中,倒排索引、栈、字符串、递归等数据结构和算法,对工作的帮助很大。作为一个转行到数据科学领域的工程师,我切实意识到了数据结构的价值、计划系统地学一遍。


另外,在学习NER相关内容的过程中,我开始看语言学和计算语言学的相关内容,也意识到语言学的理论和方法对工程师来说,是非常有助益的。比如,许嘉璐和傅永和主编的《中文信息处理:现代汉语词汇研究》,里面的内容比较深、使用的方法比较简单,可以作为科普读物、挑着看。这些学者的工作还是挺扎实的,对NLP的发展推动很大。Frederick Jelinek说的“每当我开除一个语言学家,语音识别系统就更准了”,我觉的是带有偏见的玩笑话,不足为训。


目录
打赏
0
0
0
0
30
分享
相关文章
打造安全防线!Python AES&RSA加密工具,黑客绕道走的秘籍
【9月更文挑战第9天】随着数字化时代的到来,信息安全问题日益凸显。本文将介绍如何使用Python结合AES与RSA两种加密算法,构建强大的加密工具。AES以其高效性和强安全性著称,适用于大量数据的快速加密;RSA作为非对称加密算法,在加密小量数据及实现数字签名方面表现卓越。通过整合两者,可以构建既安全又灵活的加密系统。首先,需要安装pycryptodome库。接着,实现AES加密与解密功能,最后利用RSA加密AES密钥,确保其安全传输。这种设计不仅提高了数据传输效率,还增强了密钥交换的安全性,为敏感数据提供坚实保护。
316 43
HanLP — 命名实体识别
HanLP — 命名实体识别
175 1
BERT-IMDB电影评论情感分类实战:SwanLab可视化训练
这篇文章介绍了使用BERT模型进行IMDB电影评论情感分类的实战教程,涉及SwanLab、transformers和datasets库。作者提供了一键安装库的命令,并详细解释了每个库的作用。文章展示了如何加载BERT模型和IMDB数据集,以及如何利用SwanLab进行可视化训练。训练过程在SwanLab平台上进行,包括模型微调、指标记录和结果可视化。此外,还提供了完整代码、模型与数据集的下载链接,以及相关工具的GitHub仓库地址。
BERT-IMDB电影评论情感分类实战:SwanLab可视化训练
windows下更改pip版本
在CMD中运行`pip -V`检查pip与Python的关联版本。通过系统设置>环境变量>Path,修改包含Python和Scripts目录的路径为实际安装路径。完成后,验证`pip -V`显示的Python版本已更新。
【LangChain系列】第十篇:数据保护简介及实践
【5月更文挑战第24天】本文探讨了在使用大型语言模型时保护个人数据的重要性,特别是涉及敏感信息如PII(个人可识别信息)的情况。为了降低数据泄露风险,文章介绍了数据匿名化的概念,通过在数据进入LLM前替换敏感信息。重点讲解了Microsoft的Presidio库,它提供了一个可定制的文本匿名化工具。此外,文章还展示了如何结合LangChain库创建一个安全的匿名化流水线,包括初始化匿名器、添加自定义识别器和操作符,以及在问答系统中集成匿名化流程。通过这种方式,可以在利用LLMs的同时保护数据隐私。
294 0
面向低资源和增量类型的命名实体识别挑战赛PaddleNLP解决方案
面向低资源和增量类型的命名实体识别挑战赛PaddleNLP解决方案
267 0

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问