jieba分词器(应用及字典的补充)及文档高频词提取实战

简介: jieba分词器(应用及字典的补充)及文档高频词提取实战

jieba分词器是Python中最好的中文分词组件,本文讲解一下jieba分词器及其应用。


1、jieba分词器的分词模式

jieba分词器提供了三种常用的分词模式

1、精确模式:将句子按照最精确的方法进行切分,适合用于进行文本分析;

2、全模式:将句子当中所有可以成词的词语都扫描出来,分词速度很快但容易产生歧义;

3、搜索引擎模式:在精确模式分词的基础上,将长的句子再次进行切分,提高召回率,适用于搜索引擎的分词。


注:jieba也支持对繁体字进行分词。


在jieba中我们可以使用jieba.cut和jieba.cut_for_search来进行中文分词,我们可使用 for 循环来获得分词后得到的每一个词语。

下面通过代码来实现以下jieba的使用。

import jieba
ex = '南京市长江大桥'
# 全分词模式
all_cut = jieba.cut(ex, cut_all=True)
# 精确分词模式
precise_cut = jieba.cut(ex, cut_all=False)
# 当我们省略掉cut_all参数时,cut_all默认值为False,此时分词模式为精确分词
default_precise_cut = jieba.cut(ex)
# 搜索引擎模式
search_cut = jieba.cut_for_search(ex)
print("全分词: ", "/".join(all_cut))
print("精确分词: ", "/".join(precise_cut))
print("默认精确分词: ", "/".join(default_precise_cut))
print("搜索分词: ", "/".join(search_cut))

分词后的结果如下:

image.png


2、jieba分词器字典的补充

jieba分词器有两种补充字典的形式,一种是自定义文件导入的静态补充,一种是利用其内置函数的动态补充。


静态补充:

我们可以自定义词典,以便包含jieba词典中没有的词(虽然jieba有新词识别能力,但是添加自定义词典可以提高准确率)


添加格式

词语    词频(可省略)    词性(可省略)

我们可以按照上面三个属性去添加新的词语,属性之间用一个空格分开即可。


添加方法函数

jieba.load_userdict(file_name)    # file_name为我们要添加的词典的路径

举例子来说明一下这种添加形式

假设我们现在有文件add_words.txt为要添加的词典,词典中设定的内容如下,我们用全分词模式来验证结果。

长江大 5
江大桥 3 nz
南京市长江 2
import jieba
ex = '南京市长江大桥'
print("更新前的全分词结果: ", "/".join(jieba.cut(ex, cut_all=True)))
jieba.load_userdict("add_words.txt")
print("更新词典后的全分词结果: ", "/".join(jieba.cut(ex, cut_all=True)))

输出结果如下:

8.png

由结果可见,我们新添加的词语出现在了全分词的结果当中。


动态补充:

我们可以使用jieba.add_word()和jieba.del_word()两种函数来动态的添加或者删除词语,其中add_word()可以添加词频和词性两种参数,示例如下:

import jieba
ex = '南京市长江大桥'
print("更新前的全分词结果: ", "/".join(jieba.cut(ex, cut_all=True)))
jieba.add_word("南京市长江")
jieba.add_word("南京市长江", freq=5, tag='nz')
jieba.del_word("南京")
print("更新词典后的全分词结果: ", "/".join(jieba.cut(ex, cut_all=True)))

输出结果如下:

9.png

以上便是jieba分词器的词典添加方式。


3、高频词提取

高频词一般是指在文档中出现次数较多且有用的词语,在一定程度上表达了文档的关键词所在;高频词提取中我们主要用到了NLP中的TF策略。


停用词:像“的”“了”这种没有任何意义的词语,我们不需要进行统计。


TF指的是某个词语在文章中出现的总次数,我们将文章进行分词,去掉停用词(包括标点符号),然后取统计每个词在文章中出现的次数即可。


下面给出示例代码

# -*- coding: utf-8 -*-
import glob
import random
import jieba
# 读取文章的函数
def get_content(content_path):
    with open(content_path, 'r', encoding="gbk", errors="ignore") as f:
        content = ''
        for i in f:
            i = i.strip()
            content += i
    return content
# 提取topK个高频词的函数
# TF:计算某个词在文章中出现的总次数
def get_TF(k,words):
    tf_dic = {}
    for i in words:
        tf_dic[i] = tf_dic.get(i, 0)+1
    return sorted(tf_dic.items(), key=lambda x: x[1], reverse=True)[:k]
# 去掉停用词(包括标点)
def stop_words(path):
    with open(path, encoding='UTF-8') as f:
        return [l.strip() for l in f]
# 主函数
if __name__ == "__main__":
    files = glob.glob("*.txt")
    corpus = [get_content(x) for x in files]
    sample_inx = random.randint(0, len(corpus))
    split_words = [x for x in jieba.cut(corpus[sample_inx]) if x not in stop_words("stop_words.utf8")]
    print("top(k)个词为:" + str(get_TF(10, split_words)))

我们所选的文章为:


主持人:刚才讲到了治疗方法,那么在放疗和化疗的时候,在杀伤肿瘤(专题 访谈 咨询)细胞的时候会有其他伤害,那么在治疗的时候应该注意什么呢?张频:我想就是说这个头颈部肿瘤比较特殊,所以在手术的化疗的时候,对病人可能有一些限制,所以就是说对这部分的病人跟其它部位的病人的肿瘤还不一样,当然说药物治疗是普遍的,就是说接受药物治疗,我们常见的就是胃肠道会出现恶心、呕吐,其次就是说病人会出现白细胞、血小板的减少,甚至出现贫血,这是比较常见的。这两个不良反应是比较多的,当然还有一些不舒服的,会出现一些别的症状,包括头颈部肿瘤的、口腔的,头面部做过放射治疗的,这些病人通常都会出现对口腔的、黏膜的影响。张频:当然使用一些药物,还会出现一些神经的毒素,还有一些其它的肝肾的损害,这些会不会出现就是根据这个病人的肝肾功能的情况。那么头颈部肿瘤的化疗最大的问题可能是胃肠道的反应比较大,还有口腔粘膜的反应比较大。那么胃肠道的反应,我们不管是国内还是国外,我们现在有一些比较好的药物,那么目前这些药物在临床应用得十分广泛,比过去的其它的药物相比可以控制不良反应。张频:但是尽管这样还有30%左右的病人,用了药可能还会出现这样的情况。可能这样的病人比较害怕使用化疗。那么我们目前对骨髓病有比较好的治疗药物,比如说白细胞介素,还有一些增长白细胞的药物,通过皮下的注射以后,可以提升白细胞的数量。那么对于血小板的减少,我们也可通过药物增加血小板的数量。对于其它的肝功能和肾功能的损害,如果出现了异常我们可以进行一些保护性的治疗。张频:所以总的来说头颈部的肿瘤病人,如果需要化疗,也需要看具体的部位。治疗的药物也非常多,所以经过对证的治疗大部分是会有一定疗效的。徐震纲:头颈部肿瘤的病人通常需要放疗,那么首先射线要通过腮腺,那么通常有一个共同的症状是口干,通常是因为唾液腺受到了照射后就会有这样的情况,所以这些人到哪儿都会带着一杯水。所以现在的治疗手段是实行调强治疗,不同于常规的照射手段均是从体外照射。所谓的调强放疗,就是说可以强调对一个部位的集中照射,这样的话可以使肿瘤在这个部位接受的治疗剂量最高,而常规照射通常是全部通过腮腺的。经过调强照射后使原先得到的照射量降低,这样病人做过治疗以后,可以减轻或者避免放疗的副作用。徐震纲:第二个是皮肤和黏膜的炎症,还有干性的反应,因为病人的皮肤在放射线下非常的脆弱,有糜烂的反应,作为家属平常给他穿衣服要薄一点儿,因为经过了照射的组织比较脆弱,容易造成损伤,而这些损伤恢复起来比较困难。主持人:那么经过了放疗之后的这种皮肤的损伤会不会修复呢?徐震纲:一般损伤会持续一段时间。那么也有的人恢复时间比较长,这根据不同的部位,它照射的部位不同,它反应的轻重程度也不同,那么照射了四个周期的和照射了六个周期的反应是明显地不同的。那么医生对照射的副作用相对要做一些保护性的措施。


进行高频词提取后的结果为(列出了词频最高的十个词语):

10.png

本文中我们讲解了jieba分词器的用法以及在高频词汇提取时的应用,下文中还会讲到在NLP其他领域的应用。

相关文章
|
6月前
|
机器学习/深度学习 自然语言处理 算法
文本分析-使用jieba库进行中文分词和去除停用词(附案例实战)
文本分析-使用jieba库进行中文分词和去除停用词(附案例实战)
3301 0
|
自然语言处理 索引 算法
HanLP分词命名实体提取详解
文本挖掘是抽取有效、新颖、有用、可理解的、散布在文本文件中的有价值知识,并且利用这些知识更好地组织信息的过程。对于文本来说,由于语言组织形式各异,表达方式多样,文本里面提到的很多要素,如人名、手机号、组织名、地名等都称之为实体。
7459 0
|
1月前
|
存储 自然语言处理 数据库
Python字典操作实现文章敏感词检索
Python字典操作实现文章敏感词检索
|
2月前
|
机器学习/深度学习 自然语言处理 搜索推荐
一文掌握jieba分词器的常见用法,附带案例
该文章全面介绍了jieba分词器的使用方法,包括安装步骤、不同分词模式的使用,以及如何通过实例代码进行文本分词处理。
134 0
|
6月前
|
机器学习/深度学习 自然语言处理 Python
python分词列表转化成词向量
python分词列表转化成词向量
58 1
|
机器学习/深度学习 存储 自然语言处理
Jieba分词模式详解、词库的添加与删除、自定义词库失败的处理
Jieba(结巴)是一个中文分词第三方库,它可以帮助我们将一段中文文本分成一个个独立的词语。Jieba具有以下特点: 简单易用:Jieba提供了简洁的API接口,易于使用和扩展。可以快速地实现中文分词功能。 高效准确:Jieba采用了基于前缀词典和动态规划算法的分词方法,能够高效准确地处理各种中文文本。 支持多种分词模式:Jieba提供了三种分词模式:精确模式、全模式和搜索引擎模式,可以根据不同的应用场景选择合适的模式。
Jieba分词模式详解、词库的添加与删除、自定义词库失败的处理
谈一谈|Word文档图片的提取
谈一谈|Word文档图片的提取
153 0
|
Python
Python编程:使用textrank4zh、jieba、snownlp提取中文文章关键字和摘要
Python编程:使用textrank4zh、jieba、snownlp提取中文文章关键字和摘要
474 0
|
自然语言处理 Python
Python实现文本分词并写入新的文本文件,然后提取出文本中的关键词
Python实现文本分词并写入新的文本文件,然后提取出文本中的关键词
138 0
|
机器学习/深度学习 自然语言处理 Java
hanlp提取文本关键词的使用方法记录
如何在一段文本之中提取出相应的关键词呢? 之前有想过用机器学习的方法来进行词法分析,但是在项目中测试时正确率不够。于是这时候便有了 HanLP-汉语言处理包 来进行提取关键词的想法。
1797 0