NLTK模块使用详解

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: NLTK(Natural Language Toolkit)是基于Python的自然语言处理工具集,提供了丰富的功能和语料库。本文详细介绍了NLTK的安装、基本功能、语料库加载、词频统计、停用词去除、分词分句、词干提取、词形还原、词性标注以及WordNet的使用方法。通过示例代码,帮助读者快速掌握NLTK的核心功能。

[TOC]

NLTK模块使用详解

NLTK(natural language toolkit)是一套基于python的自然语言处理工具集。

一、NLTK的安装+简介

(1)、NLTK安装

  • win+r打开并输入cmd回车打开终端

1.png

  • 在终端中输入以下代码进行安装
pip3 install nltk

(2)、NLTK模块功能

2.png

(3)、NLTK中的语料库

在nltk.corpus包中,提供了几种标注好的语料库可以直接加载使用。如下:

3.png

(4)、加载语料库

这里以brown语料库进行讲解,其他语料库的使用方式大致相同

  • 查看语料库的加载路径。当我们加载时,我们的系统会帮我们把brown语料库下载到data的指定路径
from nltk.corpus import brown
import nltk

print(nltk.data.path)   # 查看语料库存储路径

"""

E:\Anaconda\envs\NLP_py3.11\python.exe D:\PYTHON_PROJECT\NLP\1.py 
['C:\\Users\\34435/nltk_data', 'E:\\Anaconda\\envs\\NLP_py3.11\\nltk_data', 'E:\\Anaconda\\envs\\NLP_py3.11\\share\\nltk_data', 'E:\\Anaconda\\envs\\NLP_py3.11\\lib\\nltk_data', 'C:\\Users\\34435\\AppData\\Roaming\\nltk_data', 'C:\\nltk_data', 'D:\\nltk_data', 'E:\\nltk_data']

进程已结束,退出代码为 0

"""
  • 指定数据加载的目录。我门也可以在加载时指定数据加载的目录

    • 方法一:使用nltk.data.path,在下载数据前,我们可以设置NLTK的下载目录
    from nltk.corpus import brown
    import nltk
    
    nltk.data.path.append('D:\\PYTHON_PROJECT\\NLP\\data')
    nltk.download('brown')
    
    """
    
    E:\Anaconda\envs\NLP_py3.11\python.exe D:\PYTHON_PROJECT\NLP\1.py 
    [nltk_data] Downloading package brown to
    [nltk_data] D:\PYTHON_PROJECT\NLP\data\nltk_data...
    [nltk_data]   Unzipping corpora\brown.zip.
    
    进程已结束,退出代码为 0
    
    """
    
    • 方法二:使用NLTK Downloader,如果希望在下载时选择目录,可以使用 NLTK 的下载器手动指定。运行以下命令:
    import nltk
    
    nltk.download()
    
    """
    
    E:\Anaconda\envs\NLP_py3.11\python.exe D:\PYTHON_PROJECT\NLP\1.py 
    showing info https://raw.githubusercontent.com/nltk/nltk_data/gh-pages/index.xml
    
    """
    

4.png

​ 这将打开上图所示的图形界面的下载器,您可以在其中选择下载目录。在下载器的菜单中,选择 "File" -> "Change NLTK Data Directory" 来更改数据目录,然后下载所需的资源。

  • 方法三:直接在环境变量中进行设置。通过设置环境变量来指定默认的 NLTK 数据目录,具体操作视操作系统而定

    windows系统如下操作:在环境变量中添加NLTK_DATA,并将其值设置为指定的下载路径

5.png

macos和linux系统:在终端中运行:

  export NLTK_DATA='/your/desired/path/nltk_data'
  • 方法四:直接传递参数下载。可以直接在调用 nltk.download() 时传递参数来指定下载路径(需要 Python 3.8 及以上版本):

    import nltk
    nltk.download('brown', download_dir='D:\\PYTHON_PROJECT\\NLP\\data')
    
    """
    
    E:\Anaconda\envs\NLP_py3.11\python.exe D:\PYTHON_PROJECT\NLP\1.py 
    [nltk_data] Downloading package brown to D:\PYTHON_PROJECT\NLP\data...
    [nltk_data]   Unzipping corpora\brown.zip.
    
    进程已结束,退出代码为 0
    
    """
    

(5)、基础语法

from nltk.corpus import brown
import nltk

print(brown.categories())    # 查看brown语料库的类别
print(len(brown.sents()))    # 查看brown语料库的句子数量
print(len(brown.words()))    # 查看brown语料库的词数量

二、NLTK词频统计(Frequency)

NLTK 中的FreqDist( ) 类主要记录了每个词出现的次数,根据统计数据生成表格或绘图。其结构简单,用一个有序词典进行实现。

方法 作用
B() 返回词典的长度
plot(title,cumulative=False) 绘制频率分布图,若cumu为True,则是累积频率分布图
tabulate() 生成频率分布的表格形式
most_common() 返回出现次数最频繁的词与频度
hapaxes() 返回只出现过一次的词

代码示例:

from nltk.corpus import brown
import nltk

tokens=[ 'my','dog','has','flea','problems','help','please',     'maybe','not','take','him','to','dog','park','stupid',
'my','dalmation','is','so','cute','I','love','him'  ]
freq = nltk.FreqDist(tokens)
for key,val in freq.items():
    print (str(key) + ':' + str(val))
standard_freq=freq.most_common(5)
freq.plot(20, cumulative=False)

"""

E:\Anaconda\envs\NLP_py3.11\python.exe D:\PYTHON_PROJECT\NLP\1.py 
my:2
dog:2
has:1
flea:1
problems:1
help:1
please:1
maybe:1
not:1
take:1
him:2
to:1
park:1
stupid:1
dalmation:1
is:1
so:1
cute:1
I:1
love:1

进程已结束,退出代码为 0

"""

三、NLTK去除停用词(stopwords)

​ 我们可以使用remove方法去除掉停用的词;示例代码:

from nltk.corpus import brown, stopwords
import nltk

tokens=[ 'my','dog','has','flea','problems','help','please',
        'maybe','not','take','him','to','dog','park','stupid',
        'my','dalmation','is','so','cute','I','love','him'  ]
stwords=stopwords.words('english')
tokens.remove(stwords)
print(tokens)

四、NLTK分词和分句(tokenize)

(1)、nltk分句

​ 使用sent_tokensize()方法可以很简单进行分句。示例代码:

from nltk import sent_tokenize
from nltk.corpus import brown, stopwords
import nltk

mytext = "Hello Adam, how are you? I hope everything is going well. Today is a good day, see you dude."
print(sent_tokenize(mytext))

"""

['Hello Adam, how are you?', 'I hope everything is going well.', 'Today is a good day, see you dude.']

"""

(2)、nltk分词

​ 使用word_tokenize()方法可以实现分词效果。示例代码:

from nltk import sent_tokenize, word_tokenize
from nltk.corpus import brown, stopwords
import nltk

mytext = "Hello Mr. Adam, how are you? I hope everything is going well. Today is a good day, see you dude."
print(word_tokenize(mytext))

"""

['Hello', 'Mr.', 'Adam', ',', 'how', 'are', 'you', '?', 'I', 'hope', 'everything', 'is', 'going', 'well', '.', 'Today', 'is', 'a', 'good', 'day', ',', 'see', 'you', 'dude', '.']

"""

(3)、nltk标记非英语语言文本

​ 使用sent_tokenize()方法标记非英文语言文本。示例代码:

from nltk import sent_tokenize, word_tokenize
from nltk.corpus import brown, stopwords
import nltk

mytext = "Bonjour M. Adam, comment allez-vous? J'espère que tout va bien. Aujourd'hui est un bon jour."
print(sent_tokenize(mytext,"french"))

"""

['Bonjour M. Adam, comment allez-vous?', "J'espère que tout va bien.", "Aujourd'hui est un bon jour."]

"""

五、NLTK词干提取(Stemming)

单词词干提取就是从单词中去除词缀并返回词根。(比方说 working 的词干是 work。)搜索引擎在索引页面的时候使用这种技术,所以很多人通过同一个单词的不同形式进行搜索,返回的都是相同的,有关这个词干的页面。
​ 词干提取的算法有很多,但最常用的算法是 Porter 提取算法。NLTK 有一个 PorterStemmer 类,使用的就是 Porter 提取算法。

(1) PorterStemmer方法

from nltk.stem import PorterStemmer

porter_stemmer = PorterStemmer()

print(porter_stemmer.stem('working'))

(2)LancasterStemmer方法

from nltk.stem import LancasterStemmer

lancaster_stemmer = LancasterStemmer()

print(lancaster_stemmer.stem('working'))

(3)SnowballStemmer方法提取非英语单词词干

SnowballStemmer 类,除了英语外,还可以适用于其他 13 种语言。支持的语言如下:

from nltk.stem import SnowballStemmer

print(SnowballStemmer.languages)

('danish', 'dutch', 'english', 'finnish', 'french', 'german', 'hungarian', 'italian', 'norwegian', 'porter', 'portuguese', 'romanian', 'russian', 'spanish', 'swedish')

使用 SnowballStemmer 类的 stem() 函数来提取非英语单词

from nltk.stem import SnowballStemmer

french_stemmer = SnowballStemmer('french')

print(french_stemmer.stem("French word"))

六. NLTK词形还原(Lemmatization)

(1)词形还原与词干提取类似, 但不同之处在于词干提取经常可能创造出不存在的词汇,词形还原的结果是一个真正的词汇。

from nltk.stem import WordNetLemmatizer

lemmatizer = WordNetLemmatizer()

print(lemmatizer.lemmatize('increases'))

(2) 结果可能是同义词或具有相同含义的不同词语。有时,如果你试图还原一个词,比如 playing,还原的结果还是 playing。这是因为默认还原的结果是名词,如果你想得到动词,可以通过以下的方式指定。

from nltk.stem import WordNetLemmatizer

lemmatizer = WordNetLemmatizer()

print(lemmatizer.lemmatize('playing', pos="v"))

(3)实际上,这是一个非常好的文本压缩水平。最终压缩到原文本的 50% 到 60% 左右。结果可能是动词,名词,形容词或副词:

from nltk.stem import WordNetLemmatizer

lemmatizer = WordNetLemmatizer()

print(lemmatizer.lemmatize('playing', pos="v"))

print(lemmatizer.lemmatize('playing', pos="n"))

print(lemmatizer.lemmatize('playing', pos="a"))

print(lemmatizer.lemmatize('playing', pos="r"))

七、NLTK词性标注(POS Tag)

(1)词性标注是把一个句子中的单词标注为名词,形容词,动词等。

text=nltk.word_tokenize('what does the fox say')

print(nltk.pos_tag(text))

['what', 'does', 'the', 'fox', 'say']

输出是元组列表,元组中的第一个元素是单词,第二个元素是词性标签

[('what', 'WDT'), ('does', 'VBZ'), ('the', 'DT'), ('fox', 'NNS'), ('say', 'VBP')]

(2)简化的词性标记集列表(Part of Speech)

标记(Tag) 含义(Meaning) 例子(Examples)
ADJ 含义(Meaning) new,good,high,special,big
ADV 形容词(adjective) really,,already,still,early,now
CNJ 副词(adverb) and,or,but,if,while
DET 连词(conjunction) the,a,some,most,every
EX 限定词(determiner) there,there's
FW 存在量词(existential) dolce,ersatz,esprit,quo,maitre
MOD 外来词(foreign word) will,can,would,may,must
N 情态动词(modal verb) year,home,costs,time
NP 名词(noun) Alison,Africa,April,Washington
NUM 专有名词(proper noun) twenty-four,fourth,1991,14:24
PRO 数词(number) he,their,her,its,my,I,us
P 代词(pronoun) on,of,at,with,by,into,under
TO 介词(preposition) to
UH 词 to(the word to) ah,bang,ha,whee,hmpf,oops
V 感叹词(interjection) is,has,get,do,make,see,run
VD 动词(verb) said,took,told,made,asked
VG 过去式(past tense) making,going,playing,working
VN 现在分词(present participle) given,taken,begun,sung
WH wh限定词(wh determiner) who,which,when,what,where

编码含义

九、NLTK中的wordnet

wordnet 是为自然语言处理构建的数据库。它包括部分词语的一个同义词组和一个简短的定义。

(1)通过 wordnet可以得到给定词的定义和例句

from nltk.corpus import wordnet

syn = wordnet.synsets("pain")  #获取“pain”的同义词集

print(syn[0].definition())

a symptom of some physical hurt or disorder

['the patient developed severe pain and distension']

(2)使用 wordnet来获得同义词

from nltk.corpus import wordnet

for syn in wordnet.synsets('Computer'):

    for lemma in syn.lemmas():

        synonyms.append(lemma.name())

['computer', 'computing_machine', 'computing_device', 'data_processor', 'electronic_computer', 'information_processing_system', 'calculator', 'reckoner', 'figurer', 'estimator', 'computer']

(3)使用wordnet来获取反义词

from nltk.corpus import wordnet

for syn in wordnet.synsets("small"):

    for l in syn.lemmas():

        if l.antonyms():   #判断是否是正确的反义词

            antonyms.append(l.antonyms()[0].name())
目录
相关文章
|
17天前
|
存储 弹性计算 人工智能
阿里云Alex Chen:普惠计算服务,助力企业创新
本文整理自阿里云弹性计算产品线、存储产品线产品负责人陈起鲲(Alex Chen)在2024云栖大会「弹性计算专场-普惠计算服务,助力企业创新」中的分享。在演讲中,他分享了阿里云弹性计算,如何帮助千行百业的客户在多样化的业务环境和不同的计算能力需求下,实现了成本降低和效率提升的实际案例。同时,基于全面升级的CIPU2.0技术,弹性计算全线产品的性能、稳定性等关键指标得到了全面升级。此外,他还宣布了弹性计算包括:通用计算、加速计算和容器计算的全新产品家族,旨在加速AI与云计算的融合,推动客户的业务创新。
|
24天前
|
存储 人工智能 弹性计算
产品技术能力飞跃,阿里云E-HPC荣获“CCF 产品创新奖”!
9月24日,在中国计算机学会举办的“2024 CCF 全国高性能计算学术年会”中,阿里云弹性高性能计算(E-HPC)荣获「 CCF HPC China 2024 产品创新奖」。这也是继 2022 年之后,阿里云E-HPC 再次荣获此奖项,代表着阿里云在云超算领域的持续创新结果,其产品能力和技术成果得到了业界的一致认可。
|
8天前
|
SQL 人工智能 安全
【灵码助力安全1】——利用通义灵码辅助快速代码审计的最佳实践
本文介绍了作者在数据安全比赛中遇到的一个开源框架的代码审计过程。作者使用了多种工具,特别是“通义灵码”,帮助发现了多个高危漏洞,包括路径遍历、文件上传、目录删除、SQL注入和XSS漏洞。文章详细描述了如何利用这些工具进行漏洞定位和验证,并分享了使用“通义灵码”的心得和体验。最后,作者总结了AI在代码审计中的优势和不足,并展望了未来的发展方向。
|
3天前
|
负载均衡 算法 网络安全
阿里云WoSign SSL证书申请指南_沃通SSL技术文档
阿里云平台WoSign品牌SSL证书是由阿里云合作伙伴沃通CA提供,上线阿里云平台以来,成为阿里云平台热销的国产品牌证书产品,用户在阿里云平台https://www.aliyun.com/product/cas 可直接下单购买WoSign SSL证书,快捷部署到阿里云产品中。
1843 6
阿里云WoSign SSL证书申请指南_沃通SSL技术文档
|
2天前
|
存储 安全 Oracle
【灵码助力安全3】——利用通义灵码辅助智能合约漏洞检测的尝试
本文探讨了智能合约的安全性问题,特别是重入攻击、预言机操纵、整数溢出和时间戳依赖性等常见漏洞。文章通过实例详细分析了重入攻击的原理和防范措施,展示了如何利用通义灵码辅助检测和修复这些漏洞。此外,文章还介绍了最新的研究成果,如GPTScan工具,该工具通过结合大模型和静态分析技术,提高了智能合约漏洞检测的准确性和效率。最后,文章总结了灵码在智能合约安全领域的应用前景,指出尽管存在一些局限性,但其在检测和预防逻辑漏洞方面仍展现出巨大潜力。
|
6天前
|
Web App开发 算法 安全
什么是阿里云WoSign SSL证书?_沃通SSL技术文档
WoSign品牌SSL证书由阿里云平台SSL证书合作伙伴沃通CA提供,上线阿里云平台以来,成为阿里云平台热销的国产品牌证书产品。
1778 2
|
15天前
|
编解码 Java 程序员
写代码还有专业的编程显示器?
写代码已经十个年头了, 一直都是习惯直接用一台Mac电脑写代码 偶尔接一个显示器, 但是可能因为公司配的显示器不怎么样, 还要接转接头 搞得桌面杂乱无章,分辨率也低,感觉屏幕还是Mac自带的看着舒服
|
22天前
|
存储 人工智能 缓存
AI助理直击要害,从繁复中提炼精华——使用CDN加速访问OSS存储的图片
本案例介绍如何利用AI助理快速实现OSS存储的图片接入CDN,以加速图片访问。通过AI助理提炼关键操作步骤,避免在复杂文档中寻找解决方案。主要步骤包括开通CDN、添加加速域名、配置CNAME等。实测显示,接入CDN后图片加载时间显著缩短,验证了加速效果。此方法大幅提高了操作效率,降低了学习成本。
5112 15
|
9天前
|
人工智能 关系型数据库 Serverless
1024,致开发者们——希望和你一起用技术人独有的方式,庆祝你的主场
阿里云开发者社区推出“1024·云上见”程序员节专题活动,包括云上实操、开发者测评和征文三个分会场,提供14个实操活动、3个解决方案、3 个产品方案的测评及征文比赛,旨在帮助开发者提升技能、分享经验,共筑技术梦想。
1039 147
|
17天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1583 12