一、首先前提是已经安装了python的nltk库(见下图),目的是调用nltk库的word_tokenize方法实现英文分词。
二、在运行word_tokenize方法代码中报“Resource punkt not found. Please use the NLTK Downloader to obtain the resource”错误(见下图),翻译成中文是“找不到资源。请使用NLTK下载程序获取资源”,官方也已经明显提示我们怎么去解决这个问题。
三、在 jupyter notebook 中复制粘贴运行下面的代码,目的是打开NLTK下载资源的网页进行下载程序获取资源(见下面第二张图)。
import nltk nltk.download()
四、成功打开页面后,首先选择点击“Models”,然后找到点击选择“punkt”模型,最后点击“Download”进行模型下载,下载需要等待十秒即可。
五、重新运行源程序的代码没有再报同样的错误就成功解决这个问题了。