nltk 自己训练模型例子

简介: NLTK是Python的一个自然语言处理的模块,其中实现了朴素贝叶斯分类算法。以下,就使用上一篇文中提到的数据,来应用这个模块实现朴素贝叶斯分类。NLTK的实现更加泛化,所以在应用到我们的数据上时需要做一点的转化。 首先来看一下NLTK官方文档中给出的一个简单明了的例子,在了解这个例子之后,再设法将同样的模型应用到自己的数据集上。官方给出的例子是英文名中,在知道名字中最后

NLTK是Python的一个自然语言处理的模块,其中实现了朴素贝叶斯分类算法。以下,就使用上一篇文中提到的数据,来应用这个模块实现朴素贝叶斯分类。NLTK的实现更加泛化,所以在应用到我们的数据上时需要做一点的转化。


首先来看一下NLTK官方文档中给出的一个简单明了的例子,在了解这个例子之后,再设法将同样的模型应用到自己的数据集上。官方给出的例子是英文名中,在知道名字中最后一个字母后,判断这个名字对应的人是男是女。

[python]  view plain  copy
  1. #coding=utf-8  
  2. import random, nltk  
  3. from nltk.corpus import names  
  4.   
  5. def gender_features(word):  
  6.     '''''提取每个单词的最后一个字母作为特征'''  
  7.     return {'last_letter': word[-1]}  
  8. # 先为原始数据打好标签  
  9. labeled_names = ([(name, 'male'for name in names.words('male.txt')] + [(name, 'female'for name in names.words('female.txt')])  
  10. # 随机打乱打好标签的数据集的顺序,  
  11. random.shuffle(labeled_names)  
  12. # 从原始数据中提取特征(名字的最后一个字母, 参见gender_features的实现)  
  13. featuresets = [(gender_features(name), gender) for (name, gender) in labeled_names]  
  14. # 将特征集划分成训练集和测试集  
  15. train_set, test_set = featuresets[500:], featuresets[:500]  
  16. # 使用训练集训练模型(核心就是求出各种后验概率)  
  17. classifier = nltk.NaiveBayesClassifier.train(train_set)  
  18. # 通过测试集来估计分类器的准确性  
  19. print(nltk.classify.accuracy(classifier, test_set))  
  20. # 如果一个人的名字的最后一个字母是‘a’,那么这个人是男还是女  
  21. print(classifier.classify({'last_letter''a'}))  
  22. # 找出最能够区分分类的特征值  
  23. classifier.show_most_informative_features(5)  


以上程序的输出如下:
[plain]  view plain  copy
  1. 0.754  
  2. female  
  3. Most Informative Features  
  4.              last_letter = u'a'           female : male   =     35.6 : 1.0  
  5.              last_letter = u'k'             male : female =     30.7 : 1.0  
  6.              last_letter = u'f'             male : female =     16.6 : 1.0  
  7.              last_letter = u'p'             male : female =     12.5 : 1.0  
  8.              last_letter = u'm'             male : female =     11.1 : 1.0  
从结果中,我们可以看到,通过训练集训练出的模型,在应用到测试集上时,其准确率为75%;如果一个人的名字以字母‘a’结束,那么此分类器将其划分为女性;最后输出了最能区分男女的5个属性值的数据,比如,对于字母‘a’来说,它作为女性名的最后一个字母的可能性是男性的35倍。

可以看到NLTK的朴素贝叶斯实现之中,它的输入的训练集的输入是类似于以下的形式:

[

({'attr1':val1, 'attr2': val2, 'attr3': val3 ... 'attrn': valn}, label1),

({'attr1':val1, 'attr2': val2, 'attr3': val3 ... 'attrn': valn}, label2),

......

]

其中,每个特征对应一个标签,在以上的官方的例子中,特征就只有一个,last_letter;而特征的可能值是26个字母。对应到自己的数据,对应一个用户就不止有一个特征了,而是用户安装的APP名称列表,同时又由于每个用户安装的APP可能不同,所以不同的用户所对应的特征的长度也是可能不同的;而每个属性(APP名称)对应的值只有两个:安装或者没安装。


以下的代码中的注释以及输出说明了整个转化过程(使用了上篇文章中第三步中生成的数据):

[python]  view plain  copy
  1. #!/usr/local/bin/python2.7  
  2. # encoding: utf-8  
  3. from collections import defaultdict  
  4. import nltk  
  5.   
  6. def gender_features(appnamelist):  
  7.     features = defaultdict(bool)  
  8.     for appname in appnamelist:  
  9.         features[appname] = True  
  10.     return features  
  11.   
  12. if __name__ == '__main__':  
  13.     raw_data = defaultdict(lambda: defaultdict(list))  
  14.     with open('data/genderapplist.log') as f:  
  15.         for line in f:  
  16.             cells = line.strip().split('\t')  
  17.             if len(cells) == 3:  
  18.                 imei, gender, appname = cells  
  19.                 gender = 'male' if gender == '男性应用' else 'female'  
  20.                 raw_data[gender][imei].append(appname)  
  21.       
  22.     labeled_applist = [(appnamelist, 'male'for appnamelist in raw_data['male'].values()] + [(appnamelist, 'female'for appnamelist in raw_data['female'].values()]  
  23.     featuresets = [(gender_features(appnamelist), gender) for appnamelist, gender in labeled_applist]  
  24.     train_set, test_set = featuresets[500:], featuresets[:500]  
  25.     classifier = nltk.NaiveBayesClassifier.train(train_set)  
  26.       
  27.     # 在训练生成的分类器classifier中,有两个属性存储着贝叶斯分类器所需要的先验和后验概率:  
  28.     # _label_probdist 保存了标签的分布  
  29.     # _feature_probdist 保存了每个APPNAME对应的后验分布  
  30.     # 通过下面的代码我们可以看到它们的值  
  31.     print '以下是 _label_probdist的相关信息'  
  32.     print '1. 类型'   
  33.     print type(classifier._label_probdist)  
  34.     print '2. 标签的整体分布状况'  
  35.     classifier._label_probdist.freqdist().tabulate()  
  36.     print '3. 由第二步推出的标签的概率分布'  
  37.     print classifier._label_probdist.prob('female'), classifier._label_probdist.prob('male')  
  38.       
  39.     print '*' * 32  
  40.       
  41.     # _feature_probdist的值  
  42.     print '以下是 _feature_probdist的相关信息'  
  43.     print '1. 类型'  
  44.     print type(classifier._feature_probdist)  
  45.     print '2. 从1的输出中可以看到其类型为dict,我们看它的一个key和value即可'  
  46.     print classifier._feature_probdist.items()[6302]  
  47.     print '3. 从2中可以看到,其代表了,在标签为female的情况下,安装了支付宝钱包这个应用的概率分布'  
  48.     classifier._feature_probdist.items()[6302][1].freqdist().tabulate()  
  49.     print '4. 3的输出,我们非常熟悉,也就是在所有4910个female用户中,有77个安装了支付宝钱包,没有安装的有4833个'  
  50.     print '有了这个分布,我们就可以计算出P(True|female, 支付宝钱包),其意义就是,在female用户中,支付宝钱包这个属性为True的可能性为'  
  51.     print classifier._feature_probdist.items()[6302][1].prob(True)  
  52.     print '5. 然后你会发现4中输出的P(True|female, 支付宝钱包)并不正好等于77./4910,这是因为使用ELEProbDist'  
  53.     print '也就是“期望相似性概率估计”,这种方法避免了P(True|female, 支付宝钱包)=0情况的出现,从而避免模型失效'  
  54.     print '6. 通过在训练集上的训练,我们得到了以上的概率分布,然后就可以使用训练好的模型来分类了,我们看一下安装了蘑菇街和支付宝钱包的用户是男还是女'  
  55.     print classifier.classify({'蘑菇街':True'支付宝钱包'True})  
  56.     print '7. 让我们看一下安传过了蘑菇街和支付宝钱包的用户男女的可能性'  
  57.     print 'Prob(female)', classifier.prob_classify({'蘑菇街':True'支付宝钱包'True}).prob('female')  
  58.     print 'Prob(male)', classifier.prob_classify({'蘑菇街':True'支付宝钱包'True}).prob('male')  
  59.     print '8. 如果我们的输入中,有一个全新的应用“这个应用不存在”,这里的处理是不处理它'  
  60.     print 'Prob(female)', classifier.prob_classify({'蘑菇街':True'支付宝钱包'True'这个应用不存在':True}).prob('female')  
  61.     print 'Prob(male)', classifier.prob_classify({'蘑菇街':True'支付宝钱包'True'这个应用不存在':True}).prob('male')  

以上程序的输出为:

[plain]  view plain  copy
  1. 以下是 _label_probdist的相关信息  
  2. 1. 类型  
  3. <class 'nltk.probability.ELEProbDist'>  
  4. 2. 标签的整体分布状况  
  5. female male   
  6. 4910 4420   
  7. 3. 由第二步推出的标签的概率分布  
  8. 0.526256564141 0.473743435859  
  9. ********************************  
  10. 以下是 _feature_probdist的相关信息  
  11. 1. 类型  
  12. <type 'dict'>  
  13. 2. 从1的输出中可以看到其类型为dict,我们看它的一个key和value即可  
  14. (('female', '\xe6\x94\xaf\xe4\xbb\x98\xe5\xae\x9d\xe9\x92\xb1\xe5\x8c\x85'), <ELEProbDist based on 4910 samples>)  
  15. 3. 从2中可以看到,其代表了,在标签为female的情况下,安装了支付宝钱包这个应用的概率分布  
  16. None True   
  17. 4833   77   
  18. 4. 3的输出,我们非常熟悉,也就是在所有4910个female用户中,有77个安装了支付宝钱包,没有安装的有4833个  
  19. 有了这个分布,我们就可以计算出P(True|female, 支付宝钱包),其意义就是,在female用户中,支付宝钱包这个属性为True的可能性为  
  20. 0.0157809000204  
  21. 5. 然后你会发现4中输出的P(True|female, 支付宝钱包)并不正好等于77./4910,这是因为使用ELEProbDist  
  22. 也就是“期望相似性概率估计”,这种方法避免了P(True|female, 支付宝钱包)=0情况的出现,从而避免模型失效  
  23. 6. 通过在训练集上的训练,我们得到了以上的概率分布,然后就可以使用训练好的模型来分类了,我们看一下安装了蘑菇街和支付宝钱包的用户是男还是女  
  24. female  
  25. 7. 让我们看一下安传过了蘑菇街和支付宝钱包的用户男女的可能性  
  26. Prob(female) 0.994878529146  
  27. Prob(male) 0.00512147085357  
  28. 8. 如果我们的输入中,有一个全新的应用“这个应用不存在”,这里的处理是不处理它  
  29. Prob(female) 0.994878529146  
  30. Prob(male) 0.00512147085357  

这样通过使用NLTK,相比自己实现来说有了更简洁的代码,并且更容易维护,希望对有需要的同学有帮助。
目录
相关文章
|
12月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
【tensorflow】连续输入的线性回归模型训练代码
  get_data函数用于生成随机的训练和验证数据集。首先使用np.random.rand生成一个形状为(10000, 10)的随机数据集,来模拟10维的连续输入,然后使用StandardScaler对数据进行标准化。再生成一个(10000,1)的target,表示最终拟合的目标分数。最后使用train_test_split函数将数据集划分为训练集和验证集。
|
12月前
|
机器学习/深度学习 监控 算法
【tensorflow】连续输入的神经网络模型训练代码
【tensorflow】连续输入的神经网络模型训练代码
|
3月前
|
数据采集 机器学习/深度学习 算法
Python基于决策树多分类模型实现水色图像的水质评价
Python基于决策树多分类模型实现水色图像的水质评价
|
9天前
|
机器学习/深度学习 Python
9-3|使用Python的scikit-learn库来训练一个逻辑回归模型,检测句子是否含有侮辱性内容:
9-3|使用Python的scikit-learn库来训练一个逻辑回归模型,检测句子是否含有侮辱性内容:
|
2月前
|
存储 自然语言处理
【NLP】gensim保存存储和加载fasttext词向量模型
【8月更文挑战第3天】如何使用Gensim库中的FastText模型来训练词向量,并演示了如何保存和加载这些训练好的模型。
62 2
|
3月前
|
机器学习/深度学习 数据采集 自然语言处理
Python基于词袋模型特征和TFIDF特征进行支持向量机模型中文邮件分类项目实战
Python基于词袋模型特征和TFIDF特征进行支持向量机模型中文邮件分类项目实战
|
5月前
|
机器学习/深度学习 PyTorch TensorFlow
TensorFlow、Keras 和 Python 构建神经网络分析鸢尾花iris数据集|代码数据分享
TensorFlow、Keras 和 Python 构建神经网络分析鸢尾花iris数据集|代码数据分享
|
5月前
|
供应链 算法 vr&ar
Python中的ARIMA模型、SARIMA模型和SARIMAX模型对时间序列预测
Python中的ARIMA模型、SARIMA模型和SARIMAX模型对时间序列预测
|
5月前
|
数据采集 机器学习/深度学习 自然语言处理
Python实现文本分类的方法详解
本文详细介绍了Python实现文本分类的方法,包括数据清洗、特征提取、模型训练和预测等步骤。通过代码示例和实际案例,帮助读者快速掌握文本分类的基本原理和实现方法。
101 1
|
5月前
|
机器学习/深度学习 自然语言处理 算法
基于TF-IDF+KMeans聚类算法构建中文文本分类模型(附案例实战)
基于TF-IDF+KMeans聚类算法构建中文文本分类模型(附案例实战)
400 1
下一篇
无影云桌面