上次爬虫小分队爬取了贴吧中python问题的精品回答,我自己也用scrapy写了一个程序,爬取了一点信息,存入MongoDB数据库中,代码就不上了,今天主要是通过pandas库读取数据,做问与答的文字云。
读取数据库
pandas库读取文件很方便,主要是运用dataframe,首先导入需要的模块;
import pandas as pd
import pymongo
import jieba.analyse
然后连接数据库,读取数据;
client = pymongo.MongoClient('localhost',port = 27017)
test = client['test']
tieba = test['tieba']
data = pd.DataFrame(list(tieba.find()))
data
获取question列
我们知道分词需要的是字符串格式的数据,所以需要通过dataframe的切片提取question这列的数据,并转化为字符串格式。
question_data = '' #初始化字符串
for i in range(563): #数字为数据的行数
index = data.ix[i,:] #取每行
question = index['question'] #取每行的question
question_data = question_data + question
print(question_data)
分词
这部分以前讲过,贴上代码。
jieba.analyse.set_stop_words('停用词表路径')
tags = jieba.analyse.extract_tags(question_data, topK=50, withWeight=True)
for item in tags:
print(item[0]+'\t'+str(int(item[1]*1000)))
词云
类似,也可以做出回答的词云。
问:
答: