基于微博数据用Python打造一颗“心”

简介:

一年一度的虐狗节终于过去了,朋友圈各种晒,晒自拍,晒娃,晒美食,秀恩爱的。程序员在晒什么,程序员在加班。但是礼物还是少不了的,送什么好?作为程序员,我准备了一份特别的礼物,用以往发的微博数据打造一颗“爱心”,我想她一定会感动得哭了吧。哈哈

准备工作

有了想法之后就开始行动了,自然最先想到的就是用 Python 了,大体思路就是把微博数据爬下来,数据经过清洗加工后再进行分词处理,处理后的数据交给词云工具,配合科学计算工具和绘图工具制作成图像出来,涉及到的工具包有:

requests 用于网络请求爬取微博数据,结巴分词进行中文分词处理,词云处理库 wordcloud,图片处理库 Pillow,科学计算工具 NumPy ,类似于 MATLAB 的 2D 绘图库 Matplotlib

工具安装

安装这些工具包时,不同系统平台有可能出现不一样的错误,wordcloud,requests,jieba 都可以通过普通的 pip 方式在线安装,

pip install wordcloud pip install requests pip install jieba 

在Windows 平台安装 Pillow,NumPy,Matplotlib 直接用 pip 在线安装会出现各种问题,推荐的一种方式是在一个叫 Python Extension Packages for Windows 1 的第三方平台下载 相应的 .whl 文件安装。可以根据自己的系统环境选择下载安装 cp27 对应 python2.7,amd64 对应 64 位系统。下载到本地后进行安装

pip install Pillow-4.0.0-cp27-cp27m-win_amd64.whl pip install scipy-0.18.0-cp27-cp27m-win_amd64.whl pip install numpy-1.11.3+mkl-cp27-cp27m-win_amd64.whl pip install matplotlib-1.5.3-cp27-cp27m-win_amd64.whl 

其他平台可根据错误提示 Google 解决。或者直接基于 Anaconda 开发,它是 Python 的一个分支,内置了大量科学计算、机器学习的模块 。

获取数据

新浪微博官方提供的 API 是个渣渣,只能获取用户最新发布的5条数据,退而求其次,使用爬虫去抓取数据,抓取前先评估难度,看看是否有人写好了,在GitHub逛了一圈,基本没有满足需求的。倒是给我提供了一些思路,于是决定自己写爬虫。使用 http://m.weibo.cn/ 移动端网址去爬取数据。发现接口 http://m.weibo.cn/index/my?format=cards&page=1 可以分页获取微博数据,而且返回的数据是 json 格式,这样就省事很多了,不过该接口需要登录后的 cookies 信息,登录自己的帐号就可以通过 Chrome 浏览器 找到 Cookies 信息。

Python

实现代码:

def fetch_weibo():     api = "http://m.weibo.cn/index/my?format=cards&page=%s"     for i in range(1, 102):         response = requests.get(url=api % i, cookies=cookies)         data = response.json()[0]         groups = data.get("card_group") or []         for group in groups:             text = group.get("mblog").get("text")             text = text.encode("utf-8")             text = cleanring(text).strip()             yield text 

查看微博的总页数是101,考虑到一次性返回一个列表对象太费内存,函数用 yield 返回一个生成器,此外还要对文本进行数据清洗,例如去除标点符号,HTML 标签,“转发微博”这样的字样。

保存数据

数据获取之后,我们要把它离线保存起来,方便下次重复使用,避免重复地去爬取。使用 csv 格式保存到 weibo.csv 文件中,以便下一步使用。数据保存到 csv 文件中打开的时候可能为乱码,没关系,用 notepad++查看不是乱码。

def write_csv(texts):     with codecs.open('weibo.csv', 'w') as f:         writer = csv.DictWriter(f, fieldnames=["text"])         writer.writeheader()         for text in texts:             writer.writerow({"text": text})  def read_csv():     with codecs.open('weibo.csv', 'r') as f:         reader = csv.DictReader(f)         for row in reader:             yield row['text'] 

分词处理

从 weibo.csv 文件中读出来的每一条微博进行分词处理后再交给 wordcloud 生成词云。结巴分词适用于大部分中文使用场景,使用停止词库 stopwords.txt 把无用的信息(比如:的,那么,因为等)过滤掉。

def word_segment(texts):     jieba.analyse.set_stop_words("stopwords.txt")     for text in texts:         tags = jieba.analyse.extract_tags(text, topK=20)         yield " ".join(tags) 

生成图片

数据分词处理后,就可以给 wordcloud 处理了,wordcloud 根据数据里面的各个词出现的频率、权重按比列显示关键字的字体大小。生成方形的图像,如图:

Python

是的,生成的图片毫无美感,毕竟是要送人的也要拿得出手才好炫耀对吧,那么我们找一张富有艺术感的图片作为模版,临摹出一张漂亮的图出来。我在网上搜到一张“心”型图:

Python

生成图片代码:

def generate_img(texts):     data = " ".join(text for text in texts)     mask_img = imread('./heart-mask.jpg', flatten=True)     wordcloud = WordCloud(         font_path='msyh.ttc',         background_color='white',         mask=mask_img     ).generate(data)     plt.imshow(wordcloud)     plt.axis('off')     plt.savefig('./heart.jpg', dpi=600) 

需要注意的是处理时,需要给 matplotlib 指定中文字体,否则会显示乱码,找到字体文件夹:C:\Windows\Fonts\Microsoft YaHei UI复制该字体,拷贝到 matplotlib 安装目录:C:\Python27\Lib\site-packages\matplotlib\mpl-data\fonts\ttf 下

差不多就这样。

Python

当我自豪地把这张图发给她的时候,出现了这样的对话:

这是什么?
我:爱心啊,亲手做的
这么专业,好感动啊,你的眼里只有 python ,没有我 (哭笑)
我:明明是“心”中有 python 啊

我好像说错了什么,哈哈哈。


本文作者:VTtalk

来源:51CTO

相关文章
|
3天前
|
供应链 数据挖掘 数据处理
聚合数据,洞察未来!Python聚合术,解锁数据背后的商业密码!
【7月更文挑战第19天】数据聚合整合分散数据,揭示隐藏模式,助力企业决策。Python的Pandas与NumPy库简化了这一过程,提供高效的数据处理。例如,通过Pandas的groupby和agg函数,可以按产品ID和日期聚合销售数据,计算每日销量和收入。聚合后,企业可洞察产品销售趋势、季节性变化,优化策略,预测需求。Python丰富的资源和活跃社区支持各层次用户进行数据探索。
17 7
|
2天前
|
数据挖掘 索引 Python
数据聚合新风尚!Python带你领略数据聚合的无限魅力,秒变数据达人!
【7月更文挑战第20天】在数据驱动的世界,Python的Pandas库为数据聚合提供了强大工具。通过分组和统计计算,Pandas的DataFrame使得从海量数据中提取价值变得轻松。例如,聚合销售数据按地区和产品分类,只需简单几行代码即可计算总销量。Pandas不仅支持基本统计函数,还能自定义聚合操作,结合多级索引和其他高级功能,助你成为数据专家。开始使用Pandas,解锁数据的潜在洞察吧!
12 4
|
3天前
|
数据采集 机器学习/深度学习 数据挖掘
转换数据,扭转乾坤!Python转换技巧,让你的数据分析如虎添翼!
【7月更文挑战第19天】Python在数据转换中扮演关键角色,借助Pandas库进行数据清洗,如填充缺失值、处理异常值和转换数据类型。数据重塑通过pivot、melt和groupby提供多维度视图。文本数据通过独热编码或标签编码转化为数值。自定义函数解决复杂转换问题,提升数据分析的深度和准确性。掌握这些技巧,能有效挖掘数据价值,助力决策。
18 4
|
3天前
|
数据采集 数据挖掘 数据处理
数据清洗,不只是清洁!Python教你如何挖掘数据中的隐藏价值!
【7月更文挑战第19天】在数据驱动的世界,数据清洗是揭示企业资产价值的关键。Python的Pandas库助力分析师处理电商平台用户购买数据中的缺失值、格式错误和异常值。通过识别缺失值并填充,统一日期格式,以及用IQR法检测和处理异常值,数据变得有序且适合分析,从而能洞察用户行为模式和市场趋势,释放数据的潜力。数据清洗不仅是预处理,更是价值创造的过程。
17 3
|
2天前
|
数据采集 机器学习/深度学习 数据挖掘
数据也需SPA?Python转换大法,给你的数据做个全身放松SPA!
【7月更文挑战第20天】在Python中,数据SPA涉及理解需求、清洗(如用Pandas去除重复值、填充缺失值)、格式转换(如日期字符串转datetime)及聚合分析(如按年份分组求和)。Pandas库是数据清洗的强大工具,能有效提升数据质量,便于决策和机器学习。通过这些步骤,数据得以优化,准备就绪以应对各种分析挑战。
17 1
|
3天前
|
数据采集 数据挖掘 数据处理
数据转换与聚合,Python的双刃剑!精准切割,深度挖掘,数据世界任你遨游!
【7月更文挑战第19天】Python的Pandas库是数据科学家处理数据的得力工具,它在数据转换和聚合上的功能强大。例如,使用Pandas的`to_datetime`函数能统一日期格式,而`groupby`配合`agg`则可按类别聚合数据,进行统计分析。通过这些方法,可以有效地清洗数据、提取关键信息,助力数据驱动的决策。
|
1天前
|
数据处理 Python
数据变形记:Python转换技巧大公开,轻松玩转数据魔方!
【7月更文挑战第21天】在Python数据处理中,变形单元格是洞察的关键。案例展示了如何处理电商用户购买行为数据:使用Pandas加载CSV,将日期字符串转为日期类型,按用户ID计算总消费,及应用10%折扣计算新价格。这些技巧揭示了数据变形的威力,将原始数据转化为可分析的洞察。
5 0
|
1天前
|
数据采集 机器学习/深度学习 数据挖掘
告别脏乱差!Python数据清洗秘籍,让你的数据比初恋还纯净!
【7月更文挑战第21天】在数据分析与ML中,数据质量决定成败。Python的Pandas助你轻松清洗数据,告别脏乱差!处理缺失值:填充或删除;应对异常值:IQR法过滤;统一数据类型:转换并修正;清除重复记录:一键搞定。掌握这些技巧,让数据纯净如初恋,提升分析效能! ```markdown ### 数据清洗秘籍 - **缺失值**:填充(`fillna`)或删除(`dropna`)。 - **异常值**:IQR识别,过滤异常。 - **数据类型**:转换并处理不一致。 - **重复记录**:`drop_duplicates`清除。 用Python打造纯净数据,分析从此无忧!💖📊 ```
8 0
|
1天前
|
SQL 存储 数据库
数据聚合大揭秘!Python如何一键整合海量信息,洞察数据背后的秘密?
【7月更文挑战第21天】在数据驱动时代,Python以强大库支持,如Pandas与SQLAlchemy,轻松聚合分析海量信息。Pandas简化数据整合,从CSV文件加载数据,利用`pd.concat()`合并,`groupby()`进行聚合分析,揭示销售趋势。SQLAlchemy则无缝链接数据库,执行SQL查询,汇总复杂数据。Python一键操作,开启数据洞察之旅,无论源数据格式,均能深入挖掘价值。
6 0
|
1天前
|
机器学习/深度学习 数据采集 数据挖掘
数据界的整容大师!Python如何让你的数据‘洗心革面’,焕然一新?
【7月更文挑战第21天】在数据科学领域,Python扮演着数据“整容大师”的角色,通过清洗、重塑与特征工程,将原始数据美化成分析佳品。首先,利用Pandas清洗数据,删除或填充缺失值,清除异常值,如同洁面般净化数据。其次,通过数据重塑与格式化,如按年龄分组统计薪资并优雅展示,赋予数据直观可读性,好比化妆塑形。最后,特征工程创造新维度,如年龄分组,提升数据分析价值,这全过程是对数据价值的深度挖掘和精细打磨。