艺术与文本的交织:基于Python的jieba和wordcloud库实现华丽词云

简介: 艺术与文本的交织:基于Python的jieba和wordcloud库实现华丽词云

基于Python的jieba和wordcloud库实现华丽词云制作

效果展示:

准备工作:

安装jieba库和wordcloud库

jieba和wordcloud是两个在自然语言处理和数据可视化领域非常常用的Python库。

jieba库:

jieba是一个优秀的中文分词工具,它能够将一段中文文本切分成一个一个的词语。jieba库提供了多种分词模式和功能,包括精确模式、全模式、搜索引擎模式等。使用jieba库可以帮助你更好地处理中文文本,进行文本分析和挖掘。

wordcloud库:

wordcloud是一个用于生成词云图的库。词云图是以词语的重要性或频率为基础,通过字体大小和颜色的不同来展示词语的热度。wordcloud库可以根据给定的文本数据生成漂亮的词云图,使得文本中的关键词能够直观地展现出来。你可以自定义词云的形状、颜色、字体等参数。

这两个库结合起来,你可以使用jieba库对文本进行分词处理,然后利用wordcloud库生成词云图,从而实现对文本数据的可视化展示和分析。这对于文本挖掘、情感分析、舆情监控等任务非常有用。

修改源:

如果安装卡在最后阶段,安装不了,可使用这个修改源

pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple

将上面的代码中的numpy改为jieba、wordcloud即可在终端命令行安装!

完整代码:

示例1:

import jieba
import wordcloud
f = open("文案.txt", "r", encoding="utf-8")
 
t = f.read()
f.close()
ls = jieba.lcut(t)
 
txt = " ".join(ls)
w = wordcloud.WordCloud( \
    width = 1000, height = 700,\
    background_color = "white",
    font_path = "msyh.ttc"
    )
w.generate(txt)
w.to_file("grwordcloud.png")

在目录下我们需要准备好一个.txt文本文件,内容自拟,博主这里准备了九十个词汇

运行成功,如果有警告可以忽视

这是我们可以查看我们目录下生成的wordcloud图片文件

效果图

如果已经存在同名文件,则会覆盖原图片文件

示例2:

import jieba
import wordcloud
from matplotlib.pyplot import imread
 
# 读取词云形状的图片,这里使用了一个名为 "chinamap.jpg" 的图片作为词云形状
mask = imread("chinamap.jpg")
 
# 定义排除词语的集合,但是当前代码中未使用到该集合
excludes = {}
 
# 打开文案文件 "文案.txt",并读取其中的内容
f = open("文案.txt", "r", encoding="utf-8")
t = f.read()
f.close()
 
# 使用jieba分词将文本内容分词
ls = jieba.lcut(t)
 
# 将分词结果转换成以空格分隔的字符串
txt = " ".join(ls)
 
# 创建词云对象,并设置词云的参数,包括宽度、高度、背景颜色、字体路径和形状等
w = wordcloud.WordCloud(\
    width=1000, height=700,\
    background_color="white",
    font_path="msyh.ttc", mask=mask
)
 
# 根据分词结果生成词云图
w.generate(txt)
 
# 将生成的词云图保存为图片文件 "grwordcloud1.png"
w.to_file("grwordcloud1.png")

这里博主提前准备了两个用于做词语的底图chinamap.jpg和hand_heart_gesture.jpg的文件

运行成功,生成新文件:

效果图1:


修改文件路径

效果图2:

这段代码首先导入了jieba用于中文分词和wordcloud用于生成词云图的库,以及imread函数从matplotlib.pyplot模块用于读取图片。然后通过imread函数读取了一个图片文件作为词云的形状。接着定义了一个空集合excludes,但在当前代码中并未使用到。然后打开了一个名为"文案.txt"的文本文件,并读取其中的内容。使用jieba对文本内容进行分词,然后将分词结果转换成以空格分隔的字符串。接下来创建了一个词云对象w,设置了词云的参数,包括宽度、高度、背景颜色、字体路径和词云形状等。最后根据分词结果生成词云图,并将生成的词云图保存为图片文件"grwordcloud。

希望对你有帮助!加油!

若您认为本文内容有益,请不吝赐予赞同并订阅,以便持续接收有价值的信息。衷心感谢您的关注和支持!

目录
相关文章
|
2天前
|
机器学习/深度学习 自然语言处理 TensorFlow
使用Python实现深度学习模型:语言模型与文本生成
使用Python实现深度学习模型:语言模型与文本生成
30 5
|
2天前
|
机器学习/深度学习 自然语言处理 数据挖掘
使用Python和大模型进行数据分析和文本生成
Python语言以其简洁和强大的特性,成为了数据科学、机器学习和人工智能开发的首选语言之一。随着大模型(Large Language Models, LLMs)如GPT-4的崛起,我们能够利用这些模型实现诸多复杂任务,从文本生成到智能对话、数据分析等等。在这篇文章中,我将介绍如何用Python连接和使用大模型,并通过示例展示如何在实际项目中应用这些技术。
|
3天前
|
搜索推荐 Python Windows
python中对于wordcloud词云生成报错提示的解决
通过搜索印象错误信息:ValueError:Only supported for TrueType fonts,几乎大部分人给出的选项都是让你指定TrueType fonts路径,或者新下载TTF字体,并重新指定,但是这两种解决方案并无法解决报错。 在真正解决问题之前,先来介绍几个与之相关的知识点,对于有经验的人,这样的知识点完全是“小菜”,但是对于初学者,这种知识点就是因为缺少相关实践而无从下手,无从搜索引擎。
|
3天前
|
数据采集 自然语言处理 数据可视化
拿来及用的Python词云图代码 | wordcloud生成词云详解
词云也叫文字云,是一种可视化的结果呈现,常用在爬虫数据分析中,原理就是统计文本中高频出现的词,过滤掉某些干扰词,将结果生成一张图片,直观的获取数据的重点信息。今天,我们就来学习一下Python生成词云的常用库wordcloud。
|
1天前
|
Python
Python正则表达式详解:掌握文本匹配的魔法
Python正则表达式详解:掌握文本匹配的魔法
|
1天前
|
Linux 数据处理 C语言
经验大分享:python3使用libpcap库进行抓包及数据处理
经验大分享:python3使用libpcap库进行抓包及数据处理
|
1天前
|
Python
python re 正则表达式库的使用
python re 正则表达式库的使用
3 0
|
2天前
|
前端开发 JavaScript PHP
顶级Python库(附代码)大分享
顶级Python库(附代码)大分享
|
2天前
|
Python
python之数值计算、math库、随机数
python之数值计算、math库、随机数
7 0
|
5天前
|
机器学习/深度学习 人工智能 前端开发
Python中的模块化编程
【6月更文挑战第17天】Python模块化编程与软件架构设计的关键在于拆分任务到独立模块,提高代码的可维护性、可重用性和可扩展性。例如,学生管理系统可分解为录入、查询和删除模块。MVC和MVVM架构模式有助于组织代码,而微服务和函数式编程将在未来发展中扮演重要角色。通过示例代码,读者能学习如何实现这些概念,提升项目开发效率和质量。
153 57

热门文章

最新文章