Python、R对小说进行文本挖掘和层次聚类可视化分析案例

简介: Python、R对小说进行文本挖掘和层次聚类可视化分析案例

《第二十二条军规》是美国作家约瑟夫·海勒创作的长篇小说,该小说以第二次世界大战为背景,通过对驻扎在地中海一个名叫皮亚诺扎岛(此岛为作者所虚构)上的美国空军飞行大队所发生的一系列事件的描写,揭示了一个非理性的、无秩序的、梦魇似的荒诞世界。我喜欢整本书中语言的创造性使用和荒谬人物的互动。本文对该小说进行文本挖掘和可视化。

 

数据集

该文有大约175,000个单词,分为42章。我在网上找到了这本书的原始文本版本。

我使用正则表达式和简单字符串匹配的组合在Python中解析文本。

我shiny在R中以交互方式可视化这些数据集。

地理图



geo<- catch22[( geo$Time > chapters[1]) & ( geo$Time < (chapters[2] + 1)),]paths_sub <-  paths[( paths$time > chapters[1]) & ( paths$time < (chapters[2] + 1)),]
# 绘图p <- ggplot() + borders("world", colour="black", fill="lightyellow") +ylab(NULL) + xlab(NULL) +# 仅在有条件的情况下尝试绘制位置和路径if (nrow( geo_sub) != 0) {p + geom_point(data= geo_sub, aes(x = Lon, y = Lat), size=3, colour='red') +geom_point(data= paths_sub[1,], aes(x = lon, y = lat), size=3, colour='red') +geom_path(data= paths_sub, aes(x = lon, y = lat, alpha=alpha), size=.7,

可视化映射了整本书中提到的地中海周围位置。

人物章节关系



ggplot(catch22, aes(x=Chapter, y=Character, colour=cols)) +geom_point(size=size, shape='|', alpha=0.8) +scale_x_continuous(limits=c(chapters[1],(chapters[2] + 1)), expand=c(0,0), breaks=(1:42)+0.5, labels=labs) +ylab(NULL) + xlab('Chapter') +theme(axis.text.x = element_text(colour = "black", angle = 45, hjust = 1, vjust=1.03),axis.text.y = element_text(colour = "black"),axis.title.x = element_text(vjust=5),plot.title = element_text(vjust=1)) +

该图基本上代表了书中提到不同人物的序列。

我将数据绘制为标准散点图,章节为x轴(因为它与时间相似),人物为离散y轴。

 

人物共现矩阵



ggplot(coloca, aes(x=Character, y=variable, alpha=alpha)) +geom_tile(aes(fill=factor(cluster)), colour='white') +ylab(NULL) + xlab(NULL) +theme(axis.text.x = element_text(colour = "black", angle = 45, hjust = 1, vjust=1.03),axis.text.y = element_text(colour = "black"),axis.ticks.y = element_blank(),axis.ticks.x = element_blank(),panel.grid.minor = element_line(colour = "white", size = 1),panel.grid.major = element_blank()) +scale_fill_manual(values = cols, guide = FALSE) +scale_alpha_continuous(guide = FALSE)

用于构建此可视化的数据与前一个中使用的数据完全相同,但需要进行大量的转换。

聚类为此图添加了另一个维度。在整本书上应用层次聚类,以尝试在角色中找到社群。使用AGNES算法对字符进行聚类。对不同聚类方案进行人工检查发现最优聚类,因为更频繁出现的角色占主导地位最少。这是六个簇的树形图:



ag <- agnes(cat2[,-1], method="complete", stand=F)# 从树状图中切出聚类cluster <- cutree(ag, k=clusters)

应该注意,聚类是在整个文本上执行的,而不是章节。按聚类排序会将角色带入紧密的社区,让观众也可以看到角色之间的某些交互。

特色词


ggplot( pos2, aes(Chapter, normed, colour=Word, fill=Word)) +
scale_color_brewer(type='qual', palette='Set1', guide = FALSE) +
scale_fill_brewer(type='qual', palette='Set1') +
scale_y_continuous(limits=c(0,y_max), expand=c(0,0)) +
ylab('Relative Word Frequency') + xlab('Chapter') +

堆叠条形图更好地显示了单词所在的章节。

 

结论

我在这个过程中学到了很多东西,无论是在使用方面,还是在shiny。

相关文章
|
2月前
|
存储 分布式计算 大数据
基于Python大数据的的电商用户行为分析系统
本系统基于Django、Scrapy与Hadoop技术,构建电商用户行为分析平台。通过爬取与处理海量用户数据,实现行为追踪、偏好分析与个性化推荐,助力企业提升营销精准度与用户体验,推动电商智能化发展。
|
3月前
|
缓存 供应链 监控
1688item_search_factory - 按关键字搜索工厂数据接口深度分析及 Python 实现
item_search_factory接口专为B2B电商供应链优化设计,支持通过关键词精准检索工厂信息,涵盖资质、产能、地理位置等核心数据,助力企业高效开发货源、分析产业集群与评估供应商。
|
3月前
|
缓存 监控 算法
item_get - Lazada 商品详情详情接口深度分析及 Python 实现
Lazada商品详情接口item_get可获取商品全维度数据,包括价格、库存、SKU、促销及卖家信息,支持东南亚六国站点,适用于竞品监控、定价策略与市场分析,助力跨境卖家精准决策。
|
3月前
|
缓存 监控 算法
唯品会item_search - 按关键字搜索 VIP 商品接口深度分析及 Python 实现
唯品会item_search接口支持通过关键词、分类、价格等条件检索商品,广泛应用于电商数据分析、竞品监控与市场调研。结合Python可实现搜索、分析、可视化及数据导出,助力精准决策。
|
2月前
|
机器学习/深度学习 大数据 关系型数据库
基于python大数据的台风灾害分析及预测系统
针对台风灾害预警滞后、精度不足等问题,本研究基于Python与大数据技术,构建多源数据融合的台风预测系统。利用机器学习提升路径与强度预测准确率,结合Django框架实现动态可视化与实时预警,为防灾决策提供科学支持,显著提高应急响应效率,具有重要社会经济价值。
|
2月前
|
机器学习/深度学习 大数据 关系型数据库
基于python大数据的青少年网络使用情况分析及预测系统
本研究基于Python大数据技术,构建青少年网络行为分析系统,旨在破解现有防沉迷模式下用户画像模糊、预警滞后等难题。通过整合多平台亿级数据,运用机器学习实现精准行为预测与实时干预,推动数字治理向“数据驱动”转型,为家庭、学校及政府提供科学决策支持,助力青少年健康上网。
|
2月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例

推荐镜像

更多