利用R语言进行聚类分析实战(数据+代码+可视化+详细分析)

简介: 利用R语言进行聚类分析实战(数据+代码+可视化+详细分析)

1 研究目的

  对来源于Frank and Asuncion (2010)胎心宫缩监护(cardiotocography, CTG) 数据(CTG.xls)分别使用最短距离法、最长距离法、类平均法、重心法、离差平方和法(Ward.D、Ward.D2)、K-means法进行按样本聚类和按变量聚类。

2 数据背景

  胎心宫缩监护(cardiotocography, CTG) 数据(CTG.xls)。这组数据来源于Frank and Asuncion (2010)。该数据有2129 个观测值及23个变量,包含了致命心律(fetal heart rate, FHR)的各种度量以及基于监护记录的由专家分类的宫缩(uterine contraction, UC) 特征.这些变量的情况列示于下表. 表中最后三个分类变量的水平为:Tendency(FHR 直方图的趋势)有三个水平 (-1 = 左不对称, 0=对称, 1= 右不对称);CLASS(FHR 分类代码) 用1~10 表示从平静睡眠到可疑10种活动状况;NSP(胎儿状态分类代码) 有三个水平(1= 正常, 2= 疑似, 3= 病态)。删去3 个有不少缺失值的观测值, 形成新的数据文件ctg.naomit.csv。舍弃第23 个变量NSP, 用前面22个变量进行聚类分析。

  根据数据文件显示:NSP共有三个水平(1= 正常, 2= 疑似, 3= 病态),故本文聚类过程中共分为三类。

3 案例演示

3.1 读取数据

  运行程序:

data<-read.csv("G:\\ctg.naomit.csv")                 #数据读取
data1<-data[c(1:2126),c(1:22)]                                       #选取数据

3.2 按样本聚类

3.2.1 最短距离法

  运行程序:

library(MASS)                            #加载包
data2=scale(data1)                       #标准化
D=dist(data2)                            #计算距离
plot(hclust(D,"single"))                 #最短距离法绘制树状聚类图
hc=hclust(D,"single")                    #计算新类与当前各类距离
head(data.frame(hc$merge,hc$height))     #显示前六行数据

  运行结果:

##     X1   X2 hc.height
## 1  -68  -69         0
## 2 -230 -788         0
## 3 -234 -235         0
## 4 -305 -307         0
## 5 -324 -325         0
## 6 -327 -334         0

  运行程序:

rect.hclust(hclust(D,"single"),3)        #加三分类框

  运行结果:

图1 最短距离法树状聚类图

3.2.2 最长距离法

  运行程序:

hc=hclust(D,"complete")                  #计算新类与当前各类距离
head(data.frame(hc$merge,hc$height))     #显示前六行数据

  运行结果:

##     X1   X2 hc.height
## 1  -68  -69         0
## 2 -230 -788         0
## 3 -234 -235         0
## 4 -305 -307         0
## 5 -324 -325         0
## 6 -327 -334         0

  运行程序:

plot(hc)                                 #绘制树状聚类图
rect.hclust(hc,3)                        #加三分类框

  运行结果:

图2 最长距离法树状聚类图

3.2.3 中间距离法

  运行程序:

hc=hclust(D,"median")                    #计算新类与当前各类距离
head(data.frame(hc$merge,hc$height))     #显示前六行数据

  运行结果:

##     X1   X2 hc.height
## 1  -68  -69         0
## 2 -230 -788         0
## 3 -234 -235         0
## 4 -305 -307         0
## 5 -324 -325         0
## 6 -327 -334         0

  运行程序:

plot(hc)                                 #绘制树状聚类图
rect.hclust(hc,3)                        #加三分类框

  运行结果:

图3 中间距离法树状聚类图

3.2.4 类平均法

  运行程序:

hc=hclust(D,"average")                   #计算新类与当前各类距离
head(data.frame(hc$merge,hc$height))     #显示前六行数据

  运行结果:

##     X1   X2 hc.height
## 1  -68  -69         0
## 2 -230 -788         0
## 3 -234 -235         0
## 4 -305 -307         0
## 5 -324 -325         0
## 6 -327 -334         0

  运行程序:

plot(hc)                                 #绘制树状聚类图
rect.hclust(hc,3)                        #加三分类框

  运行结果:

图4 类平均法树状聚类图

3.2.5 重心法

  运行程序:

hc=hclust(D,"centroid")                  #计算新类与当前各类距离
head(data.frame(hc$merge,hc$height))     #显示前六行数据

  运行结果:

##     X1   X2 hc.height
## 1  -68  -69         0
## 2 -230 -788         0
## 3 -234 -235         0
## 4 -305 -307         0
## 5 -324 -325         0
## 6 -327 -334         0

  运行程序:

plot(hc)                                 #绘制树状聚类图
rect.hclust(hc,3)                        #加三分类框

  运行结果:

图5 重心法树状聚类图

3.2.6 离差平方和法

1.ward.D法

  运行程序:

plot(hclust(D,"ward.D"))                 #绘制树状聚类图
rect.hclust(hclust(D,"ward.D"),3)        #加三分类框

  运行结果:

图6 Ward.D法树状聚类图

2.ward.D2法

  运行程序:

plot(hclust(D,"ward.D2"))                #离差平方和
rect.hclust(hclust(D,"ward.D2"),3)       #加三分类框

  运行结果:

图7 Ward.D2法树状聚类图

3.2.7 K-means快速聚类法

  由于K-means聚类法不适用于分类属性变量的聚类,故选取前20个变量进行K-means聚类。

  运行程序:

km=kmeans(data2[,1:20],3)    
plot(data2,pch=km$cluster,col=km$cluster)

  运行结果:

图8 Kmeans法树状聚类图

3.2.8 样本聚类总结

  首先选取数据前22个变量的样本数据,为消除量纲的影响对数据进行标准化;再对样本分别进行最短距离、最长距离、中间距离、类平均、重心、离差平方和、Kmean法进行样本聚类,但由于样本量较大,导致数据显示结果较为混乱,从不同的系统聚类法中可以看出离差平方和法相较于其他系统聚类方法进行聚类结果分类更为明显。在K-mean快速聚类法中,由于K-mean聚类对分类属性的数据不适用,所以考虑去除变量Tendency、CLASS,然后进行K-mean快速聚类,将3类结果以不同颜色和形状呈现,具有较强观赏性。

3.3 按变量聚类

3.3.1 最短距离法

  运行程序:

d=data.frame(cor(data2))                   #计算各变量相似系数
D1=as.dist(d)                              #计算各变量距离     
hc1=hclust(D1,method = "single")           #最短距离法
plot(hc1)                          
rect.hclust(hc1,3)                         #加三分类框

  运行结果:

图9 最短距离法树状聚类图

3.3.2 最长距离法绘制树状聚类图

  运行程序:

hc1=hclust(D1,method = "complete")         #最长距离法
plot(hc1)                          
rect.hclust(hc1,3)                         #加三分类框

  运行结果:

图10 最长距离法树状聚类图

3.3.3 中间距离法

  运行程序:

hc1=hclust(D1,method = "median")           #中间距离法
plot(hc1)                          
rect.hclust(hc1,3)                         #加三分类框

  运行结果:

图11 中间距离法树状聚类图

3.3.4 类平均法

  运行程序:

hc1=hclust(D1,method = "average")          #类平均法
plot(hc1)                          
rect.hclust(hc1,3)                         #加三分类框

  运行结果:

图12 类平均法树状聚类图

3.3.5 重心法

  运行程序:

hc1=hclust(D1,method = "centroid")          #重心法
plot(hc1)                          
rect.hclust(hc1,3)                          #加三分类框

  运行结果:

图13 重心法树状聚类图

3.3.6 离差平方和法

1.ward.D法

  运行程序:

hc1=hclust(D1,method = "centroid")          #重心法
plot(hc1)                          
rect.hclust(hc1,3)                          #加三分类框

  运行结果:

图14 Ward.D法树状聚类图

2.ward.D2法

  运行程序:

hc1=hclust(D1,method = "ward.D2")          #Ward.D2法
plot(hc1)                          
rect.hclust(hc1,3)                         #加三分类框

  运行结果:

图15 Ward.D2法树状聚类图

3.3.7 K-means快速聚类法

  运行程序:

pm<-kmeans(d,3)                #分三类
pm$clusterkm=kmeans(data2[,1:20],3)    
plot(data2,pch=km$cluster,col=km$cluster)

  运行结果:

##       LB       AC       FM       UC       DL       DS       DP     ASTV 
##        3        2        1        2        2        1        2        1 
##     MSTV     ALTV     MLTV    Width      Min      Max     Nmax   Nzeros 
##        2        1        1        2        3        2        2        2 
##     Mode     Mean   Median Variance Tendency    CLASS 
##        3        3        3        2        1        1

3.3.8 变量聚类总结

  首先计算22个变量的相似系数并求出其相似聚类,分别利用最短距离、最长距离、中间距离、类平均、重心、离差平方和、Kmean法进行变量聚类,不同方法聚类结果如表1所示,结合图9—图15能较为直观地看出变量聚类情况。

表1 对变量聚类汇总结果


相关文章
|
2月前
|
数据采集 机器学习/深度学习 数据可视化
R语言从数据到决策:R语言在商业分析中的实践
【9月更文挑战第1天】R语言在商业分析中的应用广泛而深入,从数据收集、预处理、分析到预测模型构建和决策支持,R语言都提供了强大的工具和功能。通过学习和掌握R语言在商业分析中的实践应用,我们可以更好地利用数据驱动企业决策,提升企业的竞争力和盈利能力。未来,随着大数据和人工智能技术的不断发展,R语言在商业分析领域的应用将更加广泛和深入,为企业带来更多的机遇和挑战。
|
8天前
|
数据挖掘 C语言 C++
R语言是一种强大的统计分析工具,提供了丰富的函数和包用于时间序列分析。
【10月更文挑战第21天】时间序列分析是一种重要的数据分析方法,广泛应用于经济学、金融学、气象学、生态学等领域。R语言是一种强大的统计分析工具,提供了丰富的函数和包用于时间序列分析。本文将介绍使用R语言进行时间序列分析的基本概念、方法和实例,帮助读者掌握R语言在时间序列分析中的应用。
27 3
|
2月前
R语言基于表格文件的数据绘制具有多个系列的柱状图与直方图
【9月更文挑战第9天】在R语言中,利用`ggplot2`包可绘制多系列柱状图与直方图。首先读取数据文件`data.csv`,加载`ggplot2`包后,使用`ggplot`函数指定轴与填充颜色,并通过`geom_bar`或`geom_histogram`绘图。参数如`stat`, `position`, `alpha`等可根据需要调整,实现不同系列的图表展示。
|
6月前
|
数据可视化 数据挖掘 API
【R语言实战】聚类分析及可视化
【R语言实战】聚类分析及可视化
|
6月前
|
机器学习/深度学习 数据可视化
R语言逻辑回归logistic模型ROC曲线可视化分析2例:麻醉剂用量影响、汽车购买行为2
R语言逻辑回归logistic模型ROC曲线可视化分析2例:麻醉剂用量影响、汽车购买行为
|
2月前
|
数据采集 数据可视化 数据挖掘
R语言在金融数据分析中的深度应用:探索数据背后的市场智慧
【9月更文挑战第1天】R语言在金融数据分析中展现出了强大的功能和广泛的应用前景。通过丰富的数据处理函数、强大的统计分析功能和优秀的可视化效果,R语言能够帮助金融机构深入挖掘数据价值,洞察市场动态。未来,随着金融数据的不断积累和技术的不断进步,R语言在金融数据分析中的应用将更加广泛和深入。
|
3月前
|
机器学习/深度学习 数据采集 数据可视化
R语言在数据科学中的应用实例:探索与预测分析
【8月更文挑战第31天】通过上述实例,我们展示了R语言在数据科学中的强大应用。从数据准备、探索、预处理到建模与预测,R语言提供了完整的解决方案和丰富的工具集。当然,数据科学远不止于此,随着技术的不断发展和业务需求的不断变化,我们需要不断学习和探索新的方法和工具,以更好地应对挑战,挖掘数据的潜在价值。 未来,随着大数据和人工智能技术的普及,R语言在数据科学领域的应用将更加广泛和深入。我们期待看到更多创新的应用实例,为各行各业的发展注入新的动力。
|
3月前
|
数据采集 存储 数据可视化
R语言时间序列分析:处理与建模时间序列数据的深度探索
【8月更文挑战第31天】R语言作为一款功能强大的数据分析工具,为处理时间序列数据提供了丰富的函数和包。从数据读取、预处理、建模到可视化,R语言都提供了灵活且强大的解决方案。然而,时间序列数据的处理和分析是一个复杂的过程,需要结合具体的应用场景和需求来选择合适的方法和模型。希望本文能为读者在R语言中进行时间序列分析提供一些有益的参考和启示。
|
3月前
|
资源调度 数据挖掘
R语言回归分析:线性回归模型的构建与评估
【8月更文挑战第31天】线性回归模型是统计分析中一种重要且实用的工具,能够帮助我们理解和预测自变量与因变量之间的线性关系。在R语言中,我们可以轻松地构建和评估线性回归模型,从而对数据背后的关系进行深入的探索和分析。
|
3月前
|
机器学习/深度学习 数据采集
R语言逻辑回归、GAM、LDA、KNN、PCA主成分分类分析预测房价及交叉验证
上述介绍仅为简要概述,每个模型在实施时都需要仔细调整与优化。为了实现高度精确的预测,模型选择与调参是至关重要的步骤,并且交叉验证是提升模型稳健性的有效途径。在真实世界的房价预测问题中,可能还需要结合地域经济、市场趋势等宏观因素进行综合分析。
67 3