数据挖掘学习05 - 使用R对文本进行hierarchical cluster并验证结果

简介:

本文目的

最近一直在使用R进行hcluster计算,主要采用了一些R自带的距离公式和cophenetic距离验证聚类的质量。其中R自带的hclust方法不支持cosine函数,如果需要下载R的扩展,要下载许多关联的库,所以自己编写了一个简单的cosine函数,并且使用了R的proxy扩展(距离计算框架),计算向量距离。内容涉及比较多,所以记录一下,作为备忘。


采用R计算hclust

步骤一:准备数据。采用read.table函数,读取外部文件,实验文件这里下载

1
2
cd  = read .table( "d:/cluster_data.txt" , header = TRUE);
attributes( cd );

截图如下:

Image

cd是一个特征举证,每一行是文档的id和此文档的特征向量,代表一个文本,列代表的是词语,这里用wN代替。

 

步骤二:计算文本之间的距离矩阵。距离矩阵用作度量聚类之间的相近程度。常用的距离公式有欧式距离,manhattan距离。计算方法如下:

1
2
cds = dist( cd , method= "euclidean" )
attributes(cds)

截图如下:

image

 

步骤三:计算层级聚类。常用的聚类方式有三种,single,complete和average。

  • single: 两个聚类之间最近的点作为聚类的距离
  • complete:两个聚类之间最远的点作为聚类的距离
  • average:将聚类中的所有向量之和的平局向量作为聚类中心点,中心点最近的聚合成一类。

averge聚类的效果介于single和complte之间,如下面命令,

1
2
cave = hclust(cds, method= "average" )
plot(cave,hang=-1)

下面聚类后的依赖树:

image

 

步骤四:验证聚类。层级聚类采用cophenetic distance用于度量聚类的效果(具体什么是cophenetic disctance可以参见Introduction to Data Mining by Pang-Ning Tan & Michael Steinbach & Vipin Kumar: Chapter 8.5.4)。R提供了此函数的实现,所以可以直接调用cophenetic函数验证结果,此函数值是介于-1~1之间,越大,说明聚类效果越好。命令如下,

1
2
cop = cophenetic(cave)
cor(cop, cds)

结果如下:

image


采用余弦定理cosine计算文本之间的距离

余弦定理可以计算文本向量的相似度,吴军先生的数学之美系列描述过此应用。但是,上面提到的dist方法不知此余弦公式。尝试过使用其他扩展中的相关实现,但是无法直接使用。最后找到一个解决方案,使用R扩展库proxy提供的dist计算框架,然后加入加入自己的cosine的简单实现,如果添加R扩展,可以参见这里。自定义cosine函数如下:

1
2
3
4
5
6
7
8
cosine = function (a,b) {
      len = (sqrt(a %*% a)*sqrt(b %*% b));
      if  (len == 0) {
           0;
      } else  {
           (a %*% b) /len ;
      }
}

(是不是写法有点像JS)

定义好cosine后,加载proxy库,

1
library(proxy)

image

计算距离方法与上面一样,只是method的值为cosine,如下

1
cds = dist(t,method= "cosine" )

注意,一定要加引号,否则调用的是sine。计算聚类的方式与上面一样,这里不再重复。


所有距离方法和聚类方法的测试脚本

1
2
3
4
5
6
7
8
9
10
11
12
13
disFunc = c( "euclidean" , "maximum" , "manhattan"  , "canberra" , "binary" , "minkowski" );
#disFunc = c("euclidean", "cosine");
cluFunc = c( "complete" ,     "single" , "average" , "ward" , "mcquitty" , "median" , "centroid" );
qc = read .table( "d:/cluster_data.txt" , header = TRUE);
for  (dis in  disFunc) {
      for  (clu in  cluFunc) {
           qcDis = dist(qc, method=dis);
           c = hclust(qcDis, method=clu);
           cop = cophenetic(c);
           r = cor(cop,qcDis);
           print( paste (dis, clu, r, sep= " " ));
      }
}

运行结果如下:

image


实验总结

实验过程中,发现距离公司相同的情况下,average的评测结果一般是最好的。不同距离公式的同一种聚类方式没有比较意义,比如即使euclidean的average方式比manhattan的average的验证结果低,但是并不意味前者的聚类结果比后者差,因为聚类评测都是根据统一中方法的距离公司计算相关系数,所以没有比较性。



相关资料

声明:如有转载本博文章,请注明出处。您的支持是我的动力!文章部分内容来自互联网,本人不负任何法律责任。
本文转自bourneli博客园博客,原文链接:http://www.cnblogs.com/bourneli/archive/2012/10/30/2746996.html,如需转载请自行联系原作者
相关文章
|
机器学习/深度学习 算法 数据可视化
数据挖掘(1)--基础知识学习
数据挖掘(Data Mining,DM)是知识发现(KDD)最核心的部分。 数据挖掘数学理论基础的发展,与统计学的发展密不可分。
136 0
|
机器学习/深度学习 Ubuntu 前端开发
数据挖掘基础学习一:VMware虚拟机Ubuntu上安装Python和IPython Notebook(Jupyter Notebook)完整步骤及需要注意的问题(以ubuntu-18.04.3为例)
数据挖掘基础学习一:VMware虚拟机Ubuntu上安装Python和IPython Notebook(Jupyter Notebook)完整步骤及需要注意的问题(以ubuntu-18.04.3为例)
930 0
数据挖掘基础学习一:VMware虚拟机Ubuntu上安装Python和IPython Notebook(Jupyter Notebook)完整步骤及需要注意的问题(以ubuntu-18.04.3为例)
|
机器学习/深度学习 算法 数据挖掘
【数据挖掘】神经网络简介 ( 有向图本质 | 拓扑结构 | 连接方式 | 学习规则 | 分类 | 深度学习 | 机器学习 )(二)
【数据挖掘】神经网络简介 ( 有向图本质 | 拓扑结构 | 连接方式 | 学习规则 | 分类 | 深度学习 | 机器学习 )(二)
268 0
|
机器学习/深度学习 物联网 数据挖掘
【数据挖掘】神经网络简介 ( 有向图本质 | 拓扑结构 | 连接方式 | 学习规则 | 分类 | 深度学习 | 机器学习 )(一)
【数据挖掘】神经网络简介 ( 有向图本质 | 拓扑结构 | 连接方式 | 学习规则 | 分类 | 深度学习 | 机器学习 )(一)
760 0
|
机器学习/深度学习 人工智能 运维
【数据挖掘】数据挖掘简介 ( 6 个常用功能 | 数据挖掘结果判断 | 数据挖掘学习框架 | 数据挖掘分类 )
【数据挖掘】数据挖掘简介 ( 6 个常用功能 | 数据挖掘结果判断 | 数据挖掘学习框架 | 数据挖掘分类 )
796 0
|
机器学习/深度学习 人工智能 算法

热门文章

最新文章

下一篇
无影云桌面