PCA|机器学习|连载

简介: PCA|机器学习|连载

PCA

本文让我们来了解一下机器学习中最常用的一种降维方法PCA。

降维

在我们机器学习所训练的数据中,通常会存在着很多的特征,这也就意味着我们所要处理的数据的维度是很大的,由于维度大的数据处理起来非常困难,各种各样的降维算法也就随之产生了。


所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。


下面我们就来了解一下PCA降维


方差

在了解PCA之前我们先了解一下方差和协方差。


方差我们之前已经接触过了,指的是一组数据中的各个数减去这组数据的平均数的平方和的平均数。


例如我们有一组数据:{1, 2, 3, 4, 5}


可以计算出平均数为:(1+2+3+4+5)/5=3


各个数与平均数差的平方和为:10


方差为:10/5=2


很简单的计算过程我们就能得到一组数据的方差了,更近一步的我们可以说:方差用于测算数值型数据的离散程度。


协方差

我们上面了解了方差用于测算数值型数据的离散程度,这里协方差本质上是用于度量各个维度偏离其均值的程度。


协方差的计算方式如下(以二维为例):

image.png

我们也可以写成如下的形式:

image.png

image.png


我们计算出了协方差的结果后,有三种解释的方式,来看一下:

image.png

image.png

image.png

协方差为0,两个随机变量不一定相互独立,而两个随机变量相互独立,协方差一定为0。


主成分分析(PCA)

Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。


PCA的几个步骤如下:


一、标准化


为了让每一个维度对分析的结果造成同样的影响,我们需要对连续的初始变量的范围作标准化。


具体一点说就是因为我们后续的结果对数据的方差十分敏感,取值范围较大的维度会比相对较小的维度造成更大的影响(例如一个在1-100之间变化的维度对结果的影响,比一个0-1的更大),会导致一个偏差较大的结果,所以,将数据转化到相似的范围可以预防这个问题。


数据标准化的方法如下(其中standard deviation表示标准差):

image.png

二、计算协方差矩阵

这一步是为了理解数据集中的变量是如何从平均值变化过来的,同时可以查看不同的特征之间又有什么关系,此时我们要计算协方差矩阵。


协方差矩阵是一个P*P的对称矩阵(P是维度的数量)它涵盖了数据集中所有元组对初始值的协方差,例如一个拥有三个变量x,y,z和三个维度的数据集,协方差矩阵将是一个3*3的矩阵(协方差的计算方法及含义见上文):

image.png

由于变量与自身的协方差等于他的方差,在主对角线上我们已将计算出了各个变量初始值的方差。协方差矩阵的每一个元组关于主对角线对称,这意味着上三角部分和下三角部分是相等的。


三、计算主成分

主成分是什么?

主成分是一个新的变量,他是初始变量的线性组合。新的变量之间是不相关的,第一个主成分中包含了初始变量的大部分信息,是初始变量的压缩和提取。


例如:虽然在一个 10 维的数据集中我们算出了 10 个主成分,但大部分的信息都会被压缩在第一主成分中,剩下的大部分信息又被压缩到第二主成分中,以此类推,我们得到了下面这张图:


image.png

从理论方面来说,主成分代表着蕴含 最大方差的方向。对于主成分来说,变量的方差越大,空间中点就越分散,空间中的点越分散,那么它包含的信息就越多。简单的讲,主成分就是一条更好的阐述数据信息的新坐标轴,因此我们更容易从中观测到差异。


怎么计算主成分


有多少个变量就有多少个主成分,对于第一主成分来说沿着对应的坐标轴变化意味着有最大的方差,例如用下列的散点图表示:

0.gif

你能直接猜测出主成分应该是沿着哪一个方向吗,大致是图中紫色线的方向。(因为它穿过了原点,而且数据映射在这条线上后,有着最大方差(各点与原点距离的均方))


第二个主成分也是这样计算的,它与第一主成分不相关(即为互相垂直)表示了下一个最大方差的方向。


重复上面的步骤,直到我们从原始数据中计算出所有的主成分。


特征值和特征向量

特征值和特征向量通常成对出现,每一个特征向量对应一个特征值,他们各自的数量相等,等于原始数据的维度,例如有三个变量就会有三个特征向量与三个特征值。


协方差矩阵的特征向量其实就是一些列的坐标轴,将数据映射到这些坐标轴之后,我们将会得到最大的方差(这意味着更多的信息),他们就是我们要求的主成分,特征值其实就是特征向量的系数,它代表了每个特征向量包含了多少信息量。


文末我们再来举例说一下如何计算特征值和特征矩阵。


四、主成分向量

主成分向量仅仅是一个矩阵,里面有我们决定保留的特征向量。这是数据降维的第一步,我们只是要在n个变量中保留p个特征向量(成分)我们把数据映射到新的坐标轴上时,最后数据将只有p个维度。


五、将数据映射到新的主成分坐标系中

我们将使用从协方差矩阵中算出来的特征向量形成主成分矩阵,并将原始数据映射到主成分矩阵对应的坐标轴上 ,这就叫做主成分分析。具体的做法便是用原数据矩阵的转置乘以主成分矩阵的转置。


PCA的流程总结如下:

1)将原始数据按列组成n行m列矩阵X

2)将X的每一行(代表一个属性字段)进行零均值化,即减去这一行的均值

3)求出协方差矩阵

4)求出协方差矩阵的特征值及对应的特征向量

5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P

6)Y=PX即为降维到k维后的数据


特征值和特征矩阵的求解

image.png

image.png

image.png

至此我们的特征值和特征向量就成功的计算出来了,结合上面的内容就是我们PCA要做的事情了。


相关文章
|
7月前
|
机器学习/深度学习 算法 数据可视化
机器学习第11天:降维
机器学习第11天:降维
|
机器学习/深度学习 算法 数据可视化
【机器学习】十大算法之一 “PCA”
PCA(Principal Component Analysis,主成分分析)是一种广泛使用的线性降维算法,在机器学习领域被广泛应用。通俗地说,它是一种通过将高维数据映射到低维数据,保留数据主要特征的方法。在PCA中,数据被投影到一个新的低维抽象空间中,使新的特征集能最大化地解释数据集的方差,我们可以选择保留最大方差的前k个特征值。通常,PCA被用于降维,但它也被用作一种特征提取算法。在本文中,我们介绍了PCA算法的基本原理,讨论了它的应用,以及在Python中如何实现。
1296 0
【机器学习】十大算法之一 “PCA”
|
机器学习/深度学习 数据采集 算法
09 机器学习 - Kmeans聚类算法案例
09 机器学习 - Kmeans聚类算法案例
59 0
|
6月前
|
机器学习/深度学习 数据采集 算法
【机器学习】DBSCAN算法
【机器学习】DBSCAN算法
182 0
【机器学习】DBSCAN算法
|
7月前
|
机器学习/深度学习 算法 数据可视化
机器学习——主成分分析(PCA)
机器学习——主成分分析(PCA)
113 0
|
机器学习/深度学习 数据采集 算法
机器学习——降维算法PCA
机器学习——降维算法PCA
222 0
机器学习——降维算法PCA
|
机器学习/深度学习 算法 Python
12 机器学习 - KNN实现手写数字识别
12 机器学习 - KNN实现手写数字识别
174 0
|
机器学习/深度学习 算法 数据挖掘
瞎聊机器学习——DBSCAN算法
瞎聊机器学习——DBSCAN算法
|
机器学习/深度学习
|
机器学习/深度学习 数据采集 算法
机器学习:(PCA)主成分分析法及应用(spss)
机器学习:(PCA)主成分分析法及应用(spss)
587 0
机器学习:(PCA)主成分分析法及应用(spss)
下一篇
DataWorks