降维是一种减少特征空间维度以获得稳定的、统计上可靠的机器学习模型的技术。降维主要有两种途径:特征选择和特征变换。
特征选择通过选择重要程度最高的若干特征,移除共性的或者重要程度较低的特征。
特征转换也称为特征提取,试图将高维数据投影到低维空间。一些特征转换技术有主成分分析(PCA)、矩阵分解、自动编码器(Autoencoders)、t-Sne、UMAP等。
本文主要介绍了主成分分析以及自动编码器两种方法,具体分析两者的优缺点,并且通过一个生动的示例进行详解。
主成分分析
主成分分析是一种无监督技术,将原始数据投影到若干高方差方向(维度)。这些高方差方向彼此正交,因此投影数据的相关性非常低或几乎接近于 0。这些特征转换是线性的,具体方法是:
步骤一:计算相关矩阵数据,相关矩阵的大小为 n*n。
步骤二:计算矩阵的特征向量和特征值。
步骤三:选取特征值较高的 k 个特征向量作为主方向。
步骤四:将原始数据集投影到这 k 个特征向量方向,得到 k 维数据,其中 k≤n。
自动编码器
自动编码器是一种无监督的人工神经网络,它将数据压缩到较低的维数,然后重新构造输入。自动编码器通过消除重要特征上的噪声和冗余,找到数据在较低维度的表征。它基于编解码结构,编码器将高维数据编码到低维,解码器接收低维数据并尝试重建原始高维数据。
自动编码器基本结构示意图
深层自动编码器结构示意图
上图中, X 是输入数据,z 是 X 在低维空间的数据表征,X' 是重构得到的数据。根据激活函数的不同,数据从高纬度到低纬度的映射可以是线性的,也可以是非线性的。
性能对比:主成分分析 VS 自动编码器
- PCA 只能做线性变换;而自动编码器既可以做线性变换,也可以做非线性变换。
- 由于既有的 PCA 算法是十分成熟的,所以计算很快;而自动编码器需要通过梯度下降算法进行训练,所以需要花费更长的时间。
- PCA 将数据投影到若干正交的方向;而自动编码器降维后数据维度并不一定是正交的。
- PCA 是输入空间向最大变化方向的简单线性变换;而自动编码器是一种更复杂的技术,可以对相对复杂的非线性关系进行建模。
- 依据经验来看,PCA 适用于数据量较小的场景;而自动编码器可以用于复杂的大型数据集。
- PCA 唯一的超参数是正交向量的数量;而自动编码器的超参数则是神经网络的结构参数。
- 单层的并且采用线性函数作为激活函数的自动编码器与 PCA 性能一致;但是多层的以非线性函数作为激活函数的自动编码器(深度自动编码器)能够具有很好的性能,虽然可能会存在过拟合,但是可以通过正则化等方式进行解决。


