机器学习入门|降维(一)(MIDS,PCA,KPCA)

简介: 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的原因,在周志华《机器学习》中用最近邻分类器给了一个解释——数据集需要满足密采样条件,以及高维计算下会有很多麻烦,甚至在尾数特别高的时候连计算内积都变的复杂,这种计算阻碍称为“维数灾难”。

机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的原因,在周志华《机器学习》中用最近邻分类器给了一个解释——数据集需要满足密采样条件,以及高维计算下会有很多麻烦,甚至在尾数特别高的时候连计算内积都变的复杂,这种计算阻碍称为“维数灾难”。其他的原因还有过滤噪音等。

多维缩放(MIDS)

假设样本数m($X\in \mathbb{R}^{d*m}$),样本间的距离矩阵$D\in \mathbb{R}^{m*m}$,其第i行第j列的元素为$dist_{ij}$是$x_{i}$到$x_{j}$的距离

这里降维的目标是得到样本在$d'\leq d$的$d'$维空间里的表示:$Z\in \mathbb{R}^{d'*m}$且任意两个样本之间的欧氏距离不变。即($||z_{i}-z_{j}||=dist_{ij}$)

令内积矩阵$B=Z^{T}Z\in \mathbb{R}^{m*m}$,$b_{ij}=z_{i}^{T}z_{j}$有

$$ dist_{ij}^{2}=||z_{i}||^{2}+||z_{j}||^{2}-2z_{i}^{T}z_{j} $$

$$ =b_{ii}+b_{jj}-2b_{ij} $$

为便于计算,令Z被中心化,即质心在原点,则$\sum_{i=1}^{m}z_{i}=0$,则:

$$ \sum_{i=1}^{m}dist_{ij}^{2}=\sum_{i=1}^{m}b_{ii}+mb_{jj}-2\sum_{i=1}^{m}b_{ij} $$

$$ =tr(B)+mb_{jj} $$

$$ \sum_{j=1}^{m}dist_{ij}^{2}=tr(B)+mb_{ii} $$

$$ \sum_{i=1}^{m}\sum_{j=1}^{m}dist_{ij}^{2}=m tr(B)+m\sum_{j=1}^{m}b_{jj}=2m\ tr(B) $$

$$ dist_{i.}^{2}=\frac{1}{m}\sum_{i=1}^{m}dist_{ij}^{2} $$

$$ dist_{.j}^{2}=\frac{1}{m}\sum_{j=1}^{m}dist_{ij}^{2} $$

$$ dist_{..}^{2}=\frac{1}{m^{2}}\sum_{i=1}^{m}\sum_{j=1}^{m}dist_{ij}^{2} $$

则可以由上式得:

$$ b_{ij}=-\frac{1}{2}(dist_{ij}^{2}-dist_{i.}^{2}-dist_{.j}^{2}+dist_{..}^{2}) $$

由此就可以在保持样本距离矩阵不变并求出内积矩阵B。

接下来求矩阵Z:

可以把B特征值分解为$B=V\Lambda V^{T},\Lambda =diag(\lambda_{1},\lambda_{2},...,\lambda_{d} )$(这是写到现在为止学了线代唯一还记得的:))

特征值按从大到小排序,令$ \tilde{\Lambda}=diag(\lambda_{1},\lambda_{2},...,\lambda_{d'} ) $,因为降维后往往距离与原始距离尽可能接近,不必严格相等,所以只需取最大的$d'$个特征即可。而Z即可表达为:

$$ Z= \tilde{\Lambda}^{\frac{1}{2}}\tilde{V}^{T}\in \mathbb{R}^{d'*m} $$

求出Z矩阵后,MIDS也就结束了。如果Z满足$Z=W^{T}X,W\in\mathbb{R}^{d*d'}$,则此变换为线性变换。

主成分分析(PCA)

将d维的样本降维至d’维,相当于用一个d'维超平面让所有人样本点投影到这个超平面上。而为了使这个超平面尽可能完整的表达样本点的性质,被削减的维度部分的偏离程度必然要尽可能的小。

两个性质:

  • 最近重构性:样本点到这个超平面的距离尽可能近
  • 最大可分性:样本点在在这个超平面上的投影尽可能展开(方差尽可能大)

从这两个性质出发,都可以推导出同样的结果,从最大可分性出发:
$z_{i}=Wx_{i}$,则为了方差最大化,求:

$$ \underset{W}{max} \ \sum_{i}z_{i}z_{i}^{T}=max \sum_{i}W^{T}x_{i}x_{i}^{T}W $$

则,优化目标可以写成:

$$ \underset{W}{max} \ tr(W^{T}XX_{T}W) $$

因为不关心W大小,只关心超平面的方向,故默认W为单位矩阵
运用拉格朗日乘数法,得到

$$ XX^{T}\omega_{i}=\lambda_{i}\omega_{i} $$

最后,对协方差矩阵$XX^{T}$进行特征值分解,即可得到d'个按大小排序的特征值$\lambda_{1},...,\lambda_{d'}$以及对应的特征向量$W^{*}=(\omega_{1},...,\omega_{d'})$也就是主成分分析的解。

降维的个数由使用者决定。

多维缩放和主成分分析看上去方法还挺相似的,都是保留最大的d'个特征值,那么矩阵的秩也变为d',势必会舍弃一部分信息来做到降维,而这部分微量信息也往往和噪声有关,它们的舍弃一定程度上能达到去躁的效果。

李政轩老师的PCA和KPCA讲解视频,非常详细易懂http://www.powercam.cc/slide/6553
核化PCA(KPCA)
假设$z_{i}$是样本点$x_{i}$在高维空间的像,即通过映射$\phi$,即$z_{i}=phi(x_{i}),i=1,2,...,m$。

则由上述结果可得,新的式子为

$$ ZZ^{T}\omega_{i}=\lambda_{i}\omega_{i} $$

可得

$$ \omega_{j}=\frac{1}{\lambda_{j}}\left(\sum_{i=1}^{m}z_{i}z_{i}^{T}\right)\omega_{j}=\sum_{i=1}^{m}z_{i}\frac{z_{i}^{T}\omega_{j}}{\lambda_{j}} $$

$$ =\sum_{i=1}^{m}z_{i}\alpha_{i}^{j} $$

其中$\alpha_{i}^{j}=\frac{1}{\lambda_{j}}z_{i}^{T}\omega_{j}$
因为不清楚$\phi$的具体形式,于是引入核函数:

$$ \kappa(x_{i},x_{j})=\phi(x_{i})^{T}\phi(x_{j}) $$

由上式可以得到

$$ K\alpha^{j}=\lambda_{j}\alpha^{j} $$

$K$为$\kappa$对应的核矩阵

同样,这也是特征值分解问题,解出最大的d'个特征值对应的特征向量即可。

个人更推荐观看李政轩的讲解视频,推导过程也更为清晰,这里的过程是参考周志华《机器学习》的,矩阵的行列关系没有细说,看起来容易似懂不懂。

目录
相关文章
|
2月前
|
机器学习/深度学习 数据采集 算法
深入了解机器学习:从入门到应用
【10月更文挑战第6天】深入了解机器学习:从入门到应用
|
18天前
|
机器学习/深度学习 数据采集
机器学习入门——使用Scikit-Learn构建分类器
机器学习入门——使用Scikit-Learn构建分类器
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI的奥秘:机器学习入门指南
【10月更文挑战第30天】本篇文章是一份初学者友好的机器学习入门指南,旨在帮助读者理解并开始实践机器学习。我们将介绍机器学习的基本概念,包括监督学习、无监督学习和强化学习等。我们还将提供一些实用的代码示例,以帮助读者更好地理解和应用这些概念。无论你是编程新手,还是有一定经验的开发者,这篇文章都将为你提供一个清晰的机器学习入门路径。
37 2
|
1月前
|
机器学习/深度学习 人工智能 算法
机器学习基础:使用Python和Scikit-learn入门
机器学习基础:使用Python和Scikit-learn入门
34 1
|
21天前
|
机器学习/深度学习 数据采集 人工智能
机器学习入门:Python与scikit-learn实战
机器学习入门:Python与scikit-learn实战
34 0
|
23天前
|
机器学习/深度学习 算法 Python
机器学习入门:理解并实现K-近邻算法
机器学习入门:理解并实现K-近邻算法
31 0
|
2月前
|
机器学习/深度学习 人工智能 算法
机器学习基础:使用Python和Scikit-learn入门
【10月更文挑战第12天】本文介绍了如何使用Python和Scikit-learn进行机器学习的基础知识和入门实践。首先概述了机器学习的基本概念,包括监督学习、无监督学习和强化学习。接着详细讲解了Python和Scikit-learn的安装、数据处理、模型训练和评估等步骤,并提供了代码示例。通过本文,读者可以掌握机器学习的基本流程,并为深入学习打下坚实基础。
24 1
|
2月前
|
机器学习/深度学习 人工智能 算法
机器学习基础:使用Python和Scikit-learn入门
本文介绍了如何使用Python和Scikit-learn进行机器学习的基础知识和实践。首先概述了机器学习的基本概念,包括监督学习、无监督学习和强化学习。接着详细讲解了Python和Scikit-learn的安装、数据处理、模型选择与训练、模型评估及交叉验证等关键步骤。通过本文,初学者可以快速上手并掌握机器学习的基本技能。
64 2
|
2月前
|
机器学习/深度学习 人工智能 数据挖掘
机器学习基础:使用Python和Scikit-learn入门
【10月更文挑战第6天】在人工智能领域,机器学习已成为核心技术。本文指导初学者使用Python与Scikit-learn入门机器学习,涵盖基本概念、环境搭建、数据处理、模型训练及评估等环节。Python因简洁性及其生态系统成为首选语言,而Scikit-learn则提供了丰富工具,简化数据挖掘与分析流程。通过实践示例,帮助读者快速掌握基础知识,为进一步深入研究奠定坚实基础。
32 4
|
2月前
|
机器学习/深度学习 自然语言处理 前端开发
前端大模型入门:Transformer.js 和 Xenova-引领浏览器端的机器学习变革
除了调用API接口使用Transformer技术,你是否想过在浏览器中运行大模型?Xenova团队推出的Transformer.js,基于JavaScript,让开发者能在浏览器中本地加载和执行预训练模型,无需依赖服务器。该库利用WebAssembly和WebGPU技术,大幅提升性能,尤其适合隐私保护、离线应用和低延迟交互场景。无论是NLP任务还是实时文本生成,Transformer.js都提供了强大支持,成为构建浏览器AI应用的核心工具。
558 1