核方法|机器学习推导系列(八)

简介: 核方法|机器学习推导系列(八)

一、线性不可分问题


有时线性可分的数据夹杂一点噪声,可以通过改进算法来实现分类,比如感知机的口袋算法和支持向量机的软间隔。但是有时候数据往往完全不是线性可分的,比如下面这种情况:


YB`1B2B}_YGGJ~(KKAU5N1W.png

                                                XOR问题


QBH$(MX5`{5G0BDPZW}{YRO.png

XQ1LPRWXJ7CG2QD2_VF6H1A.png


然后在新的空间中,该数据就可以实现线性可分:


XPT(JG@UCCH(M$DF4N2PE1Z.png

                                                          XOR问题


二、核方法的引出


映射到高维空间以后出现的问题是计算复杂度的加大,例如在支持向量机的求解过程中求解的优化问题可以转换为如下的优化问题:


{5RE$TP23H03WX0Q3BTBMLJ.png


将数据映射到高维空间后也就需要求解以下优化问题:


NLLPPRUW[JJ0T}C7_(X~PC3.png


将数据拓展到高维的方法可以用来解决完全非线性的问题:


]QB97I6J]IT@%NS7LEBO802.png

O]PLGH[R9QXCC8T4IP)RN04.png

8E%J}CLNF319JHOIR~_6PG5.png


Hilbert空间定义中的完备指的是对极限是封闭的,被赋予内积代表空间中的元素满足以下性质:


8M[YY]Q2}EILH}CAZ2@@@WL.png


因为支持向量机的求解只用到内积运算,所以使用核函数会大大简化运算量。


三、正定核函数的证明


正定核函数还有另外一个定义:


$W`~]~%S0$2FKEG55$QBKDV.png


这个定义也就是正定核函数的充要条件,其中两条性质分别指的是:


MOF6V(OR5R[P3KSGK3JGRMD.png

04S4CWN@6[2{BJB35PMC7ZU.png


然后证明


N01JM15BU`%5S5CM`~8M9N0.png


得证。


说明一下证明矩阵半正定的两种方法:


K7`VC%)46_24NE3[MMDB})A.png

相关文章
|
机器学习/深度学习
受限玻尔兹曼机|机器学习推导系列(二十五)
受限玻尔兹曼机|机器学习推导系列(二十五)
677 0
受限玻尔兹曼机|机器学习推导系列(二十五)
|
机器学习/深度学习 人工智能 移动开发
【机器学习】线性分类——高斯判别分析GDA(理论+图解+公式推导)
【机器学习】线性分类——高斯判别分析GDA(理论+图解+公式推导)
285 0
【机器学习】线性分类——高斯判别分析GDA(理论+图解+公式推导)
|
机器学习/深度学习 人工智能 算法
【机器学习】线性分类——线性判别分析LDA(理论+图解+公式推导)
【机器学习】线性分类——线性判别分析LDA(理论+图解+公式推导)
186 0
【机器学习】线性分类——线性判别分析LDA(理论+图解+公式推导)
|
机器学习/深度学习 算法 数据挖掘
100天搞定机器学习|day44 k均值聚类数学推导与python实现
100天搞定机器学习|day44 k均值聚类数学推导与python实现
100天搞定机器学习|day44 k均值聚类数学推导与python实现
|
机器学习/深度学习 算法
100天搞定机器学习|day38 反向传播算法推导
100天搞定机器学习|day38 反向传播算法推导
100天搞定机器学习|day38 反向传播算法推导
|
机器学习/深度学习 算法
Sigmoid信念网络|机器学习推导系列(二十八)
Sigmoid信念网络|机器学习推导系列(二十八)
217 0
Sigmoid信念网络|机器学习推导系列(二十八)
|
机器学习/深度学习 算法
近似推断|机器学习推导系列(二十七)
近似推断|机器学习推导系列(二十七)
120 0
近似推断|机器学习推导系列(二十七)
|
机器学习/深度学习 算法
配分函数|机器学习推导系列(二十六)
配分函数|机器学习推导系列(二十六)
229 0
配分函数|机器学习推导系列(二十六)
|
机器学习/深度学习
高斯过程回归|机器学习推导系列(二十四)
高斯过程回归|机器学习推导系列(二十四)
459 0
高斯过程回归|机器学习推导系列(二十四)
|
机器学习/深度学习
贝叶斯线性回归|机器学习推导系列(二十三)
贝叶斯线性回归|机器学习推导系列(二十三)
279 0
贝叶斯线性回归|机器学习推导系列(二十三)