十四、大间距分类器-SVM

简介: 十四、大间距分类器-SVM

1、支持向量机-Support Vector Machine


首先从逻辑回归的成本函数入手说起:

60cd130a9f6946048411e7479208def4.png


使用一个线性近似 cost1(z)来近似表示逻辑回归中成本函数的第一项;使用线性近似 cost0(z)来近似表示逻辑回归成本函数中的第二项。


之后在SVM中,将成本函数中的常数项  1/m去掉,并用参数C来替代归一化参数 λ:


8fe6f3b6648a4c12b1c77f5bbb06e5ac.png


SVM成本函数估计的最终方式如下所示:

bd9fea4df9b54c129d009362dc4b2200.png


fe4f333c678f46899040ce1c313ed2d6.png




2、大间距分类器



当使用SVM作为分类成本函数时,最终获得的分类边界距离各个样本点的距离会比较大,从而可以得到一个较大的分类间距(margin),使得分类器的鲁棒性更高。

d3703259474f45e0b50d07c76fad0519.png

若将上述成本函数中的系数C设置为一个极大的数字(如10000),所以上述最小化成本函数可以通过求解下述约束优化问题得到:

b8621be511a249939739a83c7134eee6.png


最终得到的分类边界如下图黑色分类边界所示:

387aa4b14b034c1cb7b93ef8a9c450a8.png



3、SVM决策的理论依据

e8ea6126eb65454194194045a7de1a53.png


4、核函数(kernals)

e34b3ccd037b4fee922061139b10190c.png

如上图所示,当使用非线性决策边界进行分类时,通常需要将假设函数取较高的幂,但是假设函数中特征取值方法很难确定。所以可以使用核函数方法,通过取“landmark”的方式,根据新特征跟“landmark”之间的相似程度来确定新的特征,每一个确定下来的“landmark”都代表一个新的特征。


866347f034674b4a8c848ac4d5b37b15.png

"landmark"和某个样本( x 1 , x 2 x_1,x_2 x1,x2)之间的相似度(高斯核函数)的计算方法如下所示:


25d7bb26571e4422ba68dcd61f7f8916.png

当样本和“landmark”之前距离很近时,则  f1的取值约等于0,说明取到的样本和“landmark”之间相似度很高;当样本和“landmark”之间的距离很远时,则  f1的取值约等于0,说明取到的样本和“landmark”之间的相似度很低。


核函数和相似度公式中的x和 σ 之间的关系如下图所示:

e8be111965e34b66b393189d830a7d7f.png


当确定了“landmark”的位置和 σ 的取值之后,便可以使用 f1,f2,f3作为新的特征来定义假设函数:


c19b85f06b7c495084da61ecfa323490.png



4.1如何选择“landmarks”


在使用SVM时,“landmark”的数量即为选取的训练数据集中样本的数量,即训练数据中每一个样本点都代表一个“landmark”,即对应一个特征。


fc44387f74f642ca849791211ea29f5e.png

SVM模型过拟合合欠拟合与参数取值的关系:

07f74d15b36b4e5f9ec5f40d9c0db3a3.png

4.2 如何使用SVM


根据特征数量和训练样本数量的多少,选择使用逻辑回归或者SVM的细节如下所示:


ae3adcb8c7684c4cbb0b51354aa7d2b3.png













相关文章
|
2月前
|
机器学习/深度学习 算法
【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
支持向量机(SVM)的介绍,包括其基本概念、与逻辑回归(LR)和决策树(DT)的直观和理论对比,如何选择这些算法,SVM为何采用间隔最大化,求解SVM时为何转换为对偶问题,核函数的引入原因,以及SVM对缺失数据的敏感性。
59 3
|
5月前
|
计算机视觉
【YOLOv8改进】Shape-IoU:考虑边框形状与尺度的指标(论文笔记+引入代码)
YOLO目标检测专栏探讨了边框回归损失的创新方法,强调了目标形状和尺度对结果的影响。提出的新方法Shape-IoU关注边框自身属性,通过聚焦形状和尺度提高回归精度。实验显示,该方法提升了检测效果,超越现有技术,在多个任务中达到SOTA。论文和代码已公开。
|
5月前
|
计算机视觉
【YOLOv8改进】Inner-IoU: 基于辅助边框的IoU损失(论文笔记+引入代码)
YOLO目标检测专栏探讨了IoU损失的局限性,并提出创新改进。分析发现,不同尺度的辅助边框对高IoU和低IoU样本的回归有不同影响。因此,提出了Inner-IoU Loss,利用尺度因子ratio控制辅助边框大小以优化损失计算。实验验证了该方法能提升检测效果,增强泛化能力。创新点包括根据样本特性选择辅助边框尺度和Inner-IoU Loss的设计。更多详情见YOLO目标检测创新改进与实战案例专栏。
|
5月前
|
机器学习/深度学习 算法 数据可视化
样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
|
5月前
|
机器学习/深度学习 算法 数据可视化
R语言样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
R语言样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化
|
5月前
R语言中使用线性模型、回归决策树自动组合特征因子水平
R语言中使用线性模型、回归决策树自动组合特征因子水平
|
5月前
|
机器学习/深度学习 XML 编解码
ENVI实现最小距离法、最大似然法、支持向量机遥感图像监督分类与分类后处理操作
ENVI实现最小距离法、最大似然法、支持向量机遥感图像监督分类与分类后处理操作
245 1
|
5月前
|
机器学习/深度学习 文字识别 算法
[Halcon&图像] 基于多层神经网络MLP分类器的思想提取颜色区域
[Halcon&图像] 基于多层神经网络MLP分类器的思想提取颜色区域
127 0
|
机器学习/深度学习 算法 数据挖掘
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
|
机器学习/深度学习 存储 算法
最邻近规则分类 KNN (K-Nearest Neighbor)算法及python实现
最邻近规则分类 KNN (K-Nearest Neighbor)算法及python实现
123 0
下一篇
无影云桌面