【机器学习】SVM中的弱对偶性证明

简介: 【机器学习】SVM中的弱对偶性证明

2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善机器学习各个知识体系的文章,帮助大家更高效学习。


概述

我们在讲解约束优化问题中经过拉格朗日乘子法获得了优化函数:

m i n x m a x λ , η L ( x , λ , η ) min_xmax_{\lambda,\eta}L(x,\lambda,\eta)minxmaxλ,ηL(x,λ,η)

s . t . λ i ≥ 0 s.t.\quad \lambda_i\geq0s.t.λi0

我们可以经过转化将上面的优化函数转换成:

m a x λ , η m i n x L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)

这是利用了对偶关系,如果要完全转换需要满足强对偶关系,本文先证明弱对偶关系:

即:

m a x λ , η m i n x L ( x , λ , η ) ≤ m i n x m a x λ , η L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)\leq min_xmax_{\lambda,\eta}L(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)minxmaxλ,ηL(x,λ,η)

强对偶就是只满足等号。

那么这个式子怎么理解呢?

举个例子:专科学校中的学霸要弱于清华中的菜鸡,是不是很通俗易懂。

那么怎么通过数学进行证明上面的不等式呢?

m i n x L ( x , λ , η ) ≤ L ( x , λ , η ) ≤ m a x λ , η L ( x , λ , η ) min_xL(x,\lambda,\eta)\leq L(x,\lambda,\eta) \leq max_{\lambda,\eta}L(x,\lambda,\eta)minxL(x,λ,η)L(x,λ,η)maxλ,ηL(x,λ,η)

上面的等式显然是成立的。

为了表达方便我们另:

m i n x L ( x , λ , η ) = A ( λ , η ) min_xL(x,\lambda,\eta)=A(\lambda,\eta)minxL(x,λ,η)=A(λ,η)

m a x λ , η = B ( x ) max_{\lambda,\eta}=B(x)maxλ,η=B(x)

这里解释一下,因为 m i n x L ( x , λ , η ) min_xL(x,\lambda,\eta)minxL(x,λ,η) 的意思是当x取一定值的时候的最小值,所以最终的式子是关于 λ , η \lambda,\etaλ,η 的等式,B ( x ) B(x)B(x) 与之对应。

所以此时满足:

A ( λ , η ) ≤ B ( x ) A(\lambda,\eta)\leq B(x)A(λ,η)B(x)

我们知道,如果要满足这个不等式就要满足A的最大值小于B的最小值才能使该式永远成立,所以有:

m a x A ( λ , η ) ≤ m i n B ( x ) maxA(\lambda,\eta)\leq minB(x)maxA(λ,η)minB(x)

即:

m a x λ , η m i n x L ( x , λ , η ) ≤ m i n x m a x λ , η L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)\leq min_xmax_{\lambda,\eta}L(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)minxmaxλ,ηL(x,λ,η)

目录
相关文章
|
7月前
|
机器学习/深度学习 算法
【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
支持向量机(SVM)的介绍,包括其基本概念、与逻辑回归(LR)和决策树(DT)的直观和理论对比,如何选择这些算法,SVM为何采用间隔最大化,求解SVM时为何转换为对偶问题,核函数的引入原因,以及SVM对缺失数据的敏感性。
130 3
|
7月前
|
机器学习/深度学习 算法
【机器学习】解释对偶的概念及SVM中的对偶算法?(面试回答)
解释了对偶的概念,指出对偶性在优化问题中的重要性,尤其是在强对偶性成立时可以提供主问题的最优下界,并且详细阐述了支持向量机(SVM)中对偶算法的应用,包括如何将原始的最大间隔优化问题转换为对偶问题来求解。
141 2
|
机器学习/深度学习 自然语言处理 算法
23 机器学习 - 证明SVM(下)
23 机器学习 - 证明SVM(下)
74 0
|
机器学习/深度学习 算法 数据挖掘
23 机器学习 - 证明SVM(上)
23 机器学习 - 证明SVM(上)
86 1
|
机器学习/深度学习 算法
经典机器学习系列(六)【集成学习】之周志华西瓜书-AdaBoost算法证明解析
经典机器学习系列(六)【集成学习】之周志华西瓜书-AdaBoost算法证明解析
189 0
|
机器学习/深度学习 算法 数据挖掘
机器学习:感知机+代码实现(原始+对偶形式)
机器学习:感知机+代码实现(原始+对偶形式)
395 0
机器学习:感知机+代码实现(原始+对偶形式)
|
机器学习/深度学习 人工智能
【机器学习】SVM中的约束优化问题证明
【机器学习】SVM中的约束优化问题证明
178 0
【机器学习】SVM中的约束优化问题证明
|
机器学习/深度学习 人工智能 算法
【机器学习】支持向量机(SVM)——硬间隔+对偶+KKT条件+拉格朗日乘子(理论+图解+公式推导)
【机器学习】支持向量机(SVM)——硬间隔+对偶+KKT条件+拉格朗日乘子(理论+图解+公式推导)
369 0
【机器学习】支持向量机(SVM)——硬间隔+对偶+KKT条件+拉格朗日乘子(理论+图解+公式推导)
|
机器学习/深度学习
深入浅出机器学习技法(二):对偶支持向量机(DSVM)
上节课我们主要介绍了线性支持向量机(Linear Support Vector Machine)。
217 0
深入浅出机器学习技法(二):对偶支持向量机(DSVM)
|
机器学习/深度学习 TensorFlow 算法框架/工具
【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题
为了理解对偶性,你首先得理解拉格朗日乘子法。它基本思想是将一个有约束优化问题转化为一个无约束优化问题,其方法是将约束条件移动到目标函数中去。让我们看一个简单的例子,例如要找到合适的 x 和 y 使得函数 最小化,且其约束条件是一个等式约束。

热门文章

最新文章