【机器学习】SVM中的弱对偶性证明

简介: 【机器学习】SVM中的弱对偶性证明

2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善机器学习各个知识体系的文章,帮助大家更高效学习。


概述

我们在讲解约束优化问题中经过拉格朗日乘子法获得了优化函数:

m i n x m a x λ , η L ( x , λ , η ) min_xmax_{\lambda,\eta}L(x,\lambda,\eta)minxmaxλ,ηL(x,λ,η)

s . t . λ i ≥ 0 s.t.\quad \lambda_i\geq0s.t.λi0

我们可以经过转化将上面的优化函数转换成:

m a x λ , η m i n x L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)

这是利用了对偶关系,如果要完全转换需要满足强对偶关系,本文先证明弱对偶关系:

即:

m a x λ , η m i n x L ( x , λ , η ) ≤ m i n x m a x λ , η L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)\leq min_xmax_{\lambda,\eta}L(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)minxmaxλ,ηL(x,λ,η)

强对偶就是只满足等号。

那么这个式子怎么理解呢?

举个例子:专科学校中的学霸要弱于清华中的菜鸡,是不是很通俗易懂。

那么怎么通过数学进行证明上面的不等式呢?

m i n x L ( x , λ , η ) ≤ L ( x , λ , η ) ≤ m a x λ , η L ( x , λ , η ) min_xL(x,\lambda,\eta)\leq L(x,\lambda,\eta) \leq max_{\lambda,\eta}L(x,\lambda,\eta)minxL(x,λ,η)L(x,λ,η)maxλ,ηL(x,λ,η)

上面的等式显然是成立的。

为了表达方便我们另:

m i n x L ( x , λ , η ) = A ( λ , η ) min_xL(x,\lambda,\eta)=A(\lambda,\eta)minxL(x,λ,η)=A(λ,η)

m a x λ , η = B ( x ) max_{\lambda,\eta}=B(x)maxλ,η=B(x)

这里解释一下,因为 m i n x L ( x , λ , η ) min_xL(x,\lambda,\eta)minxL(x,λ,η) 的意思是当x取一定值的时候的最小值,所以最终的式子是关于 λ , η \lambda,\etaλ,η 的等式,B ( x ) B(x)B(x) 与之对应。

所以此时满足:

A ( λ , η ) ≤ B ( x ) A(\lambda,\eta)\leq B(x)A(λ,η)B(x)

我们知道,如果要满足这个不等式就要满足A的最大值小于B的最小值才能使该式永远成立,所以有:

m a x A ( λ , η ) ≤ m i n B ( x ) maxA(\lambda,\eta)\leq minB(x)maxA(λ,η)minB(x)

即:

m a x λ , η m i n x L ( x , λ , η ) ≤ m i n x m a x λ , η L ( x , λ , η ) max_{\lambda,\eta}min_xL(x,\lambda,\eta)\leq min_xmax_{\lambda,\eta}L(x,\lambda,\eta)maxλ,ηminxL(x,λ,η)minxmaxλ,ηL(x,λ,η)

目录
相关文章
|
机器学习/深度学习 数据采集 算法
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【5月更文挑战第27天】在数据科学和人工智能的领域中,支持向量机(SVM)是一种强大的监督学习模型,它基于统计学习理论中的VC维理论和结构风险最小化原理。本文将详细介绍SVM的工作原理、核心概念以及如何在实际问题中应用该算法进行分类和回归分析。我们还将讨论SVM面临的挑战以及如何通过调整参数和核技巧来优化模型性能。
|
机器学习/深度学习 算法
【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
支持向量机(SVM)的介绍,包括其基本概念、与逻辑回归(LR)和决策树(DT)的直观和理论对比,如何选择这些算法,SVM为何采用间隔最大化,求解SVM时为何转换为对偶问题,核函数的引入原因,以及SVM对缺失数据的敏感性。
361 3
|
机器学习/深度学习 运维 算法
深入探索机器学习中的支持向量机(SVM)算法:原理、应用与Python代码示例全面解析
【8月更文挑战第6天】在机器学习领域,支持向量机(SVM)犹如璀璨明珠。它是一种强大的监督学习算法,在分类、回归及异常检测中表现出色。SVM通过在高维空间寻找最大间隔超平面来分隔不同类别的数据,提升模型泛化能力。为处理非线性问题,引入了核函数将数据映射到高维空间。SVM在文本分类、图像识别等多个领域有广泛应用,展现出高度灵活性和适应性。
603 2
|
机器学习/深度学习 算法
【机器学习】解释对偶的概念及SVM中的对偶算法?(面试回答)
解释了对偶的概念,指出对偶性在优化问题中的重要性,尤其是在强对偶性成立时可以提供主问题的最优下界,并且详细阐述了支持向量机(SVM)中对偶算法的应用,包括如何将原始的最大间隔优化问题转换为对偶问题来求解。
410 2
|
机器学习/深度学习 算法
【机器学习】支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择(面试回答)?
文章对支持向量机(SVM)、逻辑回归(LR)和决策树(DT)进行了直观和理论上的对比,并提供了在选择这些算法时的考虑因素,包括模型复杂度、损失函数、数据量需求、对缺失值的敏感度等。
475 1
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【5月更文挑战第6天】在数据科学和人工智能的广阔天地中,支持向量机(SVM)以其强大的分类能力与理论深度成为机器学习领域中的一个闪亮的星。本文将深入探讨SVM的核心原理、关键特性以及实际应用案例,为读者提供一个清晰的视角来理解这一高级算法,并展示如何利用SVM解决实际问题。
323 7
|
机器学习/深度学习 数据采集 算法
深入理解并应用机器学习算法:支持向量机(SVM)
【5月更文挑战第13天】支持向量机(SVM)是监督学习中的强分类算法,用于文本分类、图像识别等领域。它寻找超平面最大化间隔,支持向量是离超平面最近的样本点。SVM通过核函数处理非线性数据,软间隔和正则化避免过拟合。应用步骤包括数据预处理、选择核函数、训练模型、评估性能及应用预测。优点是高效、鲁棒和泛化能力强,但对参数敏感、不适合大规模数据集且对缺失数据敏感。理解SVM原理有助于优化实际问题的解决方案。
1174 3
|
机器学习/深度学习 数据采集 算法
【Python机器学习专栏】支持向量机(SVM)在Python中的实践
【4月更文挑战第30天】SVM是一种高效的监督学习算法,适用于分类和回归,尤其擅长处理高维和非线性问题。通过寻找最大边际超平面来分隔数据,SVM具有高效性、鲁棒性、灵活性和稀疏性等特点。
597 1
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【4月更文挑战第28天】 在数据科学和人工智能的世界中,支持向量机(SVM)以其强大的分类能力而著称。本文将深入探讨SVM的数学原理、关键概念以及实际应用案例。我们将通过直观的解释和示例来揭示SVM如何找到最优决策边界,以及如何通过核技巧处理非线性可分问题。此外,我们还将讨论SVM在现实世界问题中的效能及其局限性。

热门文章

最新文章