约束优化问题|机器学习推导系列(六)

简介: 约束优化问题|机器学习推导系列(六)

一、简介


约束优化问题的原问题(Primal Problem)的一般形式如下:


(%TQ~55U4VIJC2O1LWKK~Z2.png


求解约束优化问题需要用到拉格朗日乘子法,定义拉格朗日函数:


P0[57$I[TABU7EKU[2@IX~J.png


然后原问题可以转化为以下优化问题,这两个优化问题具有同样的解:


`C%W_8%QA7}TS9$OHWB9[UR.png


可以说明一下为什么上述约束优化问题可以求得原问题的最优解:


P~{OVBP94BKT3YX2WA~8(SW.png


也就是说虽然拉格朗日函数对M82{4DRA1(}0}K]0Y8GAINW.png没有约束,但是在求解过程中会过滤掉不符合原问题M82{4DRA1(}0}K]0Y8GAINW.png的约束的M82{4DRA1(}0}K]0Y8GAINW.png


二、对偶关系证明


原问题的对偶问题为


CULD{3T_~57HXC%S7_UI$SH.png


可以看到原问题是关于@VFD1%6O9)_2I9B@MWU3EZU.png的函数,对偶问题是关于OZG$QLR80ECDBDGR(]9ON%W.png的函数。有如下定理:


O20~DNRUE5}~04N_~%`%_K1.png


这个关系可以简单地得到证明:


YO~RRN56Y2@2OYNX$2WU0QJ.png


三、对偶性的几何解释


I%$$F5S$~(~5MSC~FU~G}HN.png


对于上述约束优化问题,可以写出它的拉格朗日函数:


30E%%MY]AT(A[][()1ZNQQ4.png


然后表示出原问题和对偶问题的最优解@YHUFX8FNGVEZBDS~$CBG2R.png

VM[_SN)2_JWPUAEHN32XQJA.png


接着定义集合G:


C`LPWU7D]W14F))`8FJ}2@6.png


集合G在二维坐标系下表示的空间假设为下图:


I(2EGIIFFWG}SD21OKBOE8R.png


因此P`VH})BV]]}@E_OA}N_P`4M.png可以表示为:

UC(O]_$O}YP}L_]03N@57CN.png

P`VH})BV]]}@E_OA}N_P`4M.png在图中可以表示为:

H5@IC@$QJR7VM`DEOJ~)RUA.png

                                               p*


NVSDJ5}HZ1LQ755BIE)@IPQ.png

P}L%R{TT~`VV9CU)Y83}71Q.png

FFBV815D@9161B3$VW81[8T.png

_8C`@$XO(7WQPTOXVA67R79.png

                                         g(λ)


S4HUI_A0B_EV(%SLU[UJ]2L.png

在某些特殊情况下可以使得强对偶关系成立,在图中表示如下:


O~JLHPF8Y$7@A%G(%F[`}%T.png

                                                   强对偶关系


H(]Y$79_}4`PXZ~HGEAC]W6.png

841QSEH$RLCWWUM__@RB1GA.png

({`(]T@P3CBU8]_IG0PN3_4.png

四、Slater条件

BV6@BL74CHF@{YOPJ`(SU%H.png

R6H2YA3KS9(U_Y``G82]_`E.png


有以下两点说明:


①对于大多数凸优化问题,Slater条件是成立的;


②放松的Slater条件:5E}AW3HMW59SBCMMG3UNQ8M.png中的仿射函数可以不用验证。因为在定义域内寻找一个满足所有FKHW(`UV0[KS_[3WG8VZ~~X.png的点是比较困难的,因此放松的Slater条件会减少一些复杂度。


五、KKT条件


对于原问题:


3IPP%W$T6L3]]P]TP38T[MP.png


以及其对偶问题:


R{]{LL2BT9@CCZ1XRHIDMU5.png


如果原问题和对偶问题满足强对偶关系,则原问题和对偶问题具有相同的最优解,另外它们还天然地满足KKT条件(Karush-Kuhn-Tucker条件)。假设原问题最优解`K}S`Y7(A04V9_OX0F`[]VX.png,对偶问题最优解对应4AR2]_B@W633J3W$DU)BFA2.png ,则KKT条件为:

F{MYTHT7CY$0L88DVFF`DJG.png


可以进行以下证明:


`)@8SDX0O~$I483TB_VHG7U.png

相关文章
|
11月前
|
机器学习/深度学习 数据采集 数据挖掘
实战派教学:掌握Scikit-learn,轻松实现数据分析与机器学习模型优化!
【10月更文挑战第4天】Scikit-learn凭借高效、易用及全面性成为数据科学领域的首选工具,简化了数据预处理、模型训练与评估流程,并提供丰富算法库。本文通过实战教学,详细介绍Scikit-learn的基础入门、数据预处理、模型选择与训练、评估及调优等关键步骤,助你快速掌握并优化数据分析与机器学习模型。从环境搭建到参数调优,每一步都配有示例代码,便于理解和实践。
312 2
|
2月前
|
机器学习/深度学习 SQL 运维
数据库出问题还靠猜?教你一招用机器学习优化运维,稳得一批!
数据库出问题还靠猜?教你一招用机器学习优化运维,稳得一批!
90 4
|
2月前
|
机器学习/深度学习 分布式计算 Java
Java 大视界 -- Java 大数据机器学习模型在遥感图像土地利用分类中的优化与应用(199)
本文探讨了Java大数据与机器学习模型在遥感图像土地利用分类中的优化与应用。面对传统方法效率低、精度差的问题,结合Hadoop、Spark与深度学习框架,实现了高效、精准的分类。通过实际案例展示了Java在数据处理、模型融合与参数调优中的强大能力,推动遥感图像分类迈向新高度。
|
2月前
|
机器学习/深度学习 存储 Java
Java 大视界 -- Java 大数据机器学习模型在游戏用户行为分析与游戏平衡优化中的应用(190)
本文探讨了Java大数据与机器学习模型在游戏用户行为分析及游戏平衡优化中的应用。通过数据采集、预处理与聚类分析,开发者可深入洞察玩家行为特征,构建个性化运营策略。同时,利用回归模型优化游戏数值与付费机制,提升游戏公平性与用户体验。
|
8月前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
1364 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
10月前
|
机器学习/深度学习 PyTorch API
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
Transformer架构自2017年被Vaswani等人提出以来,凭借其核心的注意力机制,已成为AI领域的重大突破。该机制允许模型根据任务需求灵活聚焦于输入的不同部分,极大地增强了对复杂语言和结构的理解能力。起初主要应用于自然语言处理,Transformer迅速扩展至语音识别、计算机视觉等多领域,展现出强大的跨学科应用潜力。然而,随着模型规模的增长,注意力层的高计算复杂度成为发展瓶颈。为此,本文探讨了在PyTorch生态系统中优化注意力层的各种技术,
471 6
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
|
9月前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
238 2
|
9月前
|
机器学习/深度学习 存储 运维
分布式机器学习系统:设计原理、优化策略与实践经验
本文详细探讨了分布式机器学习系统的发展现状与挑战,重点分析了数据并行、模型并行等核心训练范式,以及参数服务器、优化器等关键组件的设计与实现。文章还深入讨论了混合精度训练、梯度累积、ZeRO优化器等高级特性,旨在提供一套全面的技术解决方案,以应对超大规模模型训练中的计算、存储及通信挑战。
518 4
|
10月前
|
机器学习/深度学习 Python
机器学习中模型选择和优化的关键技术——交叉验证与网格搜索
本文深入探讨了机器学习中模型选择和优化的关键技术——交叉验证与网格搜索。介绍了K折交叉验证、留一交叉验证等方法,以及网格搜索的原理和步骤,展示了如何结合两者在Python中实现模型参数的优化,并强调了使用时需注意的计算成本、过拟合风险等问题。
465 6
|
10月前
|
机器学习/深度学习 人工智能 TensorFlow
基于TensorFlow的深度学习模型训练与优化实战
基于TensorFlow的深度学习模型训练与优化实战
447 3