ML之LiR之PLiR:惩罚线性回归PLiR算法简介、分类、代码实现之详细攻略

简介: ML之LiR之PLiR:惩罚线性回归PLiR算法简介、分类、代码实现之详细攻略

PLiR算法简介


更新……



PLiR算法分类


1、RiR VS Lasso回归



image.png

       图4-1 及图4-2 的曲线集合代表RiR公式和Lasso回归公式的系数惩罚项,分别是岭惩罚项和套索惩罚项。在图4-1 中,代表系数惩罚项的曲线是以原点为中心的圆。平方和等于常量,限定了β1 以及β2 是位于圆上的点。常数惩罚项的曲线形状由使用的距离性质决定:基于平方和的惩罚项对应于圆(称作超球面或者高维空间的I2 球面),基于绝对值和的惩罚项对应于菱形(或者l1 球面)。小的圆(或者菱形)对应于较小的距离函数。形状虽然由惩罚函数的性质决定,但是每条曲线关联的值由非负参数λ 来决定。假设图4-1 中的2 条曲线分别对应平方和(β1、β2)为1.0 和2.0 的情况。如果λ =1,那么和2 个圆圈关联的惩罚项为1 和2。如果λ =10,那么关联的惩罚项为10 和20。图4-2 中的菱形结果也相同。增加λ 也会增加与图4-2 相关的惩罚项。


       椭圆环(对应于预测错误平方)离不受限的最小值(图中的x 标记)越远,椭圆环也变得越大。正如OLS的公式所示,最小化这2个函数的和对应于在预测错误最小化以及系数惩罚最小化之间寻求一种平衡。较大的λ 值会更多地考虑最小化惩罚项(所有系数为0)。较小的λ 值会使得最小值接近于不受限的最小预测错误(图4-1 及图4-2 的x)。


       这就是系数平方和的惩罚项与绝对值和的惩罚项之间的区别。RiR公式以及Lasso回归公式的最小值往往会落在惩罚常数曲线与预测错误曲线的切点上。图4-1 与图4-2 为相切的2个例子。重要一点是在图4-1 中,随着λ 变化以及最小点的移动,平方惩罚项产生的切点一般不会落在坐标轴上。β1 与β2 都不为0。相比之下,在图4-2 中,绝对值和惩罚项产生的切点落在了β2 的轴上。在β2 轴上,β1=0。




PLiR算法代码实现


 更新……


相关文章
|
20天前
|
机器学习/深度学习 存储 算法
sklearn应用线性回归算法
sklearn应用线性回归算法
24 0
|
20天前
|
机器学习/深度学习 数据采集 算法
线性回归算法是什么
线性回归算法是什么
26 0
|
24天前
|
机器学习/深度学习 算法 PyTorch
RPN(Region Proposal Networks)候选区域网络算法解析(附PyTorch代码)
RPN(Region Proposal Networks)候选区域网络算法解析(附PyTorch代码)
180 1
|
1月前
|
算法 安全 C语言
使用C语言实现DES算法代码
使用C语言实现DES算法代码
|
1月前
|
机器学习/深度学习 算法 数据可视化
探索线性回归算法:从原理到实践
探索线性回归算法:从原理到实践【2月更文挑战第19天】
21 0
探索线性回归算法:从原理到实践
|
15天前
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
|
1月前
|
机器学习/深度学习 算法 数据库
KNN和SVM实现对LFW人像图像数据集的分类应用
KNN和SVM实现对LFW人像图像数据集的分类应用
33 0
|
8天前
|
机器学习/深度学习 自然语言处理 算法
|
1天前
|
机器学习/深度学习 算法 C++
R语言贝叶斯MCMC:GLM逻辑回归、Rstan线性回归、Metropolis Hastings与Gibbs采样算法实例
R语言贝叶斯MCMC:GLM逻辑回归、Rstan线性回归、Metropolis Hastings与Gibbs采样算法实例
22 0
|
25天前
|
存储 机器学习/深度学习 算法
C语言代码实现数据结构与算法
以上代码中,哈希表使用链表解决哈希冲突,每个链表节点包含一个键值对。hash函数用于计算键值对应的哈希值,insert函数用于向哈希表中插入一个键值对,若当前位置为空,则直接插入;否则,将新节点插入到链表末尾。search函数用于在哈希表中查找指定键值的值,若存在则返回其值,否则返回-1。
32 1