Ridge,Lasso,Elasticnet回归

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 这篇文章探讨了多元线性回归与正则化的结合,包括Ridge、Lasso和Elasticnet回归。Ridge回归通过添加L2惩罚项提高模型鲁棒性,但可能牺牲一些准确性。Lasso回归引入L1范数,对异常值更敏感,能进行特征选择。Elasticnet结合L1和L2范数,允许在正则化中平衡两者。通过调整α和l1_ratio参数,可以控制整体正则化强度和正则化类型的比例。

本文主要关于多元线性回归(MSE)与L1,L2范数结合在一起从而提高鲁棒性,即正则化应用于MSE产生的Ridge,Lasso,Elasticnet回归的内容。

一,Ridge回归

岭回归实质上就是普通的MSE加上一项L2惩罚项来提高模型的鲁棒性,但同时也会降低一定的准确率。

import numpy as np
from sklearn.linear_model import Ridge
from sklearn.linear_model import SGDRegressor
X = 2*np.random.rand(100,1)
y = 4 + 3*X + np.random.randn(100,1)
rm = Ridge(alpha=0.4,solver='sag')#alpha调大,提高泛化能力,准度降低,alpha调小,泛化能力减弱,准度提高
rm.fit(X,y)
print("Ridge:")
print("predict:",rm.predict([[1.5]]))
print("w1:",rm.coef_)
print("bias:",rm.intercept_)
print("----------------"*10)
print("SGD:")
sr = SGDRegressor(penalty='l2',max_iter=1000)
sr.fit(X,y.reshape(-1,))
print("predict:",sr.predict([[1.5]]))
print("w1:",sr.coef_)
print("bias:",sr.intercept_)

image.gif

image.gif 编辑

上图为α值为0.4时产生的结果,当提高α值(即提高正则化力度),我们会发现准确度下降(如下图)。

image.gif 编辑

二,Lasso回归

Lasso回归的损失函数包含MSE和L1范数两部分,符合正则化特点地,提高正则化力度的同时,准确值下降。

import numpy as np
from sklearn.linear_model import Lasso
from sklearn.linear_model import SGDRegressor
X = 2*np.random.rand(100,1)
y = 4 + 3*X + np.random.randn(100,1)
lm = Lasso(alpha=0.15,max_iter=30000)
lm.fit(X,y)
print("Lasso:")
print("w1:",lm.coef_)
print("bias:",lm.intercept_)
print("predict:",lm.predict([[1.5]]))
print("----------------"*10)
print("SGD:")
sr = SGDRegressor(penalty='l1',max_iter=10000)
sr.fit(X,y.reshape(-1,))
print("w1:",sr.coef_)
print("bias:",sr.intercept_)
print("predict:",sr.predict([[1.5]]))

image.gif

image.gif 编辑

当α为0.15时产生的结果,当提高α值,观察下图,我们发现L1范数对α更加敏感,当α大于1.2后w1归零,这里我们使用α=0.7观察现象。

image.gif 编辑

三,Elasticnet回归

观察其损失函数,不难发现Elasticnet回归实质上就是由MSE,L1,L2三部分组成,p决定我们更注重哪种范数来正则化。

import numpy as np
from sklearn.linear_model import ElasticNet
from sklearn.linear_model import SGDRegressor
X = 2*np.random.rand(100,1)
y = 4 + 3*X + np.random.randn(100,1)
er = ElasticNet(alpha=0.04,l1_ratio=0.1,)
er.fit(X,y)
print("ElasticNet:")
print("bias:",er.intercept_)
print("w1:",er.coef_)
print("predict:",er.predict([[1.5]]))
print("----------------"*10)
print("SGD:")
sr = SGDRegressor(penalty="elasticnet",max_iter=1000)
sr.fit(X,y.reshape(-1,))
print("bias:",sr.intercept_)
print("w1:",sr.coef_)
print("predict:",sr.predict([[1.5]]))

image.gif

image.gif 编辑

我们可以通过调整α来调整整体正则化力度,调整l1_ratio来调整正则化侧重,这样可以更好的规范损失函数。

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
目录
相关文章
|
机器学习/深度学习 数据挖掘 PyTorch
Logistic Regression 逻辑斯蒂回归
Logistic Regression 逻辑斯蒂回归
162 0
|
6月前
R语言stan泊松回归Poisson regression
R语言stan泊松回归Poisson regression
|
6月前
|
机器学习/深度学习 算法
逻辑回归(Logistic Regression)详解
逻辑回归(Logistic Regression)详解
29 0
|
6月前
用LASSO,adaptive LASSO预测通货膨胀时间序列
用LASSO,adaptive LASSO预测通货膨胀时间序列
|
机器学习/深度学习 算法 PyTorch
Softmax回归(Softmax Regression)
Softmax回归(Softmax Regression),也称为多类别逻辑回归或多项式回归,是一种用于解决多类别分类问题的统计学习方法。它是逻辑回归在多类别情况下的扩展。
260 3
|
机器学习/深度学习 算法 API
逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression)是一种用于解决分类问题的统计学习方法。它是一种广义线性模型,用于估计二分类问题中的概率。
150 2
|
机器学习/深度学习 算法 Python
机器学习算法之——逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。
机器学习算法之——逻辑回归(Logistic Regression)
|
数据可视化
L1、L2范数理解--Ridge以及Lasso回归
L1、L2范数理解--Ridge以及Lasso回归
160 0
|
机器学习/深度学习 算法
线性回归(Linear regression)算法
属于有监督学习、判别模型、有预测函数、有优化目标,有优化求解算法
293 0
|
机器学习/深度学习 算法 BI
逻辑回归 Logistic Regression
逻辑回归 Logistic Regression