学习笔记: 机器学习经典算法-模型正则化

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 机器学习经典算法-个人笔记和学习心得分享

模型正则化 Regularization 是通过 约束模型参数值的大小 实现解决模型方差过大(过拟合)问题的一种 标准处理手段。通过模型正则化处理可以在保持模型具有较高复杂度的前提下 提高模型的泛化能力

关于向量的Lp范数

Lp范数: 数学上表达为向量各个元素绝对值p次方和的1/p次方 $\|\vec x\|_{p} = (\sum_{i=1}^{n}|x_{i}|^{p})^{\frac {1}{p}}$;
该数学形式与 明可夫斯基距离 :$(\sum_{i=1}^{n}{|X_i^{(a)} - X_i^{(b)}|^{p }})^{\frac{1}{p}}$ 一致,当$p$取不同值时明可夫斯基距离可以具体化为不同的类型。

对于向量的Lp范数,其实度量的是 空间中向量到坐标原点的距离:

  • 当 $p=1$ 时,L1范数 度量了向量到原点的 曼哈顿距离
  • 当 $p=2$ 时,L2范数 度量了向量到原点的 欧氏距离

一般数据分析领域几乎不会涉及 $p \gt 2$ 的距离。

1、L2正则项-岭回归 Ridge Regression

在线性回归任务中,寻找最优参数的优化目标为
$$\small {\bf 使得}\ \ \sum _{i= 1 }^{m}{(y^{(i) - \hat y^{(i)}})} \rightarrow \sum _{i= 1 }^{m}{(y^{(i)}{ - \theta _{0} - \theta _{1}x^{(i)}_{1} -...- \theta _{n}x^{(i)}_{n} })} \rightarrow MSE(y^{(i)},\hat y^{(i)};\theta) \ \ \small {\bf 尽可能小。}$$

加入模型正则化 约束模型参数值大小的 L2正则项 $ \alpha\frac {1}{2}\sum_{i=1}^{n}{\theta^2_i}$ 使得优化目标变为 :
$$\small {\bf 使得}\ \ J(\theta)= MSE(y^{(i)},\hat y^{(i)};\theta) + \alpha\frac {1}{2}\sum_{i=1}^{n}{\theta^2_i} \ \ \small {\bf 尽可能小。}$$
参数值约束条件里的常量 $\alpha $ 代表在模型正则化下模型参数的约束强度; 当$\alpha = 0 $ ,表示不对模型参数值大小进行任何约束;当$\alpha \to \infty $,模型正则化的任务将使得每一个$\theta_{i}$都尽可能小,极端情况下所有$\theta$ 将取零。 在实际情况中,$\alpha $作为模型的超参数,可通过搜索获得。优化目标使用这种添加了参数大小约束的 线性回归 又称 岭回归 Ridge Regression

1.2 scikit-learn 框架下的岭回归

岭回归 Ridge Regression 是一种添加了模型参数值大小约束的 线性回归方法 Linear Regression

### Prepare datasets
import numpy as np
x = np.random.uniform(-3,3,size = 100).reshape((-1,1))
y = .5 * x ** 2 + 1*x + 2 + np.random.normal(size =(100,1))

### PolynomialFeatures
from sklearn.preprocessing import PolynomialFeatures ### 特征构造
poly = PolynomialFeatures(degree=3) ### 构造三次幂样本特征
poly.fit(x)
X = poly.transform(x) ### 返回添加了构造特征的特征矩阵,分别是 x^0,x^1,X^2 钩爪

### Ridge Regression - 参数值大小约束下的线性回归
from sklearn.linear_model import Ridge
ridge_reg = Ridge(alpha= .00001) ### 多项式回归得到的特征系数Θ 通常会非常大,约束值α可以选个小一些的值;α 越大会使得拟合曲线变得平滑。
ridge_reg.fit(X,y)
ridge_reg.coef_

1.3 sklearn 岭回归 管道封装

### 岭回归 流程管道
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures  
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import Ridge
from sklearn.metrics import mean_squared_errorn
def RidgeRegressor(degree,alpha):
    return Pipeline([
        ("poly",PolynomialFeatures(degree=degree)), ### 格式为 管道名,当前管道需执行的函数
        ("std_scaler",StandardScaler()),
        ("ridge_reg",Ridge(alpha = alpha))
    ])

#### Usage of scikit-learn Pipline
ridge_reg = RidgeRegressor(degree=3,alpha=0.0001)
ridge_reg.fit(x,y)
y_predict = ridge_reg.predict(x)
mean_squared_errorn(y,y_predict) ### MSE

2、L1正则项-LASSO 回归

LASSO 模型正则化 (Least Absolute Shrinkage and Selection Operator Regression) 的本质与 岭回归 一样,区别在于使得模型参数值最小化的约束条件的描述方式为 L1正则项 $ \alpha \sum_{i=1}^{n}{|\theta_i|}$ 。

LASSO Regression 的优化目标:
$$\small {\bf 使得}\ \ J(\theta)= MSE(y^{(i)},\hat y^{(i)};\theta) + \alpha \sum_{i=1}^{n}{|\theta_i|}\ \ \small {\bf 尽可能小。}$$

2.1 Lasso 的特征选择作用

对于岭回归 ,当参数值约束$\alpha$趋于无穷的时候,目标函数 $J(\theta) = MSE(y^{(i)},\hat y^{(i)};\theta) + \alpha\frac {1}{2}\sum_{i=1}^{n}{\theta^2_i} $ 中的约束 $\alpha\frac {1}{2}\sum_{i=1}^{n}{\theta^2_i}$ 的权重将变的无穷大,寻找最优$\theta$ 的目标函数变为 $f(\theta) = \alpha\frac {1}{2}\sum_{i=1}^{n}{\theta^2_i}$ 。对于函数 $\theta ^2$ 在梯度下降的过程中,很难使得 $\theta$ 完全落在函数中心点 $0$ ,通常只能落在一个趋近于$0$ 的区间上。

对于Lasso 回归 ,同样当参数值约束$\alpha$趋于无穷的时候,目标函数变为 $f(\theta) = \alpha\frac {1}{2}\sum_{i=1}^{n}{|\theta_i|}$ 。使用梯度下降法搜索绝对值函数的极小值的时候,由于绝对值函数上的导数仅分为三种情况 $(\frac {\partial \theta}{\partial J} = 1,\theta \gt 0; \frac {\partial \theta}{\partial J} = 0,\theta =0; \frac {\partial \theta}{\partial J} = -1,\theta \lt0; )$;所以 Lasso 回归的时候,很容易搜索到 $\theta = 0$ 的参数结果。


因此用绝对值的方式作为$\theta$ 的约束衡量,使得LASSO 趋向于使得一部分 $\theta_{i}$ 的值变为 0,实现在多项式-线性回归中的 特征选择 作用。但是这种特征选择,很可能会错误的丢弃原本有用的特征,从计算准确度而言 Ridge Regression会更准确些。

2.2 scikit-learn 框架下的 LASSO 回归流程管道封装

### lasso回归 流程管道
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import Lasso
from sklearn.metrics import mean_squared_error
def LassoRegressor(degree,alpha):
    return Pipeline([
        ("poly",PolynomialFeatures(degree=degree)), ### 格式为 管道名,当前管道需执行的函数
        ("std_scaler",StandardScaler()), 
        ("lasso_reg",Lasso(alpha = alpha))
    ])

#### Usage of scikit-learn Pipline
lasso_reg = RidgeRegressor(degree=3,alpha=0.01)
lasso_reg.fit(x,y)
y_predict = lasso_reg.predict(x)
mean_squared_error(y,y_predict) ### MSE

3、L0 正则项

线性回归的 L0 正则项 约束条件表达为尽量使得非零 $\theta$ 参数的个数尽可能小:

$$\small {\bf 使得}\ \ J(\theta)= MSE(y^{(i)},\hat y^{(i)};\theta) +min \{number-of-non-zero-\theta \}\ \ \small {\bf 尽可能小。}$$

L0正则化 一般使用也非常少,$min \{number-of-non-zero-\theta \}$ 本身是一个离散项,从而求解该目标函数的最优化结果需要通过穷举组合所有的 $\theta_i$ 来计算 $J(\theta)$ 才能判断最优组合。实际使用由L1 正则项 代替。

4、弹性网 Elastic Net

联合使用了参数约束项 L1 正则项和L2正则项 ,由超参数 $r$ 指定 L1 正则项L2 正则项 的约束强度。结合了岭回归和Lasso 回归的优势)。如果计算资源充足,并且特征数目不算特别膨胀的时候优选考虑使用计算精度有保障的岭回归 ;只有在特征数特别膨胀的时候考虑使用 弹性网,一定程度上实现了 特征选择和精度 的保证。

$$\small {\bf 使得}\ \ J(\theta)= MSE(y^{(i)},\hat y^{(i)};\theta) + r\alpha\sum_{i=1}^{n}{|\theta _{i}|} + (1-r)\frac{1}{2}\alpha\sum_{i=1}^{n}{\theta_i^2} \ \ \small {\bf 尽可能小。}$$

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
目录
相关文章
|
9天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
30 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
9天前
|
机器学习/深度学习 人工智能 算法
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型
蔬菜识别系统,本系统使用Python作为主要编程语言,通过收集了8种常见的蔬菜图像数据集('土豆', '大白菜', '大葱', '莲藕', '菠菜', '西红柿', '韭菜', '黄瓜'),然后基于TensorFlow搭建卷积神经网络算法模型,通过多轮迭代训练最后得到一个识别精度较高的模型文件。在使用Django开发web网页端操作界面,实现用户上传一张蔬菜图片识别其名称。
47 0
基于深度学习的【蔬菜识别】系统实现~Python+人工智能+TensorFlow+算法模型
|
20天前
|
机器学习/深度学习 人工智能 算法
青否数字人声音克隆算法升级,16个超真实直播声音模型免费送!
青否数字人的声音克隆算法全面升级,能够完美克隆真人的音调、语速、情感和呼吸。提供16种超真实的直播声音模型,支持3大AI直播类型和6大核心AIGC技术,60秒快速开播,助力商家轻松赚钱。AI讲品、互动和售卖功能强大,支持多平台直播,确保每场直播话术不重复,智能互动和真实感十足。新手小白也能轻松上手,有效规避违规风险。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
阿里云人工智能平台 PAI 团队发表的图像编辑算法论文在 MM2024 上正式亮相发表。ACM MM(ACM国际多媒体会议)是国际多媒体领域的顶级会议,旨在为研究人员、工程师和行业专家提供一个交流平台,以展示在多媒体领域的最新研究成果、技术进展和应用案例。其主题涵盖了图像处理、视频分析、音频处理、社交媒体和多媒体系统等广泛领域。此次入选标志着阿里云人工智能平台 PAI 在图像编辑算法方面的研究获得了学术界的充分认可。
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
|
21天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
25天前
|
机器学习/深度学习 人工智能 算法
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型
车辆车型识别,使用Python作为主要编程语言,通过收集多种车辆车型图像数据集,然后基于TensorFlow搭建卷积网络算法模型,并对数据集进行训练,最后得到一个识别精度较高的模型文件。再基于Django搭建web网页端操作界面,实现用户上传一张车辆图片识别其类型。
72 0
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型
|
30天前
|
机器学习/深度学习 算法 Java
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
机器学习、基础算法、python常见面试题必知必答系列大全:(面试问题持续更新)
|
1月前
|
机器学习/深度学习 算法 搜索推荐
django调用矩阵分解推荐算法模型做推荐系统
django调用矩阵分解推荐算法模型做推荐系统
28 4
|
1月前
|
机器学习/深度学习 人工智能 算法
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
玉米病害识别系统,本系统使用Python作为主要开发语言,通过收集了8种常见的玉米叶部病害图片数据集('矮花叶病', '健康', '灰斑病一般', '灰斑病严重', '锈病一般', '锈病严重', '叶斑病一般', '叶斑病严重'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。再使用Django搭建Web网页操作平台,实现用户上传一张玉米病害图片识别其名称。
56 0
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
|
1月前
|
机器学习/深度学习 算法 Python
探索机器学习中的决策树算法:从理论到实践
【10月更文挑战第5天】本文旨在通过浅显易懂的语言,带领读者了解并实现一个基础的决策树模型。我们将从决策树的基本概念出发,逐步深入其构建过程,包括特征选择、树的生成与剪枝等关键技术点,并以一个简单的例子演示如何用Python代码实现一个决策树分类器。文章不仅注重理论阐述,更侧重于实际操作,以期帮助初学者快速入门并在真实数据上应用这一算法。

热门文章

最新文章

下一篇
无影云桌面