机器学习中的数学原理——多项式回归

简介: 机器学习中的数学原理——多项式回归

一、什么多项式回归

多项式回归是线性回归的一种特殊情况,其中我们在数据上拟合了多项式方程,目标变量和自变量之间具有曲线关系。 在曲线关系中,目标变量的值相对于预测变量以不均匀的方式变化。

二、算法分析

首先我们看次函数解析式

我们引入了两个变量,,它的图像是一条直线:

之前我们用微分求出了这个函数的斜率截距,但是从我们的数据点上来看,其实曲线比 直线拟合得更好。

我们将fθ(x)定义为二次函数,添加一个二次项,就能用它来表示这条曲线了。

或者我们用更高次次数的表达式也可以。这样就能表示更复杂的曲线了。

所以我们在不断尝试之后决定是什么样的函数,但是要注意,并不是函数次数越大拟合得越好。次数过大,难免会出现过拟合的情况。首先我们先看加入这个新的函数。接下来我们写出更新表达式的推导方法。

和之前一样,设u = E(θ)、v = fθ(x),然后试着用 u 对 θ2偏微分,求出更新表达式。u 对 v 微分的部分是一样的,所以我们只要求 v 对 θ2 的微分就行了。

那么即使增加参数,比如有 θ3、θ4 等,我们依然可以用同样的方法求出它们的更新表达式,像这样增加函数中多项式的次数,然后再使用函数的分析方法就被称为多项式回归

三、总结

多项式回归在原有的基础上引入了更高次的变量,我们要求出更高次参数的更新表达式,这一部分可以看之前写的梯度下降法更新参数。只要求出参数就能求得表达式了。


相关文章
|
7月前
|
机器学习/深度学习 算法 Python
机器学习特征筛选:向后淘汰法原理与Python实现
向后淘汰法(Backward Elimination)是机器学习中一种重要的特征选择技术,通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。该方法从完整特征集出发,逐步剔除不重要的特征,最终保留最具影响力的变量子集。其优势包括提升模型简洁性和性能,减少过拟合,降低计算复杂度。然而,该方法在高维特征空间中计算成本较高,且可能陷入局部最优解。适用于线性回归、逻辑回归等统计学习模型。
277 7
|
9月前
|
机器学习/深度学习 资源调度 算法
机器学习领域必知数学符号与概念(一)
本文介绍了一些数学符号以及这些符号的含义。
744 65
|
8月前
|
机器学习/深度学习 数据采集 分布式计算
大数据分析中的机器学习基础:从原理到实践
大数据分析中的机器学习基础:从原理到实践
382 3
|
10月前
|
机器学习/深度学习 存储 运维
分布式机器学习系统:设计原理、优化策略与实践经验
本文详细探讨了分布式机器学习系统的发展现状与挑战,重点分析了数据并行、模型并行等核心训练范式,以及参数服务器、优化器等关键组件的设计与实现。文章还深入讨论了混合精度训练、梯度累积、ZeRO优化器等高级特性,旨在提供一套全面的技术解决方案,以应对超大规模模型训练中的计算、存储及通信挑战。
582 4
|
机器学习/深度学习 算法 知识图谱
【机器学习】逻辑回归原理(极大似然估计,逻辑函数Sigmod函数模型详解!!!)
【机器学习】逻辑回归原理(极大似然估计,逻辑函数Sigmod函数模型详解!!!)
|
机器学习/深度学习 算法
机器学习入门(三):K近邻算法原理 | KNN算法原理
机器学习入门(三):K近邻算法原理 | KNN算法原理
|
机器学习/深度学习 API
机器学习入门(七):线性回归原理,损失函数和正规方程
机器学习入门(七):线性回归原理,损失函数和正规方程
|
11月前
|
机器学习/深度学习 自然语言处理 语音技术
探索机器学习中的深度学习模型:原理与应用
探索机器学习中的深度学习模型:原理与应用
285 0
|
机器学习/深度学习 程序员
【机器学习】朴素贝叶斯原理------迅速了解常见概率的计算
【机器学习】朴素贝叶斯原理------迅速了解常见概率的计算
|
机器学习/深度学习 算法
【机器学习】逻辑回归介绍(逻辑回归应用场景,原理,损失及优化详解!!!)
【机器学习】逻辑回归介绍(逻辑回归应用场景,原理,损失及优化详解!!!)