【机器学习】线性回归——最小二乘法的概率解释高斯噪声(理论+图解+公式推导)

简介: 【机器学习】线性回归——最小二乘法的概率解释高斯噪声(理论+图解+公式推导)

2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善机器学习各个知识体系的文章,帮助大家更高效学习。


概述

对于之前的文章我们使用了最小二乘估计然后获得了损失函数

L ( w ) = ∑ i = 1 m ( w T x i − y i ) 2 L(w)=\sum_{i=1}^m(w^Tx_i-y_i)^2L(w)=i=1m(wTxiyi)2

然后求解极值点,然后获得

w ∗ = ( X T X ) − 1 X T Y w^*=(X^TX)^{-1}X^TYw=(XTX)1XTY

对于之前获得的结论都是基于最小二乘估计(LSE)得来的,本节从一种概率角度获得我们的最优解w

高斯噪声

如果我们的模型完全拟合了我们的数据,那么此时误差就为0,但是在现实中,我们的线性模型是很难完全拟合所有数据的,肯定是会存在一定的误差,这个误差我们采用噪声的方式进行表达,也就是我们此时满足:

y = f ( w ) + ϵ = w T x + ϵ y=f(w)+\epsilon\\=w^Tx+\epsilony=f(w)+ϵ=wTx+ϵ

其中我们假设噪声服从高斯分布,即:

ϵ ∼ N ( 0 , σ 2 ) \epsilon\sim N(0,\sigma^2)ϵN(0,σ2)

由方差和期望公式可知,我们的y同样服从高斯分布,即:

y ∼ N ( w T x , σ 2 ) y \sim N(w^Tx,\sigma^2)yN(wTx,σ2)

也就是:

P ( y ∣ w ; x i ) = 1 2 π σ e x p ( − ( y − w T x ) 2 2 σ 2 ) P(y|w;x_i)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y-w^Tx)^2}{2\sigma^2})P(yw;xi)=2πσ1exp(2σ2(ywTx)2)

此时我们采用概率进行构造损失函数,采用对数似然估计,使我们的Y服从该分布的概率最大:

即:

L ( w ) = l o g P ( Y ∣ w ; X ) = l o g ∏ i = 1 m P ( y i ∣ w ; x i ) = ∑ i = 1 m l o g P ( y i ∣ w ; x i ) = ∑ i = 1 m l o g 1 2 π σ e x p ( − ( y − w T x ) 2 2 σ 2 ) = ∑ i = 1 m [ l o g 1 2 π σ − 1 2 σ 2 ( y i − w T x i ) 2 ] L(w)=logP(Y|w;X)\\=log\prod_{i=1}^mP(y_i|w;x_i)\\=\sum_{i=1}^mlogP(y_i|w;x_i)\\=\sum_{i=1}^mlog\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y-w^Tx)^2}{2\sigma^2})\\=\sum_{i=1}^m[log\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{2\sigma^2}(y_i-w^Tx_i)^2]L(w)=logP(Yw;X)=logi=1mP(yiw;xi)=i=1mlogP(yiw;xi)=i=1mlog2πσ1exp(2σ2(ywTx)2)=i=1m[log2πσ12σ21(yiwTxi)2]

上面的 P ( Y ∣ w ; X ) P(Y|w;X)P(Yw;X) 可以拆分成 ∏ i = 1 m P ( y i ∣ w ; x i ) \prod_{i=1}^mP(y_i|w;x_i)i=1mP(yiw;xi) 是因为假设我们的样本之间是独立同分布的,每个样本之间相互独立,互不影响。

然后我们的目的是极大似然函数,所以有:

w ∗ = a r g m a x w L ( w ) = a r g m a x w ∑ i = 1 m [ l o g 1 2 π σ − 1 2 σ 2 ( y i − w T x i ) 2 ] = a r g m i n w ∑ i = 1 m ( y i − w T x ) 2 w^*=argmax_wL(w)\\=argmax_w\sum_{i=1}^m[log\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{2\sigma^2}(y_i-w^Tx_i)^2]\\=argmin_w\sum_{i=1}^m(y_i-w^Tx)^2w=argmaxwL(w)=argmaxwi=1m[log2πσ12σ21(yiwTxi)2]=argminwi=1m(yiwTx)2

可以看到最终的化简结果和我们使用最小二乘估计得到的结果一致,所以我们可以得出结论:

L S E < = > M L E ( ϵ ∼ N ( 0 , σ 2 ) ) LSE<=>MLE(\epsilon \sim N(0,\sigma^2))LSE<=>MLE(ϵN(0,σ2))

就是我们的最小二乘估计和概率极大似然估计是等价的,前提满足的条件就是噪声满足高斯分布。


目录
相关文章
|
18天前
|
机器学习/深度学习 人工智能 算法
探索机器学习:从线性回归到深度学习
本文将带领读者从基础的线性回归模型开始,逐步深入到复杂的深度学习网络。我们将通过代码示例,展示如何实现这些算法,并解释其背后的数学原理。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的见解和知识。让我们一起踏上这段激动人心的旅程吧!
|
1月前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的线性回归模型
本文深入探讨了机器学习中广泛使用的线性回归模型,从其基本概念和数学原理出发,逐步引导读者理解模型的构建、训练及评估过程。通过实例分析与代码演示,本文旨在为初学者提供一个清晰的学习路径,帮助他们在实践中更好地应用线性回归模型解决实际问题。
|
1月前
|
机器学习/深度学习 自然语言处理 算法
深入理解机器学习算法:从线性回归到神经网络
深入理解机器学习算法:从线性回归到神经网络
|
7月前
|
机器学习/深度学习 算法 TensorFlow
机器学习算法简介:从线性回归到深度学习
【5月更文挑战第30天】本文概述了6种基本机器学习算法:线性回归、逻辑回归、决策树、支持向量机、随机森林和深度学习。通过Python示例代码展示了如何使用Scikit-learn、statsmodels、TensorFlow库进行实现。这些算法在不同场景下各有优势,如线性回归处理连续值,逻辑回归用于二分类,决策树适用于规则提取,支持向量机最大化类别间隔,随机森林集成多个决策树提升性能,而深度学习利用神经网络解决复杂模式识别问题。理解并选择合适算法对提升模型效果至关重要。
255 4
|
1月前
|
机器学习/深度学习 数据采集 算法
探索机器学习中的线性回归
【10月更文挑战第25天】本文将深入浅出地介绍线性回归模型,一个在机器学习领域中广泛使用的预测工具。我们将从理论出发,逐步引入代码示例,展示如何利用Python和scikit-learn库实现一个简单的线性回归模型。文章不仅适合初学者理解线性回归的基础概念,同时也为有一定基础的读者提供实践指导。
|
2月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
探索机器学习:从线性回归到深度学习
在这篇文章中,我们将一起踏上一场激动人心的旅程,穿越机器学习的广阔天地。我们将从最基本的线性回归开始,逐步深入到复杂的深度学习模型。无论你是初学者还是有经验的开发者,这篇文章都将为你提供新的视角和深入的理解。让我们一起探索这个充满无限可能的世界吧!
|
2月前
|
机器学习/深度学习 API
机器学习入门(七):线性回归原理,损失函数和正规方程
机器学习入门(七):线性回归原理,损失函数和正规方程
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
探索机器学习:从线性回归到深度学习
【9月更文挑战第4天】在这篇文章中,我们将深入探讨机器学习的世界,从基础的线性回归模型开始,逐步深入到复杂的深度学习网络。我们将通过实际的代码示例,揭示这些模型背后的数学原理,以及如何在现实世界的问题中应用它们。无论你是初学者还是有经验的数据科学家,这篇文章都将为你提供新的视角和深入的理解。
|
4月前
|
机器学习/深度学习
【机器学习】准确率、精确率、召回率、误报率、漏报率概念及公式
机器学习评估指标中的准确率、精确率、召回率、误报率和漏报率等概念,并给出了这些指标的计算公式。
851 0
|
4月前
|
机器学习/深度学习 算法
【机器学习】简单解释贝叶斯公式和朴素贝叶斯分类?(面试回答)
简要解释了贝叶斯公式及其在朴素贝叶斯分类算法中的应用,包括算法的基本原理和步骤。
83 1