回归模型参数估计-5| 学习笔记

简介: 快速学习回归模型参数估计-5。

开发者学堂课程【机器学习算法 :回归模型参数估计-5】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/535/detail/7280


回归模型参数估计-5

 

内容简介

一、 参数估计:有偏估计和无偏估计

二、 参数估计的性质

 

一、参数估计:有偏估计和无偏估计

无偏估计(Unbiased Estimate):用样本统计量来估计总体参数时的一种无偏推断,估计量的的数学期望等于估计量的真实值,即image.png。换言之,在对某量进行估计时,针对不同的样本,估计结果对真实值来说有的偏大有的偏小,反复多次,“平均”来说,和真实值的偏差为0。反之,即为有偏估计(Biased Estimate)。无偏估计无系统性偏差,有偏估计有系统性偏差。例如,在等公交车,车站上写的是四点,估计的时候有可能早来也有可能晚来,如果估计多次平均就在4点左右,此时就叫做无偏估计;如果多次估计的平均值不是四点,这就属于有偏估计,它和实际的期望值有一个明显的差异,就算估计的偏差再小、方差在稳定,它都是不行的。估计到四点的才是无偏估计。

某一个样本image.png,其方差image.png的无偏估计是image.png还是image.png

image.pngimage.png

展开可以看见中间的那一项2XE(X)变成了2E((XE(X)),x的数学期望的平方就是常数,再求数学期望依旧还是本身。2E((XE(X))实际上也等于x数学期望的平方,最后就成了image.png在学方差的时候,数学期望是已经知道的,书上有的,可以稍微进行推导。由上面的式子就可以得到image.pngimage.pngimage.png

image.png

也就是x平均值平方的平均期望就等于image.png

image.pngimage.png

下图为公式的详细推导过程,先把image.png的值代进去,之后把第一个展开由于是一个二项式,所以变为了三项。根据期望运算的一些性质进一步展开,期望的和、差可以直接展开,就变成下图中第二行式子,把image.png的式子合到一起,由于均值是一个常数,就可以把它放到前面,求和就只对image.png有作用。有两个地方用不同的颜色标记出来,这些需要进一步的进行一些替换。先看红色的image.png的求和,已知x的均值就等于n分之一x求和,对式子进行变换,左右交换最后得到的n乘x的均值。黄色的部分是image.png的平方求和,可以知道image.png平方的数学期望,就等于数学期望和平均值。在这就是n分之一的image.png的平方求和,同样将n分之一乘以式子左边来,交换次序就等于n乘以image.png平方的数学期望。做下一步工作,把简化的式子带入到其中就得出了第三行的式子。注意image.png平均值的常数则image.png平方的也是常数,就可以提到前面(求和没有关系)。看第三行中的第一项n可以消掉就剩下image.png平方的数学期望的数学期望,它的数学期望也是常数,再求数学期望也不会发生变化;第二项也是类似的把2提出来并消掉n;在对第三项的1求和是n,把n提出来就变成了image.png均值平方的数学期望。整合后得到第四行式子image.png之后把这两项的结果带入得到最终公式。

image.pngimage.png

最后还是用手计算一下,大概了解在做方差分析的时候有偏估计量和无偏估计量是什么。换一个角度理解一下,有一个叫做自由度的东西,无论在做假设检验还是其他的情况下经常会遇到自由度的概念。比如说里面的变量可以随便取值,就是自由的,如果每多一个条件,自由度就会减一。例如有五个变量,都可以取到就是自由度为5,若其中一个变量固定住,不能随便取值,它的自由度减一。这个公式中通常n就是自由度,如果没有说限制,那就是n分之一。为什么在求方差的时候,自由度是 n-1而不是n?因为不管有多少变量,在n个变量中求方差的时候平均值是确定的,就等于自由度减一。这是一个物理上的概念用来引入到数学来解释,最扎实的还是手工计算刚刚简单的推导过程,之后就可以理解方差的无偏估计是n-1。

 

二、 参数估计的性质

用 LSE 估计一元线性回归方程的性质:

线性:估计量image.png为随机变量image.png;的线性函数,即:

image.png

无偏:估计值y为真实值y的无偏估计,即image.png。就是说image.png的预测值的数学期望与真实值的数学期望是相等的。

参数的方差:无偏意味着估计值没有系统偏差(就是之前举得公交车的例子,估算公交车到达的时间,就是公交车到达时间是4点,估计值的浮动,这些数学期望的值是4点,就是无偏估计的),仅仅无偏还不够(因为有可能到达的时间是6点、2点,这个均值是4点,但由于波动范围太大,估算值得意义就有限。不但看偏差,也要看方差。这和之前选择模型得时候一样,不能只看是不是无偏,无偏固然好,就算有偏,就需要校正否则不正确。波动范围小,对实际应用有价值比如估算得无偏估计值是4点,若无偏估计的方差浮动在正负5分钟内,那么这个估算是有帮助的;若是在正负两小时浮动,这个方差就过大了,是不能接受的),还要关心估计值的波动情况,即是否稳定,需要关注估计值的方差:

image.pngimage.png

这个和两个因素有关,一个image.png是分子,就是随机误差的平方,这个越大,整体估计的方差越大;还有一个和分母image.png有关,这个本身和 x 方差相似,也就是x本身的方差越大,整体估计的方差就越小。比如用一个样本估计,父母的身高来预测孩子的身高,x是父亲的身高,它的身高跨度越大,对于image.png来说方差越小。就是父亲的身高从一米五到两米都有,对image.png来讲实际估计值的结果越小;如果身高都集中在一米七到一米七一之间,image.png的方差就很大,估计出来的参数值就很差。在采样的时候数据要全面,样本数据要有代表性,全面,那对最终的估计结果越好。

image.pngimage.png

image.png来说是类似的,首先结果是和image.png有关,就是随机误差的平方,这个越大,整体估计的方差越大,波动范围越大;还有就是n越大,整体估计的方差越小,就是拿到的样本数据越多,拿到的效果越好;还有就是x的取值,x的跨度范围越大,对参数估计越有利。以上内容就是刚刚讲的回归系数image.png的波动和什么有关。image.png样本数越多越好,变量的取值跨度越大越好,本身的随机误差越小越好。通常把image.png记作image.png,则有image.png, image.png这两个的正态分布,就比如image.png的估计值在真实的取值周围波动,是无偏的波动范围就是image.png。让自变量变小,样本个数变多,自变量的取值最快,最终对参数估计的效果越有帮助。

image.png

相关文章
|
2月前
|
机器学习/深度学习 算法
贝叶斯线性回归:概率与预测建模的融合
本文探讨了贝叶斯方法在线性回归中的应用,从不确定性角度出发,介绍了如何通过概率来表达变量间关系的不确定性。文章首先回顾了古希腊天文学家使用本轮系统模拟行星运动的历史,并将其与傅里叶级数分解方法类比,强调了近似的重要性。接着,通过高斯分布和贝叶斯推断,详细讲解了线性回归中的不确定性处理方法。文章使用Howell1数据集,展示了如何构建和拟合高斯模型,并通过先验预测模拟验证模型合理性。最后,介绍了多项式回归和样条方法,展示了如何逐步增加模型复杂性以捕捉更细微的数据模式。贝叶斯方法不仅提供了点估计,还提供了完整的后验分布,使得模型更具解释性和鲁棒性。
53 1
贝叶斯线性回归:概率与预测建模的融合
|
7月前
|
算法
t-GARCH 模型的贝叶斯推断理论
t-GARCH 模型的贝叶斯推断理论
|
7月前
|
数据可视化 数据建模 大数据
MCMC的rstan贝叶斯回归模型和标准线性回归模型比较
MCMC的rstan贝叶斯回归模型和标准线性回归模型比较
|
7月前
|
机器学习/深度学习 算法 数据可视化
R语言逻辑回归和泊松回归模型对发生交通事故概率建模
R语言逻辑回归和泊松回归模型对发生交通事故概率建模
|
机器学习/深度学习 数据可视化 算法
机器学习系列6 使用Scikit-learn构建回归模型:简单线性回归、多项式回归与多元线性回归
在本文中,我们以美国南瓜数据为例,讲解了三种线性回归的原理与使用方法,探寻数据之间的相关性,并构建了6种线性回归模型。将准确率从一开始的0.04提升到0.96.
360 0
|
机器学习/深度学习 算法
线性回归模型-误差分析
线性回归模型-误差分析
174 0
|
机器学习/深度学习 算法 开发者
回归模型参数估计-3| 学习笔记
快速学习回归模型参数估计-3。
回归模型参数估计-3| 学习笔记
|
机器学习/深度学习 算法 开发者
回归模型参数估计-4| 学习笔记
快速学习回归模型参数估计-4。
回归模型参数估计-4| 学习笔记
|
机器学习/深度学习 算法 开发者
回归模型的参数估计-2| 学习笔记
快速学习回归模型的参数估计-2。
回归模型的参数估计-2| 学习笔记