【番外】线性回归和逻辑回归的 MLE 视角

简介: 版权声明:License CC BY-NC-SA 4.0 https://blog.csdn.net/wizardforcel/article/details/83345186 线...
版权声明:License CC BY-NC-SA 4.0 https://blog.csdn.net/wizardforcel/article/details/83345186

线性回归

z=wTx+bz = w^T x + bz=wTx+b,得到:

y=z+ϵ, ϵ∼N(0,σ2)y = z + \epsilon, \, \epsilon \sim N(0, \sigma^2)y=z+ϵ,ϵN(0,σ2)

于是:

y∣x∼N(z,σ2)y|x \sim N(z, \sigma^2)yxN(z,σ2)

为啥是 y∣xy|xyx,因为判别模型的输出只能是 y∣xy|xyx

它的概率密度函数:

fY∣X(y)=12πσexp⁡(−(y−z)22σ2)=Aexp⁡(−B(y−z)2), A,B>0f_{Y|X}(y)=\frac{1}{\sqrt{2 \pi} \sigma} \exp(\frac{-(y -z)^2}{2\sigma^2}) \\ = A \exp(-B (y - z)^2), \, A, B > 0fYX(y)=2πσ1exp(2σ2(yz)2)=Aexp(B(yz)2),A,B>0

计算损失函数:

L=−∑ilog⁡fY∣X(y(i))=−∑i(log⁡A−B(y(i)−z(i))2)=B∑i(y(i)−z(i))2+CL = -\sum_i \log f_{Y|X}(y^{(i)}) \\ = -\sum_i(\log A - B(y^{(i)} - z^{(i)})^2) \\ = B \sum_i(y^{(i)} - z^{(i)})^2 + CL=ilogfYX(y(i))=i(logAB(y(i)z(i))2)=Bi(y(i)z(i))2+C

所以 min⁡L\min LminL 就相当于 min⁡(y(i)−z(i))2\min (y^{(i)} - z^{(i)})^2min(y(i)z(i))2。结果和最小二乘是一样的。

逻辑回归

z=wTx+b,a=σ(z)z = w^T x + b, a = \sigma(z)z=wTx+b,a=σ(z),我们观察到在假设中:

P(y=1∣x)=aP(y=0∣x)=1−aP(y=1|x) = a \\ P(y=0|x) = 1 - aP(y=1x)=aP(y=0x)=1a

也就是说:

y∣x∼B(1,a)y|x \sim B(1, a)yxB(1,a)

其实任何二分类器的输出都是伯努利分布。因为变量只能取两个值,加起来得一,所以只有一种分布。

它的概率质量函数(因为是离散分布,只有概率质量函数,不过无所谓):

pY∣X(y)=ay(1−a)1−yp_{Y|X}(y) = a^y(1-a)^{1-y}pYX(y)=ay(1a)1y

然后计算损失函数:

L=−∑ilog⁡pY∣X(y(i))=−∑i(y(i)log⁡a(i)+(1−y(i))log⁡(1−a(i)))L = -\sum_i \log p_{Y|X}(y^{(i)}) \\ = -\sum_i(y^{(i)} \log a^{(i)} + (1-y^{(i)})\log(1-a^{(i)}))L=ilogpYX(y(i))=i(y(i)loga(i)+(1y(i))log(1a(i)))

和交叉熵是一致的。

可以看出,在线性回归的场景下,MLE 等价于最小二乘,在逻辑回归的场景下,MLE 等价于交叉熵。但不一定 MLE 在所有模型中都是这样。

相关文章
|
机器学习/深度学习 资源调度 算法
【机器学习基础】对数几率回归(logistic回归)
【机器学习基础】对数几率回归(logistic回归)
370 0
|
机器学习/深度学习 数据挖掘
R实战|从文献入手谈谈logistic回归、Cox回归以及Lasso分析(一)
R实战|从文献入手谈谈logistic回归、Cox回归以及Lasso分析(一)
793 0
|
8月前
|
机器学习/深度学习 数据可视化
R语言MCMC的lme4二元对数Logistic逻辑回归混合效应模型分析吸烟、喝酒和赌博影响数据
R语言MCMC的lme4二元对数Logistic逻辑回归混合效应模型分析吸烟、喝酒和赌博影响数据
|
机器学习/深度学习 存储 算法
机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型(GMM)、自组织映射神经网络(SOM)
机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型(GMM)、自组织映射神经网络(SOM)
128 0
|
8月前
|
机器学习/深度学习 计算机视觉
数据分享|R语言GLM广义线性模型:逻辑回归、泊松回归拟合小鼠临床试验数据(剂量和反应)示例和自测题
数据分享|R语言GLM广义线性模型:逻辑回归、泊松回归拟合小鼠临床试验数据(剂量和反应)示例和自测题
|
8月前
|
机器学习/深度学习 数据可视化
R语言广义线性模型GLM、多项式回归和广义可加模型GAM预测泰坦尼克号幸存者
R语言广义线性模型GLM、多项式回归和广义可加模型GAM预测泰坦尼克号幸存者
|
8月前
|
算法 vr&ar Windows
R语言广义矩量法GMM和广义经验似然GEL估计ARMA、CAPM模型分析股票收益时间序列
R语言广义矩量法GMM和广义经验似然GEL估计ARMA、CAPM模型分析股票收益时间序列
|
8月前
|
机器学习/深度学习 算法 数据可视化
R语言逻辑回归和泊松回归模型对发生交通事故概率建模
R语言逻辑回归和泊松回归模型对发生交通事故概率建模
|
8月前
广义线性模型glm泊松回归的lasso、弹性网络分类预测学生考试成绩数据和交叉验证
广义线性模型glm泊松回归的lasso、弹性网络分类预测学生考试成绩数据和交叉验证
|
8月前
|
机器学习/深度学习 人工智能
R语言用神经网络改进Nelson-Siegel模型拟合收益率曲线分析
R语言用神经网络改进Nelson-Siegel模型拟合收益率曲线分析