第5章 线性回归模型
5.1 试分析在什么情况下,式fx=wTx+b 不必考虑偏置项b。
答:我的看法是,如果样本 x 中有某一个属性 xi 为固定值时,wixi+b 等价于偏置项。
即此时 wixi+b 与 b 等价,不必考虑偏置项b。
5.2为研究某化学反应过程中,温度x对产品得率y的影响,测得数据如下:
温度(℃) 100 110 120 130 140 150 160 170 180 190
得率(%) 45 51 54 61 66 70 74 78 85 89
根据上述实验数据,建立一元线性回归方程。当温度为200℃时,得率是多少。
解:首先计算相关系数:
rxy=xi-xyi-yxi-x2⋅yi-y2=0.998
可知y与x高度相关,可以使用回归模型:
设一元回归模型为:
y=wx+b
则:
w=10×101570-1450×67310×218500-14502=0.483
b=67310-0.483×145010=-2.735
所以,回归方程为:
y=0.483x-2.735
带入,x=200 ,得y=93.865
5.3 梯度下降法找到的一定是下降最快的方向么?
答: 不一定是,梯度下降只是‘局部最优下降’,梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的高维切平面上下降最快的方向。
5.4 判断下列说法是否正确,并说明理由。
(1)逻辑回归是监督机器学习的算法.
答:正确
逻辑回归(Logistic Regression,LR)是一种广义的线性回归分析模型, 它使用了真值对数据进行训练,需要打标数据,所以应该属于监督学习算法。
(2)逻辑回归主要用来做回归。
答:错误
逻辑回归可以用在回归、二分类和多分类等问题上,主要用来处理分类问题。
(3)在训练逻辑回归模型之前,对特征进行标准化是必须的。
答:错误
特征标准化的主要目的是实现模型的最优化,并不是必要过程。