回归分析是统计分析中的一项基础且强大的工具,用于研究自变量(解释变量)与因变量(响应变量)之间的关系。线性回归作为回归分析的一种基本形式,广泛应用于各种领域的数据分析中。本文将详细介绍如何在R语言中构建和评估线性回归模型。
线性回归模型概述
线性回归模型旨在建立因变量Y与一个或多个自变量X之间的线性关系。其一般形式可以表示为:
$$ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \cdots + \beta_p X_p + \epsilon $$
其中,$\beta_0$ 是截距项,$\beta_1, \beta_2, \cdots, \beta_p$ 是回归系数,$\epsilon$ 是误差项,通常假设其服从正态分布 $N(0, \sigma^2)$。
数据准备
在进行线性回归之前,首先需要准备一组包含自变量和因变量的数据集。假设我们有一个名为 "dataset.csv" 的CSV文件,其中包含自变量X和因变量Y的观测值。我们可以使用R语言的 read.csv()
函数将数据读取到数据框中:
# 读取数据
data <- read.csv("dataset.csv")
线性回归模型的构建
在R语言中,构建线性回归模型最常用的函数是 lm()
。该函数的基本语法为:
model <- lm(formula, data)
其中,formula
是一个公式,指定了线性回归模型的形式;data
是包含自变量和因变量的数据框。
简单线性回归
对于简单线性回归(只有一个自变量),假设模型形式为 $Y = \beta_0 + \beta_1 X$,可以使用以下代码构建模型:
# 建立简单线性回归模型
model_simple <- lm(Y ~ X, data = data)
多元线性回归
如果模型包含多个自变量,比如 $Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2$,可以使用加号 +
将自变量分隔开:
# 建立多元线性回归模型
model_multiple <- lm(Y ~ X1 + X2, data = data)
模型评估
摘要输出
构建模型后,我们可以使用 summary()
函数查看模型的详细摘要信息,包括回归系数、标准误差、t值和p值等:
# 查看模型摘要
summary(model_simple)
回归系数
回归系数(截距和斜率)的估计值反映了自变量对因变量的影响方向和程度。例如,在简单线性回归中,斜率 $\beta_1$ 表示自变量X每增加一个单位时,因变量Y的平均变化量。
拟合优度
- R平方(R-squared):表示自变量对因变量变异的解释程度,取值范围从0到1,越接近1表示模型拟合效果越好。
- 调整后的R平方(Adjusted R-squared):考虑了自变量的数量,对R平方进行了调整,用于比较不同模型的拟合效果。
显著性检验
- t检验:用于检验每个回归系数是否显著不为零。p值小于显著性水平(通常为0.05)时,认为系数显著。
- F检验:用于检验整个模型是否显著,即所有自变量作为一个整体对因变量是否有显著影响。
残差分析
残差是实际观测值与模型预测值之间的差异。残差分析可以帮助我们评估模型的假设是否成立,比如误差项是否服从正态分布。
示例:分析汽车销售数据
假设我们有一组汽车销售数据,包含每辆车的重量(wt)和每加仑行驶英里数(mpg)。我们可以使用这些数据来构建线性回归模型,以探索重量对油耗的影响。
# 载入数据
mtcars2 <- mtcars[c("mpg", "wt")]
# 建立线性回归模型
fit <- lm(mpg ~ wt, data = mtcars2)
# 查看模型摘要
summary(fit)
模型摘要将显示回归系数、标准误差、t值和p值等,帮助我们评估模型的拟合效果和自变量的显著性。