引言
线性回归是一种广泛使用的统计方法,用于探索两个或多个变量之间的关系。在本篇博文中,我们将通过一个简单的例子来展示如何使用Python实现线性回归模型,并探讨其背后的数学原理。我们将利用numpy
进行数据处理,以及matplotlib
来可视化结果。
数据准备
首先,我们需要一些数据来进行分析。这里我们假设有一组关于房屋面积与价格的数据集,我们可以用它来训练我们的线性回归模型。
import numpy as np
import matplotlib.pyplot as plt
# 假设数据集
areas = np.array([1000, 1500, 2000, 2500, 3000])
prices = np.array([100000, 150000, 200000, 260000, 310000])
# 绘制散点图查看数据分布
plt.scatter(areas, prices)
plt.xlabel('Area (sq ft)')
plt.ylabel('Price ($)')
plt.title('House Price vs Area')
plt.grid(True)
plt.show()
模型构建
接下来,我们要构建一个简单的线性回归模型。线性回归的目的是找到一条直线(一维情况下),使得所有数据点到这条直线的距离(残差)的平方和最小。这通常通过最小二乘法来实现。
为了简化起见,这里我们手动计算斜率(m)和截距(b),而不使用现成的库函数。斜率可以通过下面的公式计算:
[ m = \frac{\sum{(x_i - \bar{x})(y_i - \bar{y})}}{\sum{(x_i - \bar{x})^2}} ]
其中,( \bar{x} ) 和 ( \bar{y} ) 分别是 x 和 y 的平均值。
而截距 b 可以通过以下公式计算:
[ b = \bar{y} - m\bar{x} ]
def compute_coefficients(x, y):
# 计算x和y的均值
mean_x = np.mean(x)
mean_y = np.mean(y)
# 计算分子和分母
numerator = np.sum((x - mean_x) * (y - mean_y))
denominator = np.sum((x - mean_x)**2)
# 计算斜率m
m = numerator / denominator
# 计算截距b
b = mean_y - m*mean_x
return m, b
# 计算斜率和截距
m, b = compute_coefficients(areas, prices)
print(f'Slope: {m}, Intercept: {b}')
预测与可视化
最后,我们利用计算出的斜率和截距来进行预测,并绘制出回归线。
def predict(x, m, b):
return m * x + b
predicted_prices = predict(areas, m, b)
# 绘制原始数据点及回归线
plt.scatter(areas, prices, color='blue', label='Actual Data')
plt.plot(areas, predicted_prices, color='red', label='Regression Line')
plt.xlabel('Area (sq ft)')
plt.ylabel('Price ($)')
plt.title('House Price vs Area with Regression Line')
plt.legend()
plt.grid(True)
plt.show()
结论
通过上述步骤,我们不仅实现了线性回归模型,还了解了其背后的基本原理。线性回归是一个强大的工具,可以用于多种场景下的数据分析。虽然本例中使用的是最简单的一维情况,但在实际应用中,线性回归可以扩展到多维空间,处理更复杂的关系。
以上就是使用Python实现线性回归的一个简短教程。希望这能帮助那些对机器学习感兴趣的朋友入门。如果你有任何问题或者建议,请随时留言!