pytorch中的线性回归

简介: pytorch中的线性回归

pytorch中的线性回归


简介:


线性回归是一种基本的机器学习模型,用于建立输入特征与连续输出之间的关系。它假设输入特征与输出之间的关系是线性的,并且尝试找到最佳的线性拟合,以最小化预测值与真实值之间的差距。


线性回归原理


在线性回归中,我们假设输入特征 X XX 与输出 Y YY之间的关系可以表示为:

image.png

其中,W是特征的权重(系数),b 是偏置项,用于调整输出值。我们的目标是找到最佳的W  和 b ,使得预测值Y ^ 与真实值 Y之间的误差最小化。通常使用最小化均方误差(Mean Squared Error,MSE)来衡量预测值与真实值之间的差距。


实现线性回归


在 PyTorch 中,我们可以利用自动求导功能和优化器来实现线性回归模型。下面是一个简单的线性回归示例代码:


我们的目的是:预测输入特征X与对应的真实标签Y之间的关系。

import torch
import matplotlib.pyplot as plt

# 输入数据
x_data = torch.tensor([[1.0], [2.0], [3.0], [4.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0], [8.0]])

# 定义线性回归模型
class LinearRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LinearRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)  # 输入维度为1,输出维度为1

    def forward(self, x):
        return self.linear(x)

model = LinearRegressionModel()

# 定义损失函数和优化器
criterion = torch.nn.MSELoss()  # 均方误差损失函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 随机梯度下降优化器

# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
    # 前向传播
    y_pred = model(x_data)
    
    # 计算损失
    loss = criterion(y_pred, y_data)
    
    # 反向传播与优化
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

# 输出训练后的参数
print("训练后的参数:")
print("W =", model.linear.weight.item())
print("b =", model.linear.bias.item())

# 绘制数据点
plt.scatter(x_data, y_data)
# 绘制回归线
plt.plot(x_data, model(x_data).detach().numpy(), 'r-', label='Regression Line')
plt.xlabel('X')
plt.ylabel('Y')
plt.title('Linear Regression')
plt.legend()
plt.show()
  • 运行结果

根据训练得到的参数,线性回归模型的方程为:

image.png

其中:

  • Y 是预测的因变量值,
  • -X 是自变量的值。


这意味着自变量 X 的变化每增加 1 单位,因变量 Y 的变化大约为 1.9862单位。此外,即使自变量 X 为 0 时,因变量 Y 也会接近 0.0405。


相关文章
|
机器学习/深度学习 并行计算 PyTorch
Python和PyTorch深入实现线性回归模型:一篇文章全面掌握基础机器学习技术
Python和PyTorch深入实现线性回归模型:一篇文章全面掌握基础机器学习技术
218 0
|
6月前
|
机器学习/深度学习 算法 PyTorch
Pytorch实现线性回归模型
在机器学习和深度学习领域,线性回归是一种基本且广泛应用的算法,它简单易懂但功能强大,常作为更复杂模型的基础。使用PyTorch实现线性回归,不仅帮助初学者理解模型概念,还为探索高级模型奠定了基础。代码示例中,`creat_data()` 函数生成线性回归数据,包括噪声,`linear_regression()` 定义了线性模型,`square_loss()` 计算损失,而 `sgd()` 实现了梯度下降优化。
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
C++多态崩溃问题之在PyTorch中,如何定义一个简单的线性回归模型
C++多态崩溃问题之在PyTorch中,如何定义一个简单的线性回归模型
|
6月前
|
PyTorch 算法框架/工具
5、使用PyTorch 实现线性回归
5、使用PyTorch 实现线性回归
560 0
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中的非线性回归
pytorch中的非线性回归
117 2
pytorch中的非线性回归
|
7月前
|
机器学习/深度学习 自然语言处理 算法
PyTorch实例:简单线性回归的训练和反向传播解析
PyTorch实例:简单线性回归的训练和反向传播解析
PyTorch实例:简单线性回归的训练和反向传播解析
|
机器学习/深度学习 数据挖掘 PyTorch
PyTorch深度学习实战 | 预测工资——线性回归
通过员工工作年限与工资的对应关系表,找出二者之间的关系,并预测在指定的年限时,工资会有多少。
1022 0
PyTorch深度学习实战 | 预测工资——线性回归
|
机器学习/深度学习 算法 PyTorch
Linear Regression with PyTorch 用PyTorch实现线性回归
Linear Regression with PyTorch 用PyTorch实现线性回归
129 0

相关实验场景

更多