pytorch中的线性回归

简介: pytorch中的线性回归

pytorch中的线性回归


简介:


线性回归是一种基本的机器学习模型,用于建立输入特征与连续输出之间的关系。它假设输入特征与输出之间的关系是线性的,并且尝试找到最佳的线性拟合,以最小化预测值与真实值之间的差距。


线性回归原理


在线性回归中,我们假设输入特征 X XX 与输出 Y YY之间的关系可以表示为:

image.png

其中,W是特征的权重(系数),b 是偏置项,用于调整输出值。我们的目标是找到最佳的W  和 b ,使得预测值Y ^ 与真实值 Y之间的误差最小化。通常使用最小化均方误差(Mean Squared Error,MSE)来衡量预测值与真实值之间的差距。


实现线性回归


在 PyTorch 中,我们可以利用自动求导功能和优化器来实现线性回归模型。下面是一个简单的线性回归示例代码:


我们的目的是:预测输入特征X与对应的真实标签Y之间的关系。

import torch
import matplotlib.pyplot as plt

# 输入数据
x_data = torch.tensor([[1.0], [2.0], [3.0], [4.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0], [8.0]])

# 定义线性回归模型
class LinearRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LinearRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)  # 输入维度为1,输出维度为1

    def forward(self, x):
        return self.linear(x)

model = LinearRegressionModel()

# 定义损失函数和优化器
criterion = torch.nn.MSELoss()  # 均方误差损失函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 随机梯度下降优化器

# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
    # 前向传播
    y_pred = model(x_data)
    
    # 计算损失
    loss = criterion(y_pred, y_data)
    
    # 反向传播与优化
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

# 输出训练后的参数
print("训练后的参数:")
print("W =", model.linear.weight.item())
print("b =", model.linear.bias.item())

# 绘制数据点
plt.scatter(x_data, y_data)
# 绘制回归线
plt.plot(x_data, model(x_data).detach().numpy(), 'r-', label='Regression Line')
plt.xlabel('X')
plt.ylabel('Y')
plt.title('Linear Regression')
plt.legend()
plt.show()
  • 运行结果

根据训练得到的参数,线性回归模型的方程为:

image.png

其中:

  • Y 是预测的因变量值,
  • -X 是自变量的值。


这意味着自变量 X 的变化每增加 1 单位,因变量 Y 的变化大约为 1.9862单位。此外,即使自变量 X 为 0 时,因变量 Y 也会接近 0.0405。


相关文章
|
2月前
|
机器学习/深度学习 文字识别 PyTorch
PyTorch内置损失函数汇总 !!
PyTorch内置损失函数汇总 !!
44 0
|
2月前
|
机器学习/深度学习 算法 PyTorch
用PyTorch轻松实现二分类:逻辑回归入门
用PyTorch轻松实现二分类:逻辑回归入门
用PyTorch轻松实现二分类:逻辑回归入门
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中的非线性回归
pytorch中的非线性回归
15 2
pytorch中的非线性回归
|
10月前
|
机器学习/深度学习 数据采集 PyTorch
Pytorch: autograd与逻辑回归的实现
Pytorch: autograd与逻辑回归的实现
68 0
Pytorch: autograd与逻辑回归的实现
|
9月前
|
机器学习/深度学习 API 算法框架/工具
一、线性回归的两种实现方式:(一)keras实现
一、线性回归的两种实现方式:(一)keras实现
|
9月前
|
机器学习/深度学习 算法 PyTorch
Linear Regression with PyTorch 用PyTorch实现线性回归
Linear Regression with PyTorch 用PyTorch实现线性回归
80 0
|
12月前
|
PyTorch 算法框架/工具 Python
基于Pytorch 框架手动完成线性回归
基于Pytorch 框架手动完成线性回归
78 0
|
机器学习/深度学习 PyTorch 算法框架/工具
使用Pytorch完成多分类问题
多分类问题在最后的输出层采用的Softmax Layer,其具有两个特点:1.每个输出的值都是在(0,1);2.所有值加起来和为1.
167 0
|
机器学习/深度学习 PyTorch 算法框架/工具
【Pytorch神经网络实战案例】04 使用Pytorch实现线性回归
【Pytorch神经网络实战案例】04 使用Pytorch实现线性回归
101 0
|
机器学习/深度学习 PyTorch 算法框架/工具
【Pytorch神经网络实战案例】05 使用Pytorch完成Logistic分类
【Pytorch神经网络实战案例】05 使用Pytorch完成Logistic分类
61 0

相关实验场景

更多