Pytorch实现机器学习之线性回归2.0

简介: Pytorch实现机器学习之线性回归2.0

一、Pytorch实现机器学习之线性回归1.0,特点在利用tensor手动实现线性回归反向传播。

点击打开《Pytorch实现机器学习之线性回归》文章

二、Pytorch实现机器学习之线性回归2.0,特点在利用autograd和Variable实现线性回归,并且反向传播自动调用backward实现。

import torch as t
from matplotlib import pyplot as plt
from IPython import display
from torch.autograd import Variable as V
t.manual_seed(10) # 设置随机数种子
def get_randn_data(batch_size=8):
    """产生随机数x并给线性函数y=2x+3加上噪声,便于后面学习能否贴近结果"""
    x = t.randn(batch_size,1)*20
    y = x * 2 + (1 + t.randn(batch_size,1))*3
    return x,y
# 随机初始化参数w和零初始化参数b,variable格式
w = V(t.randn(1,1),requires_grad=True)
b = V(t.zeros(1,1),requires_grad=True)
# 设置学习率或者步长
lr = 0.0001
# 创建列表分别存储参数w和b的变化值
listw = []
listb = []
for count in range(20000): # 训练20000次并测试输出
    # 训练过程
    x,y = get_randn_data() # x,y都是真实数据也就是实际值
    x,y = V(x),V(y) # tensor转换成variable
    # 前向传播,从头往后传到得出预测值,再得出损失函数下损失值
    y_p = x.mm(w) + b.expand_as(y) # 实现的就是通过参数w和b和因变量x计算预测值y_p = wx + b
    loss = 0.5 * (y_p - y) ** 2 # 实现的就是计算损失函数的损失值loss = 1/2(y_p - y) ** 2
    loss = loss.sum() # loss为variable格式,所以要计算损失函数的值需要全部加起来得出总和
    # 反向传播,自行计算梯度
    # loss.backward(t.ones(loss.size())) # 当loss非一维variable时采用
    loss.backward()
    # 相减实现梯度下降,更新参数w和b,因为variable本身不能实现inplace操作,所以要将w和b从variable转换成tensor,data存储是tensor
    w.data.sub_(lr * w.grad.data)
    b.data.sub_(lr * b.grad.data)
    # 梯度清零
    w.grad.data.zero_()
    b.grad.data.zero_()
    # 测试输出过程
    # 每训练1000次输出训练实现预测结果一次,画图(线和散点)
    if count % 1000 == 0:
        # 设置画图中横纵坐标的范围
        plt.xlim(0,20)
        plt.ylim(0,45)
        display.clear_output(wait=True) # 清空并显示实时数据动态表示
        # 训练得到的函数模型显示的线性图形
        x1 = t.arange(0,20).view(-1,1) # view为-1时会tensor根据元素自动计算维度大小
        x1 = x1.float()
        y1 = x1.mm(w.data) + b.data.expand_as(x1) # 计算需要的是tensor格式而非variable
        plt.plot(x1.squeeze().numpy(),y1.squeeze().numpy())
        # 随机生成的测试数据,用来检验函数模型是否匹配随机测试数据点状图形
        x2,y2 = get_randn_data(batch_size=20)
        plt.scatter(x2.squeeze().numpy(),y2.squeeze().numpy())
        # 图像输出并在2秒后自动关闭
        plt.show(block=False)
        plt.pause(2)
        plt.close()
        # 输出每次训练后的模型参数w和b的值,也可以看出w和b的变化趋势
        # print(w.squeeze().numpy(), b.squeeze().numpy())
        # 收集参数w和b每次训练变化的值,实现后面参数值线性回归变化点状图的显示
        listw.append((w.data.squeeze().numpy().tolist())) # tensor->numpy->list
        listb.append((b.data.squeeze().numpy().tolist()))
# 参数值线性回归变化点状图的显示
plt.title("Point diagram of linear regression change of parameter value")
plt.xlabel("parameter w")
plt.ylabel("parameter b")
plt.scatter(listw,listb)
plt.show(block=False)
plt.pause(10)
plt.close()

三、代码理解过程中可能需要用到的文章如下:

1.python以三维tensor为例详细理解unsqueeze和squeeze函数

2.Pytorch中设计随机数种子的必要性

3.Pytorch中autograd.Variable.backward的grad_varables参数个人理解浅见


相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
|
8天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【Python机器学习专栏】PyTorch在深度学习中的应用
【4月更文挑战第30天】PyTorch是流行的开源深度学习框架,基于动态计算图,易于使用且灵活。它支持张量操作、自动求导、优化器和神经网络模块,适合快速实验和模型训练。PyTorch的优势在于易用性、灵活性、社区支持和高性能(利用GPU加速)。通过Python示例展示了如何构建和训练神经网络。作为一个强大且不断发展的工具,PyTorch适用于各种深度学习任务。
|
8天前
|
机器学习/深度学习 算法 数据挖掘
【Python 机器学习专栏】Python 中的线性回归模型详解
【4月更文挑战第30天】本文介绍了Python中的线性回归模型,包括基本原理、实现步骤和应用。线性回归假设因变量与自变量间存在线性关系,通过建立数学模型进行预测。实现过程涉及数据准备、模型构建、参数估计、评估和预测。常用的Python库有Scikit-learn和Statsmodels。线性回归简单易懂,广泛应用,但对异常值敏感且假设线性关系。其扩展形式如多元线性、多项式回归和正则化方法能适应不同场景。理解并运用线性回归有助于数据分析和预测。
|
21天前
|
机器学习/深度学习 监控 PyTorch
PyTorch模型训练:优化器与损失函数的选择
【4月更文挑战第17天】PyTorch中的优化器(如SGD, Adam, RMSprop)和损失函数(如MSE Loss, Cross Entropy Loss)对模型训练效果有显著影响。优化器选择应基于任务复杂度和数据规模,SGD适合简单任务,而Adam和RMSprop适用于复杂情况。损失函数选择依赖于任务类型,MSE Loss用于回归,Cross Entropy Loss用于分类。实践中,应尝试不同组合,调整学习率,监控训练过程,并使用验证集优化模型。
|
21天前
|
机器学习/深度学习 PyTorch 算法框架/工具
Python中用PyTorch机器学习神经网络分类预测银行客户流失模型
Python中用PyTorch机器学习神经网络分类预测银行客户流失模型
|
22天前
|
机器学习/深度学习 人工智能 分布式计算
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
|
26天前
|
机器学习/深度学习 人工智能 自然语言处理
|
2月前
|
机器学习/深度学习 算法 PyTorch
基于Pytorch的机器学习Regression问题实例(附源码)
基于Pytorch的机器学习Regression问题实例(附源码)
34 1
|
3月前
|
机器学习/深度学习 人工智能 算法
利用Python实现简单的机器学习算法——线性回归
本文介绍了如何使用Python语言和相关库,通过实现线性回归算法来进行简单的机器学习模型训练和预测。通过详细的代码示例和解释,帮助读者了解机器学习中的基础概念和实践操作。
|
4月前
|
机器学习/深度学习 PyTorch 语音技术
Pytorch迁移学习使用Resnet50进行模型训练预测猫狗二分类
深度学习在图像分类、目标检测、语音识别等领域取得了重大突破,但是随着网络层数的增加,梯度消失和梯度爆炸问题逐渐凸显。随着层数的增加,梯度信息在反向传播过程中逐渐变小,导致网络难以收敛。同时,梯度爆炸问题也会导致网络的参数更新过大,无法正常收敛。 为了解决这些问题,ResNet提出了一个创新的思路:引入残差块(Residual Block)。残差块的设计允许网络学习残差映射,从而减轻了梯度消失问题,使得网络更容易训练。
103 0