PyTorch: 张量的变换、数学运算及线性回归

简介: PyTorch: 张量的变换、数学运算及线性回归
本文已收录于Pytorch系列专栏: Pytorch入门与实践 专栏旨在详解Pytorch,精炼地总结重点,面向入门学习者,掌握Pytorch框架,为数据分析,机器学习及深度学习的代码能力打下坚实的基础。免费订阅,持续更新。

张量变换

1.torch.reshape

torch.reshape(input,shape)

功能:变换张量形状

注意事项:当张量在内存中是连续时,新张量与 input 共享数据内存

  • input : 要变换的张量
  • shape 新张量的形状

code:

t = torch.randperm(8)
t_reshape = torch.reshape(t, (-1, 2, 2))    # -1表示该维度不用关心,是由其他几个维度计算而来的
print("t:{}\nt_reshape:\n{}".format(t, t_reshape))

t[0] = 1024
print("t:{}\nt_reshape:\n{}".format(t, t_reshape))
print("t.data 内存地址:{}".format(id(t.data)))
print("t_reshape.data 内存地址:{}".format(id(t_reshape.data)))

改变其中一个数,另一个张量随之改变,可见是内存共享的。

t:tensor([5, 4, 2, 6, 7, 3, 1, 0])
t_reshape:
tensor([[[5, 4],
         [2, 6]],

        [[7, 3],
         [1, 0]]])
t:tensor([1024,    4,    2,    6,    7,    3,    1,    0])
t_reshape:
tensor([[[1024,    4],
         [   2,    6]],

        [[   7,    3],
         [   1,    0]]])
t.data 内存地址:2030792110712
t_reshape.data 内存地址:2030792110712

2.torch.transpose

torch.transpose(input, dim0, dim1)

功能:交换张量的两个维度

  • input : 要变换的张量
  • dim0 要交换的维度
  • dim1 要交换的维度

code

# torch.transpose
    t = torch.rand((2, 3, 4))
    t_transpose = torch.transpose(t, dim0=1, dim1=2)    # c*h*w     h*w*c
    print("t shape:{}\nt_transpose shape: {}".format(t.shape, t_transpose.shape))
t shape:torch.Size([2, 3, 4])
t_transpose shape: torch.Size([2, 4, 3])

3.torch.t()

torch.t(input)

功能:2 维张量转置,对矩阵而言,等价于torch.transpose(input, 0, 1)

4.torch.squeeze()

torch.squeeze(input, dim=None, out=None)

功能:压缩长度为 1 的维度(轴)

  • dim : 若为 None ,移除所有长度为 1 的轴;若指定维度,当且仅当该轴长度为 1 时,可以被移除;

5.torch.unsqueeze()

torch.usqueeze(input, dim, out=None)

功能:

  • 依据dim 扩展维度
  • dim : 扩展的维度, 这个维度就是1了

张量的数学运算

1.加减乘除

  • torch.add()

    torch.add(input, alpha=1, other, out=None)

    功能:逐元素计算 input+alpha × other

    • input : 第一个张量
    • alpha : 乘项因子
    • other : 第二个张量
  • torch.addcdiv()加法集合除法

    $\text { out }_{i}=\text { input }_{i}+\text { value } \times \frac{\text { tensor }_{i}}{\text { tensor } 2_{i}}$

  • torch.addcmul()加法集合乘法

    torch.addcmul(input, value=1, tensor1, tensor2,out= None)

    $\text { out }_{i}=\text { input }_{i}+\text { value } \times \text { tensor }_{i} \times \text { tensor }_{i}$

  • torch.sub()
  • torch.mul()

code:

t_0 = torch.randn((3, 3))
t_1 = torch.ones_like(t_0)
t_add = torch.add(t_0, 10, t_1)

print("t_0:\n{}\nt_1:\n{}\nt_add_10:\n{}".format(t_0, t_1, t_add))
t_0:
tensor([[ 0.6614,  0.2669,  0.0617],
        [ 0.6213, -0.4519, -0.1661],
        [-1.5228,  0.3817, -1.0276]])
t_1:
tensor([[1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.]])
t_add_10:
tensor([[10.6614, 10.2669, 10.0617],
        [10.6213,  9.5481,  9.8339],
        [ 8.4772, 10.3817,  8.9724]])

Process finished with exit code 0

2.对数,指数,幂函数

  • torch.log(input, out=None)
  • torch,log10(input, out=None)
  • torch.log2(input, out=None)
  • torch.exp(input, out=None)
  • torch.pow(input, out=None)

3.三角函数

  • torch.abs(input, out=None)
  • torch.acos(input, out=None)
  • torch.cosh(input, out=None)
  • torch.cos(input, out=None)
  • torch.asin(input, out=None)
  • torch.atan(input, out=None)
  • torch.atan2(input, other, out=None)

应用:线性回归

线性回归是分析一个变量与另外一(多)个变量之间关系的方法。

因变量:y

自变量 x

关系 :线性 y =wx + b

分析:求解 w b

求解步骤

  1. 确定模型 Model:y = wx + b
  2. 选择损失函数 MSE:$\frac{1}{m} \sum_{i=1}^{m}\left(y_{i}-\hat{y}_{i}\right)$
  3. 求解梯度并更新 w,b

    w = w-LR * w.grad
    b = b-LR * w.grad

code:

import torch
import matplotlib.pyplot as plt
torch.manual_seed(10)

lr = 0.05

# Create training data
x = torch.rand(20, 1) * 10  # x data (tensor), shape=(20, 1)
y = 2*x + (5 + torch.randn(20, 1))  # y data (tensor), shape=(20, 1)

# Build Linear Regression Parameters
# Initialize w and b, where w is initialized to a normal distribution and b is initialized to 0
# Automatic differentiation is required, so set requires grad to True.
w = torch.randn((1), requires_grad=True)
b = torch.zeros((1), requires_grad=True)

for iteration in range(1000):

    # forward propagation
    wx = torch.mul(w, x)
    y_pred = torch.add(wx, b)

    # Calculate MSE loss
    loss = (0.5 * (y - y_pred) ** 2).mean()

    # backpropagation
    loss.backward()

    # update parameters
    b.data.sub_(lr * b.grad)
    w.data.sub_(lr * w.grad)

    # zeroing out the gradient of a tensor
    w.grad.zero_()
    b.grad.zero_()

    # Draw
    if iteration % 20 == 0:

        plt.scatter(x.data.numpy(), y.data.numpy())
        plt.plot(x.data.numpy(), y_pred.data.numpy(), 'r-', lw=5)
        plt.text(2, 20, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color':  'red'})
        plt.xlim(1.5, 10)
        plt.ylim(8, 28)
        plt.title("Iteration: {}\nw: {} b: {}".format(iteration, w.data.numpy(), b.data.numpy()))
        plt.pause(0.5)

        if loss.data.numpy() < 1:
            break

可以看到,经过不断地迭代之后。逐渐收敛,当Loss值小于1时停止迭代。

目录
相关文章
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch基础之张量模块数据类型、基本操作、与Numpy数组的操作详解(附源码 简单全面)
PyTorch基础之张量模块数据类型、基本操作、与Numpy数组的操作详解(附源码 简单全面)
36 0
|
8月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
149 0
Pytorch学习笔记(1):基本概念、安装、张量操作、逻辑回归
|
7月前
|
机器学习/深度学习 并行计算 PyTorch
Python和PyTorch深入实现线性回归模型:一篇文章全面掌握基础机器学习技术
Python和PyTorch深入实现线性回归模型:一篇文章全面掌握基础机器学习技术
167 0
|
11天前
|
机器学习/深度学习 存储 PyTorch
PyTorch深度学习基础:张量(Tensor)详解
【4月更文挑战第17天】本文详细介绍了PyTorch中的张量,它是构建和操作深度学习数据的核心。张量是多维数组,用于存储和变换数据。PyTorch支持CPU和GPU张量,后者能加速大规模数据处理。创建张量可通过`torch.zeros()`、`torch.rand()`或直接从Python列表转换。张量操作包括数学运算、切片和拼接。在深度学习中,张量用于神经网络模型的构建和训练。理解张量对于掌握PyTorch至关重要。
|
1月前
|
存储 机器学习/深度学习 PyTorch
PyTorch核心--tensor 张量 !!
PyTorch核心--tensor 张量 !!
31 1
|
1月前
|
数据可视化 PyTorch 算法框架/工具
Pytorch中张量的高级选择操作
在某些情况下,我们需要用Pytorch做一些高级的索引/选择,所以在这篇文章中,我们将介绍这类任务的三种最常见的方法:torch.index_select, torch.gather and torch.take
39 0
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch的10个基本张量操作
PyTorch是一个基于python的科学计算包。它的灵活性允许轻松集成新的数据类型和算法,并且框架也是高效和可扩展的,下面我们将介绍一些Pytorch的基本张量操作。
76 1
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【深度学习】Pytorch Tensor 张量
【1月更文挑战第26天】【深度学习】Pytorch Tensor 张量
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【深度学习】Pytorch Tensor 张量
【1月更文挑战第10天】【深度学习】Pytorch Tensor 张量