PyTorch-张量

简介: PyTorch 是Facebook AI团队开发的深度学习框架,其核心是张量,它是同类型数据的多维数组。张量可以通过`torch.tensor()`、`torch.Tensor()`、指定类型如`IntTensor`等创建。张量操作包括线性(`torch.arange`, `torch.linspace`)、随机(`torch.randn`, `torch.manual_seed`)和全0/1张量(`torch.zeros`, `torch.ones`)。张量间可进行阿达玛积(逐元素相乘),类型转换用`type()`或`double()`。

📀PyTorch是一个开源的深度学习框架,由Facebook的人工智能研究团队开发,专为深度学习研究和开发而设计。PyTorch 中的张量就是元素为同一种数据类型的多维矩阵。在 PyTorch 中,张量以 "类" 的形式封装起来,对张量的一些运算、处理的方法被封装在类中。


基本创建方式  


  1. torch.tensor 根据指定数据创建张量
  2. torch.Tensor 根据形状创建张量, 其也可用来创建指定数据的张量
  3. torch.IntTensor、torch.FloatTensor、torch.DoubleTensor 创建指定类型的张量


import torch
 
data = [1, 2, 3]
tensor = torch.tensor(data)
print(tensor)


import torch
 
shape = (2, 3)
tensor = torch.Tensor(*shape)
print(tensor)


import torch
 
int_tensor = torch.IntTensor([1, 2, 3])
float_tensor = torch.FloatTensor([1.0, 2.0, 3.0])
double_tensor = torch.DoubleTensor([1.0, 2.0, 3.0])
 
print(int_tensor)
print(float_tensor)
print(double_tensor)

创建线性和随机张量


  1. torch.arange 和 torch.linspace 创建线性张量
  2. torch.random.init_seed 和 torch.random.manual_seed 随机种子设置
  3. torch.randn 创建随机张量


import torch

start = 0

end = 10

step = 2

linear_tensor = torch.arange(start, end, step)

print(linear_tensor)



import torch


start = 0

end = 1

steps = 5

linear_tensor = torch.linspace(start, end, steps)

print(linear_tensor)


创建01张量


  • torch.ones 和 torch.ones_like 创建全1张量
  • torch.zeros 和 torch.zeros_like 创建全0张量
  • torch.full 和 torch.full_like 创建全为指定值张量


import torch
 
shape = (3, 3)
zero_tensor = torch.zeros(*shape)
print(zero_tensor)
 
 
shape = (3, 3)
one_tensor = torch.ones(*shape)
print(one_tensor)


张量元素类型转换


  • tensor.type(torch.DoubleTensor)
  • torch.double()


import torch
 
tensor = torch.FloatTensor([1, 2, 3])
double_tensor = tensor.type(torch.DoubleTensor)
print(double_tensor)
 
 
tensor = torch.FloatTensor([1, 2, 3])
double_tensor = torch.double(tensor)
print(double_tensor)


阿达玛积


阿达玛积指的是矩阵对应位置的元素相乘;


阿达玛积是对两个矩阵或张量对应位置上的元素进行相乘,这种操作在神经网络中常用于权重的调整或其他逐元素的变换。要进行阿达玛积运算,两个矩阵或张量的维度必须相匹配,即它们必须有相同的形状。这是进行阿达玛积的前提条件。阿达玛积满足乘法的结合律、左分配律和右分配律,这些性质使得它在数学推导和算法设计中非常有用。在深度学习中,阿达玛积常用于激活函数的计算、权重更新以及在一些特定的层中,如注意力机制中的权重计算等。与矩阵乘法不同,阿达玛积不是基于矩阵的行和列的乘法,而是基于单个元素的乘法。这使得阿达玛积在某些情况下更为直观和易于理解。


import numpy as np
import torch
 
 
def test():
 
    data1 = torch.tensor([[1, 2], [3, 4]])
    data2 = torch.tensor([[5, 6], [7, 8]])
 
    # 第一种方式
    data = torch.mul(data1, data2)
    print(data)
    print('-' * 50)
 
    # 第二种方式
    data = data1 * data2
    print(data)
    print('-' * 50)
 
 
if __name__ == '__main__':
    test()


程序输出结果


tensor([[ 5, 12], [21, 32]])

tensor([[ 5, 12], [21, 32]])


张量数值计算


📀PyTorch 计算的数据都是以张量形式存在, 我们需要掌握张量各种运算。我们可以在 CPU 中运算, 也可以在 GPU 中运算。


  • CPU上创建张量


import torch
tensor_cpu = torch.tensor([1, 2, 3]) 


  • 在 GPU 上创建张量(如果 GPU 可用):


tensor_gpu = tensor_cpu.to('cuda')


PyTorch 默认会将张量创建在 CPU 控制的内存中, 即: 默认的运算设备为 CPU。我们也可以将张量创建在 GPU 上, 能够利用对于矩阵计算的优势加快模型训练。将张量移动到 GPU 上有如下方法: 1. 使用 cuda 方法 2. 直接在 GPU 上创建张量 3. 使用 to 方法指定设备。


张量的基本运算包括多种操作:


  1. 加法和减法:两个同阶张量可以进行元素对元素的加法和减法运算。
  2. 标量乘法:一个标量可以与任何阶的张量相乘,结果是将原张量的每个元素乘以该标量。
  3. 点积(内积):两个张量的点积通常是指它们之间的逐元素乘法后求和。
  4. 外积:两个向量的外积会产生一个矩阵,其中每个元素是第一个向量的元素与第二个向量的元素的乘积。
  5. 张量积(Kronecker积):用于组合两个张量来创建一个新的高阶张量。
  6. 特定运算:包括对称张量的运算、反对称张量的运算、迹运算等。


以下是使用 PyTorch 进行张量基本运算的代码案例:  


import torch
 
# 创建张量
x = torch.tensor([1, 2, 3])
y = torch.tensor([4, 5, 6])
 
# 加法
result_add = torch.add(x, y)
print("Addition:", result_add)
 
# 减法
result_sub = torch.sub(x, y)
print("Subtraction:", result_sub)
 
# 乘法
result_mul = torch.mul(x, y)
print("Multiplication:", result_mul)
 
# 除法
result_div = torch.div(x, y)
print("Division:", result_div)
 
# 取负数
result_neg = torch.neg(x)
print("Negation:", result_neg)
 
# inplace 加法
x.add_(y)
print("Inplace Addition:", x)
 
# inplace 减法
x.sub_(y)
print("Inplace Subtraction:", x)
 
# inplace 乘法
x.mul_(y)
print("Inplace Multiplication:", x)
 
# inplace 除法
x.div_(y)
print("Inplace Division:", x)
 
# inplace 取负数
x.neg_()
print("Inplace Negation:", x)


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|
2月前
|
存储 并行计算 PyTorch
探索PyTorch:张量数值计算
探索PyTorch:张量数值计算
|
2月前
|
机器学习/深度学习 并行计算 PyTorch
探索PyTorch:张量的创建和数值计算
探索PyTorch:张量的创建和数值计算
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
|
2月前
|
PyTorch 算法框架/工具 Python
Pytorch学习笔记(十):Torch对张量的计算、Numpy对数组的计算、它们之间的转换
这篇文章是关于PyTorch张量和Numpy数组的计算方法及其相互转换的详细学习笔记。
46 0
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:
80 4
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
|
4月前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
284 2
|
4月前
|
存储 PyTorch API
Pytorch入门—Tensors张量的学习
Pytorch入门—Tensors张量的学习
33 0
|
6月前
|
算法 PyTorch 算法框架/工具
Pytorch - 张量转换拼接
使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组,但是共享内存,可以使用 copy 函数避免共享。
|
6月前
|
存储 机器学习/深度学习 PyTorch
Pytorch-张量形状操作
PyTorch中,张量形状操作至关重要,如reshape用于改变维度而不变元素,transpose/permute用于维度交换,view改形状需内存连续,squeeze移除单维度,unsqueeze添加维度。这些函数帮助数据适应神经网络层间的转换。例如,reshape能调整数据适配层的输入,transpose用于矩阵转置或多维排列,而squeeze和unsqueeze则用于处理单维度。理解并熟练运用这些工具是深度学习中必要的技能。