Pytorch-张量形状操作

简介: PyTorch中,张量形状操作至关重要,如reshape用于改变维度而不变元素,transpose/permute用于维度交换,view改形状需内存连续,squeeze移除单维度,unsqueeze添加维度。这些函数帮助数据适应神经网络层间的转换。例如,reshape能调整数据适配层的输入,transpose用于矩阵转置或多维排列,而squeeze和unsqueeze则用于处理单维度。理解并熟练运用这些工具是深度学习中必要的技能。

接下来我们进入到pytorch的形状操作


介绍: 在搭建网络模型时,掌握对张量形状的操作是非常重要的,因为这直接影响到数据如何在网络各层之间传递和处理。网络层与层之间很多都是以不同的 shape 的方式进行表现和运算,我们需要掌握对张量形状的操作,以便能够更好处理网络各层之间的数据连接,确保数据能够顺利地在网络中流动,接下来我们看看几个常用的函数方法🌹


reshape 函数


💎reshape 函数可以在保证张量数据不变的前提下改变数据的维度,将其转换成指定的形状,在后面的神经网络学习时,会经常使用该函数来调节数据的形状,以适配不同网络层之间的数据传递。


import torch
 
# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])
print("原始张量:")
print(tensor)
# (2,2)
 
# 使用reshape函数修改张量形状
reshaped_tensor = tensor.reshape(1, 4)
print("修改后的张量:")
print(reshaped_tensor)
# (1,4)


当第二个参数为-1时,表示自动计算该维度的大小,以使得张量的元素总数不变,这样我们可以免去思考的时间。


import torch
 
# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])
print("原始张量:")
print(tensor)
 
# 使用reshape函数修改张量形状,第二个参数为-1
reshaped_tensor = tensor.reshape(1, -1)
print("修改后的张量:")
print(reshaped_tensor)
 
 
原始张量:
tensor([[1, 2],
        [3, 4]])
修改后的张量:
tensor([[1, 2, 3, 4]])


transpose 和 permute 函数


💎transpose 函数可以实现交换张量形状的指定维度,permute 函数可以一次交换更多的维度。


  • transpose:transpose用于交换张量的两个维度。它并不改变张量中元素的数量,也不改变每个元素的值,只是改变了元素在张量中的排列顺序。在二维情况下,transpose相当于矩阵的转置,将行变为列,列变为行。在多维情况下,它会按照提供的轴(dimension)参数来重新排列维度。
  • reshape:reshape则是改变张量的形状,而不改变任何特定的维度位置。你可以使用reshape将张量从一种形状变换到另一种形状,只要两个形状的元素总数相同。这个过程不涉及元素之间的交换,只是调整了元素在内存中的分布,以适应新的形状。在内部实现上,reshape通常通过修改张量的元数据(如shape和strides属性)来实现,而不需要重新排列数据本身。
  • 如果你需要保持张量中元素的相对位置不变,仅调整张量的维度顺序,那么应该使用transpose;如果你需要改变张量的整体形状而不关心维度的顺序,reshape会是正确的选择。


data = torch.tensor(np.random.randint(0, 10, [3, 4, 5]))
print('data shape:', data.size())
 
交换1和2维度
new_data = torch.transpose(data, 1, 2)
print('data shape:', new_data.size())
 
#将 data 的形状修改为 (4, 5, 3)
new_data = torch.transpose(data, 0, 1)
new_data = torch.transpose(new_data, 1, 2)
print('new_data shape:', new_data.size())
 
# 使用 permute 函数将形状修改为 (4, 5, 3)
new_data = torch.permute(data, [1, 2, 0])
print('new_data shape:', new_data.size())
 
# 结果
data shape: torch.Size([3, 4, 5])
data shape: torch.Size([3, 5, 4])
new_data shape: torch.Size([4, 5, 3])
new_data shape: torch.Size([4, 5, 3])


view 和 contigous 函数


💎view 函数也可以用于修改张量的形状,只能用于存储在整块内存中的张量。在 PyTorch 中,有些张量是由不同的数据块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理,如果张量存储在不连续的内存中,使用view函数会导致错误。在这种情况下,可以使用contiguous函数将张量复制到连续的内存中,然后再使用view函数进行形状修改。


import torch
 
# 创建一个张量
tensor = torch.randn(2, 3, 4)
 
# 使用view函数改变张量的形状
reshaped_tensor = tensor.view(6, 4)
 
# 使用contiguous函数使张量在内存中连续存储
contiguous_tensor = tensor.contiguous()


使用 transpose 函数修改形状或者 permute 函数的处理之后,就无法使用 view 函数进行形状操作,这时data.contiguous().view(2, 3)即可。


squeeze 和 unsqueeze 函数


💎squeeze函数用于移除张量中维度为1的轴,而unsqueeze函数则用于在指定位置插入一个新的维度


torch.squeeze(input, dim=None)


  • input: 输入张量。
  • dim: 可选参数,指定要移除的维度。如果不指定,则移除所有大小为1的维度。


import torch
 
A = torch.tensor([[[1, 2, 3], [4, 5, 6]]])
print(A.shape) # 输出:torch.Size([1, 2, 3])
B = torch.squeeze(A)
print(B.shape) # 输出:torch.Size([2, 3])
C = torch.squeeze(A, 0)
print(C.shape) # 输出:torch.Size([2, 3])
D = torch.squeeze(A, 1)
print(D.shape) # 输出:torch.Size([1, 3])


torch.unsqueeze(input, dim)


  • input: 输入张量。
  • dim: 指定要插入新维度的位置。


import torch
 
A = torch.tensor([1, 2, 3])
print(A.shape) # 输出:torch.Size([3])
B = torch.unsqueeze(A, 0)
print(B.shape) # 输出:torch.Size([1, 3])
C = torch.unsqueeze(A, 1)
print(C.shape) # 输出:torch.Size([3, 1])


🎰小结


  1. reshape函数可以在保证张量不变的前提下改变数据维度。
  2. transpose(转置)函数可以实现交换张量形状的指定维度,permute可以一次交换更多维度。
  3. view函数也可以用于修改张量的形状,但是他要求被转换的张量内存必须连续,所以一般配合contiguous(连续的)函数使用。
  4. squeeze(挤压)函数和unsqueeze函数可以用来增加或者减少维度。


相关文章
|
1月前
|
存储 并行计算 PyTorch
探索PyTorch:张量数值计算
探索PyTorch:张量数值计算
|
1月前
|
机器学习/深度学习 并行计算 PyTorch
探索PyTorch:张量的创建和数值计算
探索PyTorch:张量的创建和数值计算
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
|
1月前
|
PyTorch 算法框架/工具 Python
Pytorch学习笔记(十):Torch对张量的计算、Numpy对数组的计算、它们之间的转换
这篇文章是关于PyTorch张量和Numpy数组的计算方法及其相互转换的详细学习笔记。
33 0
|
3月前
|
机器学习/深度学习 人工智能 PyTorch
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:
62 4
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
|
3月前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
245 2
|
3月前
|
存储 PyTorch API
Pytorch入门—Tensors张量的学习
Pytorch入门—Tensors张量的学习
27 0
|
1月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
153 2
|
1月前
|
机器学习/深度学习 自然语言处理 监控
利用 PyTorch Lightning 搭建一个文本分类模型
利用 PyTorch Lightning 搭建一个文本分类模型
55 8
利用 PyTorch Lightning 搭建一个文本分类模型
|
1月前
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
51 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力