PyTorch核心--tensor 张量 !!

简介: PyTorch核心--tensor 张量 !!

前言

在PyTorch中,张量是核心数据结构,它是一个多维数组,类似Numpy中的数组。张量不仅仅是存储数据的容器,还是进行各种数学运算和深度学习操作的基础。

下面从3个方面做一共总结:

  1. 张量的概念
  2. 张量的原理
  3. 张量的操作

张量的概念

1. 张量的定义

张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。

在PyTorch中,张量是tensor.Tensor 的实例,可以通过不同的方式创建,如直接从Python列表、Numpy数组或通过特定函数生成。

import torch
 
# 创建一个标量
scalar_tensor = torch.tensor(3.14)
 
# 创建一个向量
vector_tensor = torch.tensor([1, 2, 3])
 
# 创建一个矩阵
matrix_tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])
 
# 创建一个3D张量
tensor_3d = torch.rand((2, 3, 4))  # 2行3列4深度

2. 张量的属性

每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。

# 获取张量的形状
shape = tensor_3d.shape
 
# 获取张量的数据类型
dtype = tensor_3d.dtype
 
# 获取张量所在的设备
device = tensor_3d.device

3. 张量的形状

张量的形状定义了其维度和每个维度上的大小。例如,形状为(2,3,4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。

# 获取张量的形状
shape = tensor_3d.shape
 
# 改变张量的形状
reshaped_tensor = tensor_3d.view(3, 8)  # 将原始形状(2, 3, 4)变为(3, 8)

张量的原理

PyTorch中的张量是基于Tensor类实现的,它提供了对底层存储的抽象。

张量包含三个主要组件:

  • 存储(storage)
  • 形状(shape)
  • 步幅(stride)

1. 存储(storage)

存储是实际存储数据的地方,它是一块连续的内存区域。多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。

# 获取张量的存储
storage = tensor_3d.storage()

2. 形状(shape)

张量的形状定义了其维度和每个维度上的大小。形状信息有助于解释存储中数据的组织方式。

# 获取张量的形状
shape = tensor_3d.shape

3. 步幅(stride)

步幅是指在存储中移动到下一个元素所需的步数。了解步幅有助于理解在张量中进行索引和切片时的性能。

# 获取张量的步幅
stride = tensor_3d.stride()

张量的操作

PyTorch提供了丰富的张量操作,包括数学运算、逻辑运算、索引和切片等。

这里列举最常见的几种操作:

1. 数学运算

# 加法
result_add = tensor_3d + 2
 
# 乘法
result_mul = tensor_3d * 3
 
# 矩阵乘法
matrix_a = torch.rand((2, 3))
matrix_b = torch.rand((3, 4))
result_matmul = torch.mm(matrix_a, matrix_b)

2. 逻辑运算

# 大小比较
result_compare = tensor_3d > 0.5
 
# 逻辑运算
result_logical = torch.logical_and(result_add, result_compare)

3. 索引和切片

# 索引
element = tensor_3d[0, 1, 2]
 
# 切片
sliced_tensor = tensor_3d[:, 1:3, :]

4. 形状操作

# 改变形状
reshaped_tensor = tensor_3d.view(3, 8)
 
# 转置
transposed_tensor = tensor_3d.transpose(0, 2)

5. 广播

广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。

# 广播
tensor_a = torch.rand((1, 3, 1))
tensor_b = torch.rand((2, 1, 4))
result_broadcast = tensor_a + tensor_b

总结

张量作为深度学习中的基本数据结构,对于理解和实现神经网络非常关键。

来源:DOWHA小壮

目录
相关文章
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|
1月前
|
存储 并行计算 PyTorch
探索PyTorch:张量数值计算
探索PyTorch:张量数值计算
|
1月前
|
机器学习/深度学习 并行计算 PyTorch
探索PyTorch:张量的创建和数值计算
探索PyTorch:张量的创建和数值计算
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
|
1月前
|
PyTorch 算法框架/工具 Python
Pytorch学习笔记(十):Torch对张量的计算、Numpy对数组的计算、它们之间的转换
这篇文章是关于PyTorch张量和Numpy数组的计算方法及其相互转换的详细学习笔记。
34 0
|
3月前
|
机器学习/深度学习 人工智能 PyTorch
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:
63 4
掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析
|
3月前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
246 2
|
3月前
|
PyTorch 算法框架/工具
【Pytorch】解决Fan in and fan out can not be computed for tensor with fewer than 2 dimensions
本文提供了两种解决PyTorch中由于torchtext版本问题导致的“Fan in and fan out can not be computed for tensor with fewer than 2 dimensions”错误的方法。
84 2
|
3月前
|
存储 PyTorch API
Pytorch入门—Tensors张量的学习
Pytorch入门—Tensors张量的学习
29 0
|
5月前
|
算法 PyTorch 算法框架/工具
Pytorch - 张量转换拼接
使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组,但是共享内存,可以使用 copy 函数避免共享。

热门文章

最新文章