【Pytorch神经网络理论篇】 01 Pytorch快速上手(一)概述+张量

简介: Pytorch是基于Torch之上的python包,在底层主要通过张量的形式进行计算,Pytorch中的张量表示为同一数据类型的多位橘子。

同学你好!本文章于2021年末编写,获得广泛的好评!


故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现,


Pytorch深度学习·理论篇(2023版)目录地址为:


CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录


本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理进行讲解与分析,通过将深度学习知识与Pytorch的高效结合,帮助各位新入门的读者理解深度学习各个模板之间的关系,这些均是在Pytorch上实现的,可以有效的结合当前各位研究生的研究方向,设计人工智能的各个领域,是经过一年时间打磨的精品专栏!

https://v9999.blog.csdn.net/article/details/127587345


欢迎大家订阅(2023版)理论篇

以下为2021版原文~~~~


23d4665fa5824275aec1f76fb4a2fafb.png


1 概述


Pytorch是基于Torch之上的python包,在底层主要通过张量的形式进行计算,Pytorch中的张量表示为同一数据类型的多位橘子。


1.1 基础数据类型的概述


1、标量:即具体的数字


2、向量:多个标量组成


3、矩阵:多个向量组成


4、张量:多个矩阵组成的量


2 张量


2.1 张量在编程语言上的定义方法


2.1.1 torch.tensor()


import torch # 引入torch库
import numpy as np # 引入Numpy
"""
    torch.tensor():仅有一个参数,其功能是将转入的对象转化为张量
"""
a = torch.tensor(5) #定义一个张量 5
print(a) #输出 tensor(5)
anp = np.asarray([4]) #定义一个Numpy数组
a = torch.tensor(anp) #将Numpy数组转化成张量
print(a)# 输出 tensor([4], dtype=torch.int32)


结果:


9bdf4a00139c49c68542954732d21bd0.png


2.1.2 torch.Tensor()


import torch # 引入torch库
import numpy as np # 引入Numpy
"""
    torch.Tensor():
                1.当传入数字时,创建一个指定形状的张量,生成的张量是未初始化的。
                2.传入一个列表时,生成与该列表内容相同的张量
"""
a = torch.Tensor(2) #定义指定形状未初始化的张量
print(a) #输出 tensor([-1.5370e+18,  1.0872e-18])
b = torch.Tensor(1,2) #定义指定形状的未初始化的张量
print(b) #输出 tensor([[-1.5312e+18,  2.7181e-19]])
e = torch.rand(2,1) #定义指定形状的已初始化的张量
print(e) #随机生成0至1区间内的张量
c = torch.Tensor([2]) #定义指定内容的张量
print(c) #输出 tensor([2.])
d = torch.Tensor([1,2]) #定义一个指定内容的张量
print(d) #输出 tensor([1., 2.])


结果:


19f0e975d9b640b3a2aaa5c5867416a4.png


2.1.3 张量的类型判断与元素个数计算


import torch # 引入torch库
a = torch.Tensor(2) # 定义一个指定形状的张量
print(torch.is_tensor(a)) # 判断a是否为张量
print(torch.numel(a)) # 获得a中的元素个数


结果:


82d5507e7d3749c4b4ca0fe01914de5e.png


2.1.4 张量的默认类型


在torch中CPU和GPU张量分别有8种数据类型


20201123195432170.png


在torch中默认的数据类型是32位浮点型(torch.FloatTensor),可以通过torch.set_default_tensor_type()函数设置默认的数据类型,但是该函数只支持设置浮点型数据类型,代码如下:


import torch
torch.tensor([1.2,3.4]).dtype #获取张量的数据类型,其中torch.tensor()函数生成一个张量
#默认为 torch.float32
torch.set_default_tensor_type(torch.DoubleTensor) #设置张量的默认数据类型
torch.tensor([1.2,3.4]).dtype
#此时变成 torch.float64


2.1.5 张量的type()方法==》将张量转化为基础数据类型


在torch中还有其他类型的数据,将浮点型转化为其他数据类型的方法如下:


a = torch.tensor([1.2,3.4])
print("a.dtype:",a.dtype)
print("a.long()方法",a.long().dtype)
print("a.int()方法",a.int().dtype)
print("a.float()方法",a.float().dtype)
#
#a.dtype:torch.float64
#a.long()方法:torch.int64
#a.int()方法:torch.int32
#a.float()方法:torch.float32


2.1.6 dtype和type()的区别


torch_tensor.dtype #返回类似: torch.float64,是torch定义的数据类型。
torch_tensor.type() #返回类似:torch.cuda.DoubleTensor ,是字符串,且可以看到是CPU张量还是GPU张量。
torch.float64 对应 torch.DoubleTensor
torch.float32 对应 torch.FloatTensor


2.1.7 默认类型在其他函数中的应用


torch.ones():生成指定形状、元素值为1的张量数组


torch.zeros():生成指定形状、元素值为0的张量数组


torch.ones_like():生成与目标张量形状相同、元素值为1的张量数组


torch.zeros_like():生成与目标张量形状相同、元素值为1的张量数组


torch.randn():生成指定形状的随机数张量数组


torch.eye():生成对角矩阵的张量


torch.full():生成元素值均为1的矩阵的张量


2.2 张量与Numpy的关系


在pytorch中张量可以是一个标量,一个向量,一个矩阵,甚至是更高维度的数组,所以pytorch中的rtensor和numpy中的数

组(ndarray)非常相似。


在使用中也经常将pytorch中的张量和numpy库中的数组相互转化,在深度网络中,基于pytorch的相关计算都是在tensor的基础上完成的。


2.2.1 类型转换


import torch
import numpy as np
a = torch.FloatTensor([4]) # 定义一个张量
print(a.numpy()) # 转化成numpy,并输出
anp = np.asarray([4]) # 定义一个numpy类型对象
print(torch.from_numpy(anp)) # 法1 转化为tensor,并输出
print(torch.tensor(anp))# 法2 转化为tensor,并输出


结果:


98cd4b73d10045a7a566c25bbda127d5.png


2.2.2 张量与numpy类型变量的形状


import torch
import numpy as np
x = torch.rand(2,1)
print(x.shape,x.size())
anp = np.asarray([4,2])
print(anp.shape,anp.size)


结果:8ab59cdef23049d8bd6b0aeb2a925062.png


2.2.3 切片操作


import torch
import numpy as np
x = torch.rand(2,1)
print(x[:])
anp = np.asarray([4,2])
print(anp[:])


结果:678d0fca25f04cae83d89637f9328db1.png


2.2.3 陷阱


Numpy转化为tensor张量时,若改变tensor的数值,不会影响到原numpy的数值,因为tensor会重新开辟区域。若改变numpy的数值,会影响到tensor的数值,因为numpy不会重新开辟区域。

目录
相关文章
|
23天前
|
机器学习/深度学习 运维 安全
图神经网络在欺诈检测与蛋白质功能预测中的应用概述
金融交易网络与蛋白质结构的共同特点是它们无法通过简单的欧几里得空间模型来准确描述,而是需要复杂的图结构来捕捉实体间的交互模式。传统深度学习方法在处理这类数据时效果不佳,图神经网络(GNNs)因此成为解决此类问题的关键技术。GNNs通过消息传递机制,能有效提取图结构中的深层特征,适用于欺诈检测和蛋白质功能预测等复杂网络建模任务。
47 2
图神经网络在欺诈检测与蛋白质功能预测中的应用概述
|
17天前
|
SQL 存储 安全
网络安全与信息安全概述####
本文探讨了网络安全(Cybersecurity)和信息安全(Information Security)的基本概念及其差异,重点介绍了网络安全漏洞、加密技术及安全意识在信息保护中的重要性。本文旨在通过深入分析这些关键技术和策略,提升对信息安全整体性的理解,帮助读者在数字化时代更好地应对信息安全挑战。 ####
|
2月前
|
存储 并行计算 PyTorch
探索PyTorch:张量数值计算
探索PyTorch:张量数值计算
|
2月前
|
机器学习/深度学习 并行计算 PyTorch
探索PyTorch:张量的创建和数值计算
探索PyTorch:张量的创建和数值计算
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
|
2月前
|
PyTorch 算法框架/工具 Python
Pytorch学习笔记(十):Torch对张量的计算、Numpy对数组的计算、它们之间的转换
这篇文章是关于PyTorch张量和Numpy数组的计算方法及其相互转换的详细学习笔记。
41 0
|
3月前
|
机器学习/深度学习
小土堆-pytorch-神经网络-损失函数与反向传播_笔记
在使用损失函数时,关键在于匹配输入和输出形状。例如,在L1Loss中,输入形状中的N代表批量大小。以下是具体示例:对于相同形状的输入和目标张量,L1Loss默认计算差值并求平均;此外,均方误差(MSE)也是常用损失函数。实战中,损失函数用于计算模型输出与真实标签间的差距,并通过反向传播更新模型参数。
|
2月前
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
2月前
|
机器学习/深度学习 PyTorch API
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)
深度学习入门:卷积神经网络 | CNN概述,图像基础知识,卷积层,池化层(超详解!!!)
|
3月前
|
Linux 调度 Docker
容器网络概述
【9月更文挑战第9天】容器技术利用如命名空间(namespace)和控制组(cgroup)等技术创建隔离环境,实现资源限制与独立运行。命名空间避免命名冲突,cgroup则能对CPU、内存等资源进行限制。容器状态可通过镜像保存并标准化,确保在任何环境中都能复现相同状态。

热门文章

最新文章