【Pytorch神经网络理论篇】 02 Pytorch快速上手(二)GPU与CPU张量切换+具有随机值的张量+张量的数学运算

简介: 【Pytorch神经网络理论篇】 02 Pytorch快速上手(二)GPU与CPU张量切换+具有随机值的张量+张量的数学运算

同学你好!本文章于2021年末编写,获得广泛的好评!

故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现,


Pytorch深度学习·理论篇(2023版)目录地址为:


CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录


本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理进行讲解与分析,通过将深度学习知识与Pytorch的高效结合,帮助各位新入门的读者理解深度学习各个模板之间的关系,这些均是在Pytorch上实现的,可以有效的结合当前各位研究生的研究方向,设计人工智能的各个领域,是经过一年时间打磨的精品专栏!

https://v9999.blog.csdn.net/article/details/127587345


欢迎大家订阅(2023版)理论篇

以下为2021版原文~~~~


a5b59c0d18cb46c09a11e98f5fb1c574.png


1 在GPU与CPU上定义张量


1.1 GPU与CPU的张量相互转化


import torch
# 创建一个张量
a = torch.FloatTensor()
# 将CPU上的张量在GPU所管理的内存中重新创建
b = a.cuda()
print(b) # 输出 tensor([], device='cuda:0')
# 将GPU上的张量创建到CPU上
print(b.cpu()) # 输出   tensor([])


1.2 在GPU上定义张量


import torch
# 创建一个张量
a = torch.tensor([4],device='cuda')#在GPU上定义一个张量
print(a) # 输出 tensor([4], device='cuda:0')


1.3 指定GPU设备运行的两种方法


1.3.1 代码方式


import torch
# 创建一个张量
a = torch.FloatTensor([4])
print(a.to('cuda:0')) # 输出 tensor([4.], device='cuda:0')


1.3.2 命令行方式


CUDA_VISIBLE_DEVICES=1     # 只有编号为1的GPU对程序是可见的,在代码中gpu[0]指的就是这块儿GPU
CUDA_VISIBLE_DEVICES=0,2,3 # 只有编号为0,2,3的GPU对程序是可见的,在代码中gpu[0]指的是第0块儿,
               # gpu[1]指的是第2块儿,gpu[2]指的是第3块儿
CUDA_VISIBLE_DEVICES=2,0,3 # 只有编号为0,2,3的GPU对程序是可见的,但是在代码中gpu[0]指的是第2块儿,
               # gpu[1]指的是第0块儿,gpu[2]指的是第3块儿


使用方法1:


CUDA_VISIBLE_DEVICES=0 python 自己的代码.py


使用方法2:


# 在代码首行添加如下代码
import os
os.environ["CUDA_VISIBLE_DEVICES"] = 0 # 将当前代码放置在第一个GPU上运行


2 具有随机值的张量


2.1 随机种子的设置


### 所有的随机值都是由随机种子设定的
import torch
torch.initial_seed() # 查看随机种子
torch.manual_seed(2) # 设置随机种子


2.2 生成指定形状的随机值


import torch
a = torch.rand(2,3) #指定形状
print(a) # 输出 tensor([[0.3513, 0.7726, 0.8044],[0.5643, 0.9863, 0.6723]])


2.3 生成线性空间的随机值


import torch
### torch.arange() 取值范围只包括初始值,不包括结束值
a = torch.arange(1,10,step=2) # 1至10之间,按照步长为2进行取值
print(a) # tensor([1, 3, 5, 7, 9])
### torch.linspace() 取值范围只包括初始值,也包括结束值
b = torch.linspace(1,9,steps=5)# 1至9之间,均匀取5个值
print(b) # tensor([1., 3., 5., 7., 9.])


2.4 生成对数空间的随机值


import torch
print(torch.logspace(1,9,steps=5)) #同torch.linspace()
# 输出 tensor([1.0000e+01, 1.0000e+03, 1.0000e+05, 1.0000e+07, 1.0000e+09])


2.5 生成未初始化的矩阵


import torch
print(torch.empty(1,2)) # 生成指定形状的未初始化的矩阵
# tensor([[6.6718e+35, 2.3473e-38]]) 


2.6 更多随机值生成函数


例如:伯努利分布、柯西分布、指数分布、几何分布、对数正态分布、正态分布、均匀分布、连续均匀分布


3 张量的数学运算


3.1 运算函数与运算方法


import torch
a = torch.FloatTensor([4])
print(a) # 输出 tensor([4.])
### Pytorch重载运算符
print(a+a) # 输出 tensor([8.])
### Pytorch的加法函数
b = torch.add(a,a) 
print(b) # 输出 tensor([8.])
### Pytorch的指定输出函数
torch.add(a,a,out=b)
print(b) # 输出 tensor([8.])


3.2 自变化运算函数


import torch
a = torch.FloatTensor([4])
### 自变化运算函数是指:在变量本身的基础上做运算,最终结果会作用于自己本身
a.add_(a)
print(a) # 输出 tensor([8.])


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
打赏
0
0
0
0
691
分享
相关文章
马斯克20万块GPU炼出Grok-3,暴击DeepSeek R1数学屠榜!疯狂复仇OpenAI
马斯克20万块GPU炼出Grok-3,暴击DeepSeek R1数学屠榜!疯狂复仇OpenAI
阿里云ACK One:注册集群云上节点池(CPU/GPU)自动弹性伸缩,助力企业业务高效扩展
在当今数字化时代,企业业务的快速增长对IT基础设施提出了更高要求。然而,传统IDC数据中心却在业务存在扩容慢、缩容难等问题。为此,阿里云推出ACK One注册集群架构,通过云上节点池(CPU/GPU)自动弹性伸缩等特性,为企业带来全新突破。
GPU加速和CPU有什么不同
【10月更文挑战第20天】GPU加速和CPU有什么不同
227 1
Jetson 学习笔记(八):htop查看CPU占用情况和jtop监控CPU和GPU
在NVIDIA Jetson平台上使用htop和jtop工具来监控CPU、GPU和内存的使用情况,并提供了安装和使用这些工具的具体命令。
432 0
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
在7月4日举行的WAIC 2024科学前沿主论坛上,书生·浦语2.5正式发布,面向大模型研发与应用的全链条工具体系同时迎来升级。
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
该博客展示了如何通过Python预处理神经网络权重矩阵并将其导出为表格,然后使用Chiplot网站来可视化神经网络的神经元节点之间的连接。
130 0
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。
132 9
【Tensorflow+keras】用代码给神经网络结构绘图
文章提供了使用TensorFlow和Keras来绘制神经网络结构图的方法,并给出了具体的代码示例。
120 0

热门文章

最新文章