【Pytorch神经网络理论篇】 02 Pytorch快速上手(二)GPU与CPU张量切换+具有随机值的张量+张量的数学运算

简介: 【Pytorch神经网络理论篇】 02 Pytorch快速上手(二)GPU与CPU张量切换+具有随机值的张量+张量的数学运算

同学你好!本文章于2021年末编写,获得广泛的好评!

故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现,


Pytorch深度学习·理论篇(2023版)目录地址为:


CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录


本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理进行讲解与分析,通过将深度学习知识与Pytorch的高效结合,帮助各位新入门的读者理解深度学习各个模板之间的关系,这些均是在Pytorch上实现的,可以有效的结合当前各位研究生的研究方向,设计人工智能的各个领域,是经过一年时间打磨的精品专栏!

https://v9999.blog.csdn.net/article/details/127587345


欢迎大家订阅(2023版)理论篇

以下为2021版原文~~~~


a5b59c0d18cb46c09a11e98f5fb1c574.png


1 在GPU与CPU上定义张量


1.1 GPU与CPU的张量相互转化


import torch
# 创建一个张量
a = torch.FloatTensor()
# 将CPU上的张量在GPU所管理的内存中重新创建
b = a.cuda()
print(b) # 输出 tensor([], device='cuda:0')
# 将GPU上的张量创建到CPU上
print(b.cpu()) # 输出   tensor([])


1.2 在GPU上定义张量


import torch
# 创建一个张量
a = torch.tensor([4],device='cuda')#在GPU上定义一个张量
print(a) # 输出 tensor([4], device='cuda:0')


1.3 指定GPU设备运行的两种方法


1.3.1 代码方式


import torch
# 创建一个张量
a = torch.FloatTensor([4])
print(a.to('cuda:0')) # 输出 tensor([4.], device='cuda:0')


1.3.2 命令行方式


CUDA_VISIBLE_DEVICES=1     # 只有编号为1的GPU对程序是可见的,在代码中gpu[0]指的就是这块儿GPU
CUDA_VISIBLE_DEVICES=0,2,3 # 只有编号为0,2,3的GPU对程序是可见的,在代码中gpu[0]指的是第0块儿,
               # gpu[1]指的是第2块儿,gpu[2]指的是第3块儿
CUDA_VISIBLE_DEVICES=2,0,3 # 只有编号为0,2,3的GPU对程序是可见的,但是在代码中gpu[0]指的是第2块儿,
               # gpu[1]指的是第0块儿,gpu[2]指的是第3块儿


使用方法1:


CUDA_VISIBLE_DEVICES=0 python 自己的代码.py


使用方法2:


# 在代码首行添加如下代码
import os
os.environ["CUDA_VISIBLE_DEVICES"] = 0 # 将当前代码放置在第一个GPU上运行


2 具有随机值的张量


2.1 随机种子的设置


### 所有的随机值都是由随机种子设定的
import torch
torch.initial_seed() # 查看随机种子
torch.manual_seed(2) # 设置随机种子


2.2 生成指定形状的随机值


import torch
a = torch.rand(2,3) #指定形状
print(a) # 输出 tensor([[0.3513, 0.7726, 0.8044],[0.5643, 0.9863, 0.6723]])


2.3 生成线性空间的随机值


import torch
### torch.arange() 取值范围只包括初始值,不包括结束值
a = torch.arange(1,10,step=2) # 1至10之间,按照步长为2进行取值
print(a) # tensor([1, 3, 5, 7, 9])
### torch.linspace() 取值范围只包括初始值,也包括结束值
b = torch.linspace(1,9,steps=5)# 1至9之间,均匀取5个值
print(b) # tensor([1., 3., 5., 7., 9.])


2.4 生成对数空间的随机值


import torch
print(torch.logspace(1,9,steps=5)) #同torch.linspace()
# 输出 tensor([1.0000e+01, 1.0000e+03, 1.0000e+05, 1.0000e+07, 1.0000e+09])


2.5 生成未初始化的矩阵


import torch
print(torch.empty(1,2)) # 生成指定形状的未初始化的矩阵
# tensor([[6.6718e+35, 2.3473e-38]]) 


2.6 更多随机值生成函数


例如:伯努利分布、柯西分布、指数分布、几何分布、对数正态分布、正态分布、均匀分布、连续均匀分布


3 张量的数学运算


3.1 运算函数与运算方法


import torch
a = torch.FloatTensor([4])
print(a) # 输出 tensor([4.])
### Pytorch重载运算符
print(a+a) # 输出 tensor([8.])
### Pytorch的加法函数
b = torch.add(a,a) 
print(b) # 输出 tensor([8.])
### Pytorch的指定输出函数
torch.add(a,a,out=b)
print(b) # 输出 tensor([8.])


3.2 自变化运算函数


import torch
a = torch.FloatTensor([4])
### 自变化运算函数是指:在变量本身的基础上做运算,最终结果会作用于自己本身
a.add_(a)
print(a) # 输出 tensor([8.])


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
1月前
|
弹性计算 人工智能 Serverless
阿里云ACK One:注册集群云上节点池(CPU/GPU)自动弹性伸缩,助力企业业务高效扩展
在当今数字化时代,企业业务的快速增长对IT基础设施提出了更高要求。然而,传统IDC数据中心却在业务存在扩容慢、缩容难等问题。为此,阿里云推出ACK One注册集群架构,通过云上节点池(CPU/GPU)自动弹性伸缩等特性,为企业带来全新突破。
|
2月前
|
监控 异构计算
Jetson 学习笔记(八):htop查看CPU占用情况和jtop监控CPU和GPU
在NVIDIA Jetson平台上使用htop和jtop工具来监控CPU、GPU和内存的使用情况,并提供了安装和使用这些工具的具体命令。
178 0
|
2月前
|
机器学习/深度学习 人工智能 并行计算
CPU和GPU的区别
【10月更文挑战第14天】
|
2月前
|
机器学习/深度学习 人工智能 缓存
GPU加速和CPU有什么不同
【10月更文挑战第20天】GPU加速和CPU有什么不同
69 1
|
2月前
|
存储 并行计算 PyTorch
探索PyTorch:张量数值计算
探索PyTorch:张量数值计算
|
2月前
|
机器学习/深度学习 并行计算 PyTorch
探索PyTorch:张量的创建和数值计算
探索PyTorch:张量的创建和数值计算
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
探索PyTorch:张量的类型转换,拼接操作,索引操作,形状操作
|
2月前
|
PyTorch 算法框架/工具 Python
Pytorch学习笔记(十):Torch对张量的计算、Numpy对数组的计算、它们之间的转换
这篇文章是关于PyTorch张量和Numpy数组的计算方法及其相互转换的详细学习笔记。
46 0
|
3月前
|
人工智能 自然语言处理 文字识别
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
在7月4日举行的WAIC 2024科学前沿主论坛上,书生·浦语2.5正式发布,面向大模型研发与应用的全链条工具体系同时迎来升级。
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
|
4月前
|
机器学习/深度学习 并行计算 PyTorch
GPU 加速与 PyTorch:最大化硬件性能提升训练速度
【8月更文第29天】GPU(图形处理单元)因其并行计算能力而成为深度学习领域的重要组成部分。本文将介绍如何利用PyTorch来高效地利用GPU进行深度学习模型的训练,从而最大化训练速度。我们将讨论如何配置环境、选择合适的硬件、编写高效的代码以及利用高级特性来提高性能。
864 1
下一篇
DataWorks