PyTorch深度学习基础之Tensor对象及其应用的讲解及实战(附源码 简单易懂 包括分段 映射 矩阵乘法 随机数等等)

简介: PyTorch深度学习基础之Tensor对象及其应用的讲解及实战(附源码 简单易懂 包括分段 映射 矩阵乘法 随机数等等)

觉得有帮助请点赞关注收藏 有问题可评论区留言~~~

Tensor对象是一个维度任意的矩阵,但是一个Tensor中所有元素的数据类型必须一致。torch包含的数据类型和普遍编程语言的数据类型类似,包含浮点型,有符号整型和无符号整形,这些类型既可以定义在CPU上,也可以定义在GPU上。在使用Tensor数据类型时,可以通过dtype属性指定它的数据类型,device指定它的设备(CPU或者GPU)

1:基本定义

代码如下 可查看tensor的基本类型以及运行设备

import torch
import  numpy as np
print('torch.tensor 默认为:{}'.format(torch.Tensor(1).dtype))
a=torch.tensor([[1,2],[3,4]],dtype=torch.float64)
print(a)
#cpu -gpu之间转换
c=torch.ones((2,2))
c=c.to('cpu',torch.double)
print(c.device)

输出如下

2:矩阵乘法

对Tensor执行算术符的运算时 是两个矩阵对应元素的运算,torch.mm执行矩阵乘法的计算

代码如下

 

import torch
import  numpy as np
#矩阵对应元素运算
a=torch.tensor([[1,2],[3,4]])
b=torch.tensor([[1,2],[4,6]])
c=a*b
print("每个元素相乘",c)
c=torch.mm(a,b)
print("矩阵乘法",c)

3:分段、化整、映射函数

clamp起的是分段函数的作用,可以用于去除矩阵中过小或者过大的元素,round函数将小数部分化整,tanh计算双曲正切函数,该函数将值映射到0,1

代码如下

import torch
import  numpy as np
#特定功能函数
#clamp分段
a=torch.tensor([[1,2],[3,4]])
print(torch.clamp(a,min=2,max=3))
#round化整
a=torch.tensor([[1.1,0.5],[0.6,-1.2]])
print(torch.round(a))
#tanh双曲正切 映射到0 1
print(torch.tanh(a))

四、arange等方法创建数据

除了直接从ndarray或list类型的数据中创建Tensor外,PyTorch还提供了一些函数可以直接创建数据,这类函数往往需要提供矩阵的维度,它和python内置的range的使用方法基本想吐,其第三个参数是步长,linsapce函数第三个参数指定返回的个数。ones返回全1,zeors返回全0

import torch
import  numpy as np
#直接 创建数据
print(torch.arange(5))
print(torch.arange(1,5,2))
print(torch.linspace(0,5,10))
#全0 全1
print(torch.ones(3,3))
print(torch.zeros(3,3))

五、rand返回随机数

rand返回从0 1均匀分布采样的元素所组成的矩阵,randn返回从正态分布采样的元素所组成的矩阵,randint返回指定区间的均匀分布采样的随机整数所组成的矩阵

代码如下

import torch
import  numpy as np
print('torch.tensor 默认为:{}'.format(torch.Tensor(1).dtype))
a=torch.tensor([[1,2],[3,4]],dtype=torch.float64)
print(a)
#cpu -gpu之间转换
c=torch.ones((2,2))
c=c.to('cpu',torch.double)
print(c.device)
#矩阵对应元素运算
a=torch.tensor([[1,2],[3,4]])
b=torch.tensor([[1,2],[4,6]])
c=a*b
print("每个元素相乘",c)
c=torch.mm(a,b)
print("矩阵乘法",c)
#特定功能函数
#clamp分段
a=torch.tensor([[1,2],[3,4]])
print(torch.clamp(a,min=2,max=3))
#round化整
a=torch.tensor([[1.1,0.5],[0.6,-1.2]])
print(torch.round(a))
#tanh双曲正切 映射到0 1
print(torch.tanh(a))
#直接 创建数据
print(torch.arange(5))
print(torch.arange(1,5,2))
print(torch.linspace(0,5,10))
#全0 全1
print(torch.ones(3,3))
print(torch.zeros(3,3))
#随机
print(torch.rand(3,3))
print(torch.randn(3,3))
print(torch.randint(0,9,(3,3)))

创作不易 觉得有帮助请点赞关注收藏~~~

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
2天前
|
机器学习/深度学习 算法 自动驾驶
深度学习在图像识别中的应用与挑战
【7月更文挑战第3天】 本文深入探讨了深度学习技术在图像识别领域内的应用及其所面临的挑战。首先,文章概述了深度学习如何革新了图像处理的范式,接着详细讨论了卷积神经网络(CNN)在图像分类、目标检测及语义分割中的具体应用。然后转向挑战部分,分析了数据集偏差、模型泛化能力以及对抗性攻击等问题。最后,文章提出了未来研究方向,包括算法优化、跨域适应性学习以及隐私保护等议题。
|
1天前
|
机器学习/深度学习 数据采集 自然语言处理
深度学习在自然语言处理中的应用与挑战
本文深入探讨了深度学习技术在自然语言处理领域的应用及其面临的挑战。通过分析最新的研究成果和实际案例,揭示了深度学习如何革新传统NLP任务,包括语言模型、机器翻译、情感分析和文本分类等。同时,文章也指出了深度学习在处理语义理解、数据偏差和模型泛化能力方面的局限性,并提出了未来研究的可能方向。
|
1天前
|
机器学习/深度学习 人工智能 监控
深度学习在图像识别中的应用与挑战
深度学习技术已成为现代计算机视觉领域的革命性力量。本文旨在深入解析深度学习如何革新了图像识别领域,并探讨了其面临的主要挑战和未来的发展方向。通过引用最新的研究成果和实验数据,本文不仅揭示了深度学习模型在处理复杂图像任务中的优势,同时也指出了数据偏差、模型泛化能力和计算资源消耗等问题。此外,文章还探讨了深度学习技术如何促进自动化图像分析的实际应用,以及这些应用对社会的潜在影响。
8 0
|
1天前
|
机器学习/深度学习 自然语言处理 算法
深度学习在医疗诊断中的应用与挑战
随着人工智能技术的飞速发展,深度学习已在多个领域展现出其强大的能力,尤其是在医疗诊断领域。本文旨在探讨深度学习技术如何助力医疗诊断,提升疾病识别的准确性和效率。通过分析深度学习在图像识别、病理分析等方面的应用案例,揭示其在处理大数据、复杂模式识别中的优势。同时,本文也将指出深度学习在医疗领域中面临的挑战,包括数据隐私问题、算法的可解释性以及跨领域合作的必要性。文章将基于最新的科研研究和统计数据,提供一个科学严谨、逻辑严密的视角,深入解读深度学习在医疗诊断领域的应用前景及所面临的挑战。
9 0
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习在自然语言处理中的应用与挑战
在人工智能领域,深度学习技术已成为推动自然语言处理(NLP)进步的关键力量。本文将深入探讨深度学习如何革新NLP领域,包括语音识别、机器翻译、情感分析等方面的应用,并讨论当前面临的主要挑战,如数据偏差和模型解释性问题。通过引用最新的研究成果和实例分析,本文旨在为读者提供深度学习在NLP中应用的全面视角,同时指出未来的研究方向。
|
1天前
|
机器学习/深度学习 算法 计算机视觉
探索深度学习在图像识别中的应用与挑战
【7月更文挑战第4天】本文深入探讨了深度学习技术在图像识别领域的应用,并分析了其面临的主要挑战。通过介绍深度学习的基础原理和关键技术,我们揭示了其在图像处理任务中的强大能力,包括特征提取、对象检测和分类。同时,文章也指出了深度学习模型在泛化能力、数据依赖性以及计算资源需求方面存在的问题,并提出了可能的解决策略,旨在为未来图像识别技术的发展提供参考。
|
2天前
|
机器学习/深度学习 自然语言处理 测试技术
深度学习在自然语言处理中的应用与挑战
本文深入探讨了深度学习技术在自然语言处理(NLP)领域的应用及其所面临的挑战。通过分析最新的研究数据和实验结果,文章揭示了深度学习模型如循环神经网络(RNN)、长短时记忆网络(LSTM)和Transformer架构在文本分类、机器翻译、情感分析等任务中的卓越表现。同时,讨论了深度学习在处理语言多样性、语境理解不足以及数据偏差等问题上的挑战,并提出了可能的解决方案。本文旨在为NLP领域的研究者和实践者提供深度学习技术的全面视角,促进其在实际应用中的创新与发展。
|
2天前
|
机器学习/深度学习 自动驾驶 安全
基于深度学习的图像识别技术在自动驾驶中的应用
随着人工智能技术的飞速发展,深度学习已成为推动自动驾驶技术进步的核心动力。本文深入探讨了深度学习在图像识别领域的应用,并分析了其在自动驾驶系统中的关键作用。通过引用最新的研究成果和实验数据,本文揭示了深度学习模型如何提高自动驾驶车辆对环境的感知能力,从而增强驾驶安全性和效率。
11 1
|
2天前
|
机器学习/深度学习 自动驾驶 算法
深度学习在图像识别中的应用与挑战
【7月更文挑战第3天】随着人工智能技术的飞速发展,深度学习已成为图像识别领域的核心技术之一。本文旨在探讨深度学习如何革新图像识别技术,分析其在处理复杂视觉数据方面的有效性,并指出当前面临的主要挑战。从理论到实践,我们不仅审视了深度学习模型的架构和训练技巧,还讨论了数据集偏差、过拟合问题以及对抗性攻击等现实问题对模型性能的影响。此外,文章还将展望未来图像识别技术的发展方向,为研究人员和实践者提供指导和启示。
|
3天前
|
机器学习/深度学习 传感器 监控
深度学习在图像识别中的应用与挑战
随着人工智能技术的飞速发展,深度学习已成为推动现代科技革命的核心力量。特别是在图像识别领域,深度学习技术通过模拟人脑处理信息的方式,显著提升了识别的准确度和效率。然而,尽管取得了显著进展,该技术仍面临数据偏差、模型泛化能力不足等挑战。本文将深入探讨深度学习在图像识别领域的应用现状、面临的主要挑战以及未来发展趋势,旨在为相关领域的研究者和实践者提供参考和启示。
13 1