Pytorch中使用torch.nn模块进行神经网络模型初步构造

简介: Pytorch中使用torch.nn模块进行神经网络模型初步构造

一、torch.nn模块的核心数据结构是Module,可表示神经网络中的某个层(layer)比如全连接层;同时也可表示一个包含很多层(递归的体验)的神经网络比如多层感知机,注意:torch.nn.Module能够顺利用autograd自动实现反向传播,所以无需写和人为使用反向传播函数。

二、首先三层感知机构造模型如下图,然后实现逻辑顺序根据第三个部分的代码中(1)到(11)的顺序进行理解。

三、全连接层和三层感知机代码及结果:

import torch as t
from torch import nn
from torch.autograd import Variable as V
class Linear(nn.Module): # 全连接层,继承父类nn.Module
    def __init__(self,in_features,out_feature): # 初始化 (3)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        # 可学习的参数w和b封装成Parameter,默认可求导
        self.w = nn.Parameter(t.randn(in_features,out_feature))
        self.b = nn.Parameter(t.randn(out_feature))
    def forward(self,x): # 前向传播1,Parameter类型属于variable类型,所以也可以调用对应的函数 (8) (10)
        x = x.mm(self.w)
        y = x + self.b.expand_as(x)
        return y
class Perceptron(nn.Module): # 三层感知机,三层分别是输入层、隐藏层和输出层
    def __init__(self,in_features,hidden_features,out_features): # 初始化(2)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        self.layer1 = Linear(in_features,hidden_features) # 全连接层1,调用Linear构建
        self.layer2 = Linear(hidden_features,out_features) # 全连接层2,调用Linear构建
    def forward(self,x): # 前向传播2,Parameter类型属于variable类型 (6)
        x = self.layer1(x) # 相当于调用前向传播1 (7)
        x = t.sigmoid(x) # 激活函数使得取值范围在0到1之间
        # print(x.size())
        return self.layer2(x) # 相当于调用前向传播1 (9)
perceptron = Perceptron(3,4,1) # 梦开始的地方,也就是构建感知机,输入层是3,隐藏层是4,输出层是1  (1)
for name,param in perceptron.named_parameters(): # 每层全连接层的可学习参数w和b的维度 (4)
    print(name,param.size()) # 输出参数维度
input = V(t.randn(2,3)) 
output = perceptron(input) # 相当于调用前向传播2 (5)
print(output) # 输出y (11)


相关文章
|
3月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
464 2
|
6天前
|
机器学习/深度学习 算法 PyTorch
深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
软演员-评论家算法(Soft Actor-Critic, SAC)是深度强化学习领域的重要进展,基于最大熵框架优化策略,在探索与利用之间实现动态平衡。SAC通过双Q网络设计和自适应温度参数,提升了训练稳定性和样本效率。本文详细解析了SAC的数学原理、网络架构及PyTorch实现,涵盖演员网络的动作采样与对数概率计算、评论家网络的Q值估计及其损失函数,并介绍了完整的SAC智能体实现流程。SAC在连续动作空间中表现出色,具有高样本效率和稳定的训练过程,适合实际应用场景。
34 7
深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
本文探讨了Transformer模型中变长输入序列的优化策略,旨在解决深度学习中常见的计算效率问题。文章首先介绍了批处理变长输入的技术挑战,特别是填充方法导致的资源浪费。随后,提出了多种优化技术,包括动态填充、PyTorch NestedTensors、FlashAttention2和XFormers的memory_efficient_attention。这些技术通过减少冗余计算、优化内存管理和改进计算模式,显著提升了模型的性能。实验结果显示,使用FlashAttention2和无填充策略的组合可以将步骤时间减少至323毫秒,相比未优化版本提升了约2.5倍。
58 3
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
|
22天前
|
机器学习/深度学习 算法 PyTorch
基于Pytorch Gemotric在昇腾上实现GraphSage图神经网络
本文详细介绍了如何在昇腾平台上使用PyTorch实现GraphSage算法,在CiteSeer数据集上进行图神经网络的分类训练。内容涵盖GraphSage的创新点、算法原理、网络架构及实战代码分析,通过采样和聚合方法高效处理大规模图数据。实验结果显示,模型在CiteSeer数据集上的分类准确率达到66.5%。
|
17天前
|
网络协议 安全 网络安全
探索网络模型与协议:从OSI到HTTPs的原理解析
OSI七层网络模型和TCP/IP四层模型是理解和设计计算机网络的框架。OSI模型包括物理层、数据链路层、网络层、传输层、会话层、表示层和应用层,而TCP/IP模型则简化为链路层、网络层、传输层和 HTTPS协议基于HTTP并通过TLS/SSL加密数据,确保安全传输。其连接过程涉及TCP三次握手、SSL证书验证、对称密钥交换等步骤,以保障通信的安全性和完整性。数字信封技术使用非对称加密和数字证书确保数据的机密性和身份认证。 浏览器通过Https访问网站的过程包括输入网址、DNS解析、建立TCP连接、发送HTTPS请求、接收响应、验证证书和解析网页内容等步骤,确保用户与服务器之间的安全通信。
74 1
|
22天前
|
监控 安全 BI
什么是零信任模型?如何实施以保证网络安全?
随着数字化转型,网络边界不断变化,组织需采用新的安全方法。零信任基于“永不信任,永远验证”原则,强调无论内外部,任何用户、设备或网络都不可信任。该模型包括微分段、多因素身份验证、单点登录、最小特权原则、持续监控和审核用户活动、监控设备等核心准则,以实现强大的网络安全态势。
107 2
|
3月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于BP神经网络的苦瓜生长含水量预测模型matlab仿真
本项目展示了基于BP神经网络的苦瓜生长含水量预测模型,通过温度(T)、风速(v)、模型厚度(h)等输入特征,预测苦瓜的含水量。采用Matlab2022a开发,核心代码附带中文注释及操作视频。模型利用BP神经网络的非线性映射能力,对试验数据进行训练,实现对未知样本含水量变化规律的预测,为干燥过程的理论研究提供支持。
|
2月前
|
机器学习/深度学习 自然语言处理 数据可视化
【由浅到深】从神经网络原理、Transformer模型演进、到代码工程实现
阅读这个文章可能的收获:理解AI、看懂模型和代码、能够自己搭建模型用于实际任务。
147 11
|
2月前
|
存储 网络协议 安全
30 道初级网络工程师面试题,涵盖 OSI 模型、TCP/IP 协议栈、IP 地址、子网掩码、VLAN、STP、DHCP、DNS、防火墙、NAT、VPN 等基础知识和技术,帮助小白们充分准备面试,顺利踏入职场
本文精选了 30 道初级网络工程师面试题,涵盖 OSI 模型、TCP/IP 协议栈、IP 地址、子网掩码、VLAN、STP、DHCP、DNS、防火墙、NAT、VPN 等基础知识和技术,帮助小白们充分准备面试,顺利踏入职场。
114 2
|
2月前
|
运维 网络协议 算法
7 层 OSI 参考模型:详解网络通信的层次结构
7 层 OSI 参考模型:详解网络通信的层次结构
382 1