Pytorch中使用torch.nn模块进行神经网络模型初步构造

简介: Pytorch中使用torch.nn模块进行神经网络模型初步构造

一、torch.nn模块的核心数据结构是Module,可表示神经网络中的某个层(layer)比如全连接层;同时也可表示一个包含很多层(递归的体验)的神经网络比如多层感知机,注意:torch.nn.Module能够顺利用autograd自动实现反向传播,所以无需写和人为使用反向传播函数。

二、首先三层感知机构造模型如下图,然后实现逻辑顺序根据第三个部分的代码中(1)到(11)的顺序进行理解。

三、全连接层和三层感知机代码及结果:

import torch as t
from torch import nn
from torch.autograd import Variable as V
class Linear(nn.Module): # 全连接层,继承父类nn.Module
    def __init__(self,in_features,out_feature): # 初始化 (3)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        # 可学习的参数w和b封装成Parameter,默认可求导
        self.w = nn.Parameter(t.randn(in_features,out_feature))
        self.b = nn.Parameter(t.randn(out_feature))
    def forward(self,x): # 前向传播1,Parameter类型属于variable类型,所以也可以调用对应的函数 (8) (10)
        x = x.mm(self.w)
        y = x + self.b.expand_as(x)
        return y
class Perceptron(nn.Module): # 三层感知机,三层分别是输入层、隐藏层和输出层
    def __init__(self,in_features,hidden_features,out_features): # 初始化(2)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        self.layer1 = Linear(in_features,hidden_features) # 全连接层1,调用Linear构建
        self.layer2 = Linear(hidden_features,out_features) # 全连接层2,调用Linear构建
    def forward(self,x): # 前向传播2,Parameter类型属于variable类型 (6)
        x = self.layer1(x) # 相当于调用前向传播1 (7)
        x = t.sigmoid(x) # 激活函数使得取值范围在0到1之间
        # print(x.size())
        return self.layer2(x) # 相当于调用前向传播1 (9)
perceptron = Perceptron(3,4,1) # 梦开始的地方,也就是构建感知机,输入层是3,隐藏层是4,输出层是1  (1)
for name,param in perceptron.named_parameters(): # 每层全连接层的可学习参数w和b的维度 (4)
    print(name,param.size()) # 输出参数维度
input = V(t.randn(2,3)) 
output = perceptron(input) # 相当于调用前向传播2 (5)
print(output) # 输出y (11)


相关文章
|
2月前
|
机器学习/深度学习 数据采集 人工智能
PyTorch学习实战:AI从数学基础到模型优化全流程精解
本文系统讲解人工智能、机器学习与深度学习的层级关系,涵盖PyTorch环境配置、张量操作、数据预处理、神经网络基础及模型训练全流程,结合数学原理与代码实践,深入浅出地介绍激活函数、反向传播等核心概念,助力快速入门深度学习。
175 1
|
1月前
|
边缘计算 人工智能 PyTorch
130_知识蒸馏技术:温度参数与损失函数设计 - 教师-学生模型的优化策略与PyTorch实现
随着大型语言模型(LLM)的规模不断增长,部署这些模型面临着巨大的计算和资源挑战。以DeepSeek-R1为例,其671B参数的规模即使经过INT4量化后,仍需要至少6张高端GPU才能运行,这对于大多数中小型企业和研究机构来说成本过高。知识蒸馏作为一种有效的模型压缩技术,通过将大型教师模型的知识迁移到小型学生模型中,在显著降低模型复杂度的同时保留核心性能,成为解决这一问题的关键技术之一。
|
2月前
|
机器学习/深度学习 存储 PyTorch
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
132 3
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
|
1月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
2月前
|
机器学习/深度学习 传感器 算法
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
173 2
|
3月前
|
PyTorch 算法框架/工具 异构计算
PyTorch 2.0性能优化实战:4种常见代码错误严重拖慢模型
我们将深入探讨图中断(graph breaks)和多图问题对性能的负面影响,并分析PyTorch模型开发中应当避免的常见错误模式。
239 9
|
2月前
|
机器学习/深度学习 并行计算 算法
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
|
2月前
|
机器学习/深度学习 算法 PyTorch
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
|
2月前
|
机器学习/深度学习 算法 PyTorch
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
124 0
|
3月前
|
算法 安全 网络安全
【多智能体系统】遭受DoS攻击的网络物理多智能体系统的弹性模型预测控制MPC研究(Simulink仿真实现)
【多智能体系统】遭受DoS攻击的网络物理多智能体系统的弹性模型预测控制MPC研究(Simulink仿真实现)
170 0

热门文章

最新文章

推荐镜像

更多