Pytorch中使用torch.nn模块进行神经网络模型初步构造

简介: Pytorch中使用torch.nn模块进行神经网络模型初步构造

一、torch.nn模块的核心数据结构是Module,可表示神经网络中的某个层(layer)比如全连接层;同时也可表示一个包含很多层(递归的体验)的神经网络比如多层感知机,注意:torch.nn.Module能够顺利用autograd自动实现反向传播,所以无需写和人为使用反向传播函数。

二、首先三层感知机构造模型如下图,然后实现逻辑顺序根据第三个部分的代码中(1)到(11)的顺序进行理解。

三、全连接层和三层感知机代码及结果:

import torch as t
from torch import nn
from torch.autograd import Variable as V
class Linear(nn.Module): # 全连接层,继承父类nn.Module
    def __init__(self,in_features,out_feature): # 初始化 (3)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        # 可学习的参数w和b封装成Parameter,默认可求导
        self.w = nn.Parameter(t.randn(in_features,out_feature))
        self.b = nn.Parameter(t.randn(out_feature))
    def forward(self,x): # 前向传播1,Parameter类型属于variable类型,所以也可以调用对应的函数 (8) (10)
        x = x.mm(self.w)
        y = x + self.b.expand_as(x)
        return y
class Perceptron(nn.Module): # 三层感知机,三层分别是输入层、隐藏层和输出层
    def __init__(self,in_features,hidden_features,out_features): # 初始化(2)
        nn.Module.__init__(self) # 调用nn.Module的构造函数
        self.layer1 = Linear(in_features,hidden_features) # 全连接层1,调用Linear构建
        self.layer2 = Linear(hidden_features,out_features) # 全连接层2,调用Linear构建
    def forward(self,x): # 前向传播2,Parameter类型属于variable类型 (6)
        x = self.layer1(x) # 相当于调用前向传播1 (7)
        x = t.sigmoid(x) # 激活函数使得取值范围在0到1之间
        # print(x.size())
        return self.layer2(x) # 相当于调用前向传播1 (9)
perceptron = Perceptron(3,4,1) # 梦开始的地方,也就是构建感知机,输入层是3,隐藏层是4,输出层是1  (1)
for name,param in perceptron.named_parameters(): # 每层全连接层的可学习参数w和b的维度 (4)
    print(name,param.size()) # 输出参数维度
input = V(t.randn(2,3)) 
output = perceptron(input) # 相当于调用前向传播2 (5)
print(output) # 输出y (11)


相关文章
|
7天前
|
机器学习/深度学习 数据可视化 TensorFlow
使用Keras构建一个简单的神经网络模型
使用Keras构建一个简单的神经网络模型
|
12天前
|
域名解析 安全 网络协议
WebKit的网络模块支持的最新网络协议和安全标准
WebKit的网络模块支持的最新网络协议和安全标准
|
14天前
|
机器学习/深度学习 编解码 边缘计算
YOLOv5改进 | 卷积模块 | 用ShuffleNetV2卷积替换Conv【轻量化网络】
本文介绍了如何在YOLOv5中用ShuffleNetV2替换卷积以减少计算量。ShuffleNetV2是一个轻量级网络,采用深度可分离卷积、通道重组和多尺度特征融合技术。文中提供了一个逐步教程,包括ShuffleNetV2模块的代码实现和在YOLOv5配置文件中的添加方法。此外,还分享了完整的代码链接和GFLOPs的比较,显示了GFLOPs的显著减少。该教程适合初学者实践,以提升深度学习目标检测技能。
YOLOv5改进 | 卷积模块 | 用ShuffleNetV2卷积替换Conv【轻量化网络】
|
3天前
|
机器学习/深度学习 人工智能 算法
中草药识别系统Python+深度学习人工智能+TensorFlow+卷积神经网络算法模型
中草药识别系统Python+深度学习人工智能+TensorFlow+卷积神经网络算法模型
23 0
|
6天前
|
网络协议 前端开发 网络安全
网络通信基础(网络通信基本概念+TCP/IP 模型)
网络通信基础(网络通信基本概念+TCP/IP 模型)
|
6天前
|
机器学习/深度学习 自然语言处理 数据可视化
揭秘深度学习模型中的“黑箱”:理解与优化网络决策过程
【5月更文挑战第28天】 在深度学习领域,神经网络因其卓越的性能被广泛应用于图像识别、自然语言处理等任务。然而,这些复杂的模型往往被视作“黑箱”,其内部决策过程难以解释。本文将深入探讨深度学习模型的可解释性问题,并提出几种方法来揭示和优化网络的决策机制。我们将从模型可视化、敏感性分析到高级解释框架,一步步剖析模型行为,旨在为研究者提供更透明、可靠的深度学习解决方案。
|
6天前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8 | 卷积模块 | 提高网络的灵活性和表征能力的动态卷积【附代码+小白可上手】
本教程介绍了如何在YOLOv8中使用动态卷积提升网络性能和灵活性。动态卷积利用注意力机制动态选择和组合卷积核,适应输入数据特征,解决了轻量级CNN的局限。文中提供了详细步骤教读者如何添加和修改代码,包括在`conv.py`中添加`Dynamic_conv2d`模块,更新`init.py`、`task.py`和`yaml`配置文件。此外,还分享了完整代码和进阶技巧,帮助深度学习初学者实践目标检测。参考[YOLOv8改进](https://blog.csdn.net/m0_67647321/category_12548649.html)专栏获取更多详情。
|
6天前
|
存储 缓存 网络协议
网络 (基础概念, OSI 七层模型, TCP/IP 五层模型)
网络 (基础概念, OSI 七层模型, TCP/IP 五层模型)
17 1
|
7天前
|
监控 网络协议 Python
Python中常用网络编程模块
Python中常用网络编程模块
12 0
|
11天前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8改进 | 融合模块 | 用Resblock+CBAM卷积替换Conv【轻量化网络】
在这个教程中,介绍了如何将YOLOv8的目标检测模型改进,用Resblock+CBAM替换原有的卷积层。Resblock基于ResNet的残差学习思想,减少信息丢失,而CBAM是通道和空间注意力模块,增强网络对特征的感知。教程详细解释了ResNet和CBAM的原理,并提供了代码示例展示如何在YOLOv8中实现这一改进。此外,还给出了新增的yaml配置文件示例以及如何注册模块和执行程序。作者分享了完整的代码,并对比了改进前后的GFLOPs计算量,强调了这种改进在提升性能的同时可能增加计算需求。教程适合深度学习初学者实践和提升YOLO系列模型的性能。