【Pytorch神经网络理论篇】 06 神经元+神经网络模型+全连接网络模型

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 神经网络:一种人工模仿动物中枢系统的数学模型,用于对函数进行近似估计

同学你好!本文章于2021年末编写,获得广泛的好评!


故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现,


Pytorch深度学习·理论篇(2023版)目录地址为:


CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录


本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理进行讲解与分析,通过将深度学习知识与Pytorch的高效结合,帮助各位新入门的读者理解深度学习各个模板之间的关系,这些均是在Pytorch上实现的,可以有效的结合当前各位研究生的研究方向,设计人工智能的各个领域,是经过一年时间打磨的精品专栏!

https://v9999.blog.csdn.net/article/details/127587345

欢迎大家订阅(2023版)理论篇

以下为2021版原文~~~~

a7166a6196c84f0fb88758d31232be32.png



1 神经元


1.1 概述


1.1.1 神经网络


神经网络:一种人工模仿动物中枢系统的数学模型,用于对函数进行近似估计


1.1.2 神经元


神经网络的基本单位是神经元。


神经元是一种处理单元,是对人脑组织的神经元的某种抽象、简化和模拟。通过神经元,人工神经网络可以以数学模型模拟人脑神经元活动,继而进行高效的计算以及其他处理。


20201124220901360.jpg


1.2 计算机中的神经元系统


1.2.1 简单的神经元系统


神经元模型便是模拟大脑神经元的运行过程,其包含输入,输出与计算功能,输入可以类比为神经元的树突,而输出可以类比为神经元的轴突,计算则可以类比为细胞核。下图是一个典型的神经元模型:包含有m个输入,1个输出,以及2个计算功能。


20171024104555158.jpg


1.2.2 一句话理解神经网络


所以一句话理解就是:制造一个神经网络就是在定义一个函数集合。而训练一个神经网络就是在这个函数集合中找到 唯一一个函数。这个函数代表了训练样本的共性特征。这种共性特征称为目标。


一个神经元的功能是求得输入向量与权向量的内积后,经一个非线性传递函数得到一个标量结果。

1.2.3 神经网络的形成


当前主要使用反向传播的算法将模型的误差作为刺激的信号,并沿着神经元处理信号的反方向进行逐层传播,并更新当前层中节点的权重。


1.2.4 神经网络的特点


神经网络的结构与功能,使得其天生具有编程与实现各种高级功能的能力,只不过该编程不需要通过人脑拟合现实来实现,而是通过模型学习的方式,通过现实的表象来优化其所需要的结构。


1.3 深度学习中的基础神经网络模型


  • 全连接神经网络:用来处理与数值相关的任务
  • 卷积神经网络:用来处理与计算机视觉相关的任务
  • 循环神经网络:用来处理与序列相关的任务


1.4 神经网络(深度学习)到底是在干什么


1.4.1 玩色子


应该都接触过摇色子赌大小得游戏,微信表情包就有这个,总共有六个点数,如下:


20210424182313245.png


一般电视剧里用两只碗扣在一块,里面有三个色子,最大是18点,最小是3点,所以这里暂且以11为中位数,大于等于11的为大,小于11的为小,刚好8个大点、8个小点。


1.4.2 建模型


神经网络包括三个部分——输入层、隐藏层和输出层。我们建立一个神经网络模型来让机器识别我们摇出来的点数是大还是小。


先摇三个点。。。


20210424183609347.png


很明显的是1+3+4 = 8 <11,


问题是隐藏层 “20210424183742964.png ”到底做了什么?该怎么做?


1.4.3 出结果


其实这个隐藏层的函数(或者叫矩阵)就是三个值为1的常数函数。


20210424184055914.png


计算方式为点对点相乘然后相加(相当于深度学习里面的全连接层)

1×1+3×1+4×1 = 8 < 11,然后只需要一个判断函数就可以将“小”作为结果输出。


同样:


20210424184528430.png


3×1+5×1+6×1 = 14 >11,输出“大”。


当然了,这个只是一个很简单的分类模型,而且只有两个分类结果。


一般用于实现数字识别或者图像识别的隐藏层比较复杂,甚至需要很多个隐藏层,分别命名为卷积层(一个模型中可能会多次使用)、池化层(一个模型中可能会多次使用)、全连接层,还会有对应的激活函数。


看吧,其实就是一个很简单的模型而已,只是名字唬人罢了。


2 全连接神经网络,又称作多层感知机(MLP)


2.1 网络结构


20200731145415163.png


  • 输入层:[特征维度,n]
  • 隐含层:权重矩阵 [输出维度,输入维度] 或者说  [这层维度,上层维度]
  • 输出层:[类别数,n]


2.1.1 全连接层的本质


① 全连接神经网络的本质是将低维数据向高维数据的映射,通过增加数据所在的维度空间,使得数据变得线性可分


② 可以对任何数据进行分类,缺点是需要更多的参数进行训练。但更多的参数参与运算,将会导致训练过程难以收敛


2.2 全连接神经网络的设计思想


2.2.1 输入节点根据外部的特征数据来确定


2.2.2 隐藏层的节点数,隐藏层的数量都是可以自定义设计的,但需要遵循以下两个原则


2.2.3 设计原则


  • 隐藏层的节点数决定模型的拟合能力,但是过多的节点带了拟合能力的同时,也会使得模型的泛化能力下降。
  • 隐藏层的层数决定模型的泛化能力,层数越多,模型的推理能力越强,但是随着层数的变多,会对拟合效果产生影响


2.3 全连接神经网络在模型中的位置


一般处于整个深层模型的最后部分,由其具有的调节维度的作用,通过指定输入层与输出层的节点数,就可以实现从原维度向任意维度的变化,一般前后层的维度控制在5倍以内。


2.3.1 小技巧


搭建多层全连接神经网络时,对隐藏层的节点设计,应遵循先将维度扩大再缩小的方式进行,会使得模型的拟合效果更好。

目录
相关文章
|
1月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
2月前
|
机器学习/深度学习 传感器 算法
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
179 2
|
6月前
|
机器学习/深度学习 人工智能 算法
基于FPGA的SNN脉冲神经网络之IM神经元verilog实现,包含testbench
本内容介绍了一种基于Izhikevich-Memristive(IM)神经元模型的算法,该模型结合忆阻器特性和神经元动力学,适用于神经形态计算。算法通过Vivado2019.2运行,提供无水印运行效果预览及部分核心程序,完整版含中文注释与操作视频。理论部分详细解析了Izhikevich神经元方程及其放电行为,包括膜电位、恢复变量等参数的作用,并探讨了IM模型在人工智能和脑机接口领域的应用潜力。
|
2月前
|
机器学习/深度学习 并行计算 算法
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
|
2月前
|
机器学习/深度学习 算法 PyTorch
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
|
9月前
|
机器学习/深度学习 编解码 自动驾驶
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
342 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
2月前
|
机器学习/深度学习 算法 PyTorch
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
129 0
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
基于Pytorch 在昇腾上实现GCN图神经网络
本文详细讲解了如何在昇腾平台上使用PyTorch实现图神经网络(GCN)对Cora数据集进行分类训练。内容涵盖GCN背景、模型特点、网络架构剖析及实战分析。GCN通过聚合邻居节点信息实现“卷积”操作,适用于非欧氏结构数据。文章以两层GCN模型为例,结合Cora数据集(2708篇科学出版物,1433个特征,7种类别),展示了从数据加载到模型训练的完整流程。实验在NPU上运行,设置200个epoch,最终测试准确率达0.8040,内存占用约167M。
基于Pytorch 在昇腾上实现GCN图神经网络
|
6月前
|
机器学习/深度学习 自然语言处理 PyTorch
基于Pytorch Gemotric在昇腾上实现GAT图神经网络
本实验基于昇腾平台,使用PyTorch实现图神经网络GAT(Graph Attention Networks)在Pubmed数据集上的分类任务。内容涵盖GAT网络的创新点分析、图注意力机制原理、多头注意力机制详解以及模型代码实战。实验通过两层GAT网络对Pubmed数据集进行训练,验证模型性能,并展示NPU上的内存使用情况。最终,模型在测试集上达到约36.60%的准确率。
|
6月前
|
机器学习/深度学习 算法 PyTorch
基于Pytorch Gemotric在昇腾上实现GraphSage图神经网络
本实验基于PyTorch Geometric,在昇腾平台上实现GraphSAGE图神经网络,使用CiteSeer数据集进行分类训练。内容涵盖GraphSAGE的创新点、算法原理、网络架构及实战分析。GraphSAGE通过采样和聚合节点邻居特征,支持归纳式学习,适用于未见节点的表征生成。实验包括模型搭建、训练与验证,并在NPU上运行,最终测试准确率达0.665。

热门文章

最新文章

推荐镜像

更多