深度学习基础之经典神经网络模型

简介: 深度学习模型来源于神经系统层次化结构特性,主要机制是层层递进,逐层抽象,主要应用于计算机视觉(computer vision,CV)和自然语言处理(Natural language processing,NLP)。

人工智能有三大主义(①符号主义-用规则教,②联结主义-用数据学,③行为主义-用问题引导-如强化学习),其中深度学习是联结主义的经典,直接从海量数据中学习,依赖于数据、可解释性不强。

   深度学习模型来源于神经系统层次化结构特性,主要机制是层层递进,逐层抽象,主要应用于计算机视觉(computer vision,CV)和自然语言处理(Natural language processing,NLP)。

1.前馈神经网络(Feedforward Neural Networks,FNN):

 前馈神经网络是最基本的神经网络,一般包括输入层、隐藏层和输出层。数据从输入层单向传递到输出层,每层神经元只和相邻层神经元相连,没有循环连接。

 多层感知器(Multilayer Perceptron,MLP)是最常见的前馈神经网络结构,相邻层所包含的神经元之间使用全连接方式进行连接(全连接是指两个相邻层之间的神经元相互成对连接)。

2.卷积神经网络(Convolutional Neural Networks,CNN):

 CNN是专门设计用于处理网格结构数据(如图像)的神经网络,LeCun等人设计了LeNet模型用于手写体识别,这一实验基本是入门深度学习必做,地位相当于初学代码必敲Hello Word。

 LeNet、AlexNet、VGG、ResNet、Inception等是经典的CNN架构,虽然针对不同应用场景的卷积神经网络结构越来越复杂,但本质仍然是以卷积、池化为核心构建而成。

3.循环神经网络(Recurrent Neural Networks,RNN):

 RNN是一种具有循环连接的神经网络,适用于处理序列数据(如文本句子、视频帧等),先前介绍的FNN或CNN所需要处理的输入数据一次性给定,难以处理存在前后依赖关系的数据。

 RNN的本质是希望模拟人所具有的记忆能力,在学习过程中记住部分已经出现的信息,并利用所记住的信息影响后续结点输出。循环神经网络在自然语言处理,如语音识别、情感分析、机器翻译等领域有重要应用。

 长短时记忆网络(LSTM)、门控循环单元(GRU)等是常见的RNN架构。

4.自注意力网络(Self-Attention Networks):

 自注意力网络,采用自注意力机制,允许每个输入位置对其他位置进行加权。它具有可学习的感受野,让机器学会去感知数据中的重要和不重要的部分。上述提到的CNN中希望模型不仅仅考虑某一个像素点,而是让模型考虑一个感受野(Receptive field),对于自注意力机制来说,相当于模型自己决定感受野是怎样的形状和类型。可以说CNN是特殊情况下的一种self-attention,self-attention就是复杂版的CNN。

 BERT、GPT、Transformer等都是基于自注意力的模型。下图是经典transformer结构图,模型包含两个部分:编码器和解码器。编码器主要负责将输入序列转化为一个定长的向量表示,解码器则将这个向量解码为输出序列。

5.生成对抗网络(Generative Adversarial Networks,GAN):

 生成对抗网络由一个生成器(generator,简称G)和一个判别器(discriminator,简称D)组成。GAN的核心是通过生成器和判别器两个神经网络之间的竞争对抗,不断提升彼此水平以使得生成器所生成数据(人工伪造数据)与真实数据相似,使判别器无法区分真实数据和生成数据。DCGAN、CycleGAN、WGAN等是GAN的不同变体。

6.图神经网络(Graph Neural Networks,GNN):

 GNN用于处理图数据,能够对节点和边进行学习和表示。图神经网络专门处理不规则的图结构数据,如社交网络、知识图谱等。图结构数据是一种由节点和边组成的复杂关系网络,其中节点代表实体,边代表实体之间的关系。

 Graph Convolutional Networks(GCN)、Graph Attention Networks(GAT)、GraphSAGE等都是GNN架构。GNN已经在多个领域取得了广泛的成功,包括社交网络分析、推荐系统、生物信息学、化学、计算机视觉等,被用于节点分类、社区检测、图生成、知识图谱嵌入等各种任务。

7.自编码器(Auto Encoders):

 自编码器(Auto Encoder,简称AE)是一种无监督学习的神经网络模型,用于数据压缩、特征学习、降维和图片降噪、修复等,包含两部分:Encoder(编码器)和Decoder(解码器)。有卷积自动编码器(CAE:Convolutional Autoencoder)、变分自动编码器(VAE:Variational Autoencoder)等多种类型。

相关文章
|
3月前
|
机器学习/深度学习 数据可视化 算法
深度学习模型结构复杂、参数众多,如何更直观地深入理解你的模型?
深度学习模型虽应用广泛,但其“黑箱”特性导致可解释性不足,尤其在金融、医疗等敏感领域,模型决策逻辑的透明性至关重要。本文聚焦深度学习可解释性中的可视化分析,介绍模型结构、特征、参数及输入激活的可视化方法,帮助理解模型行为、提升透明度,并推动其在关键领域的安全应用。
342 0
|
4月前
|
JSON 监控 网络协议
干货分享“对接的 API 总是不稳定,网络分层模型” 看电商 API 故障的本质
本文从 OSI 七层网络模型出发,深入剖析电商 API 不稳定的根本原因,涵盖物理层到应用层的典型故障与解决方案,结合阿里、京东等大厂架构,详解如何构建高稳定性的电商 API 通信体系。
|
2月前
|
机器学习/深度学习 存储 PyTorch
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
125 3
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
|
1月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
2月前
|
机器学习/深度学习 传感器 算法
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
168 2
|
2月前
|
机器学习/深度学习 并行计算 算法
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
|
2月前
|
机器学习/深度学习 数据采集 传感器
【WOA-CNN-LSTM】基于鲸鱼算法优化深度学习预测模型的超参数研究(Matlab代码实现)
【WOA-CNN-LSTM】基于鲸鱼算法优化深度学习预测模型的超参数研究(Matlab代码实现)
175 0
|
3月前
|
算法 安全 网络安全
【多智能体系统】遭受DoS攻击的网络物理多智能体系统的弹性模型预测控制MPC研究(Simulink仿真实现)
【多智能体系统】遭受DoS攻击的网络物理多智能体系统的弹性模型预测控制MPC研究(Simulink仿真实现)
164 0
|
3月前
|
机器学习/深度学习 算法 数据库
基于GoogleNet深度学习网络和GEI步态能量提取的步态识别算法matlab仿真,数据库采用CASIA库
本项目基于GoogleNet深度学习网络与GEI步态能量图提取技术,实现高精度步态识别。采用CASI库训练模型,结合Inception模块多尺度特征提取与GEI图像能量整合,提升识别稳定性与准确率,适用于智能安防、身份验证等领域。
|
10月前
|
机器学习/深度学习 运维 安全
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
390 22