深度学习基础之经典神经网络模型

简介: 深度学习模型来源于神经系统层次化结构特性,主要机制是层层递进,逐层抽象,主要应用于计算机视觉(computer vision,CV)和自然语言处理(Natural language processing,NLP)。

人工智能有三大主义(①符号主义-用规则教,②联结主义-用数据学,③行为主义-用问题引导-如强化学习),其中深度学习是联结主义的经典,直接从海量数据中学习,依赖于数据、可解释性不强。

   深度学习模型来源于神经系统层次化结构特性,主要机制是层层递进,逐层抽象,主要应用于计算机视觉(computer vision,CV)和自然语言处理(Natural language processing,NLP)。

1.前馈神经网络(Feedforward Neural Networks,FNN):

 前馈神经网络是最基本的神经网络,一般包括输入层、隐藏层和输出层。数据从输入层单向传递到输出层,每层神经元只和相邻层神经元相连,没有循环连接。

 多层感知器(Multilayer Perceptron,MLP)是最常见的前馈神经网络结构,相邻层所包含的神经元之间使用全连接方式进行连接(全连接是指两个相邻层之间的神经元相互成对连接)。

2.卷积神经网络(Convolutional Neural Networks,CNN):

 CNN是专门设计用于处理网格结构数据(如图像)的神经网络,LeCun等人设计了LeNet模型用于手写体识别,这一实验基本是入门深度学习必做,地位相当于初学代码必敲Hello Word。

 LeNet、AlexNet、VGG、ResNet、Inception等是经典的CNN架构,虽然针对不同应用场景的卷积神经网络结构越来越复杂,但本质仍然是以卷积、池化为核心构建而成。

3.循环神经网络(Recurrent Neural Networks,RNN):

 RNN是一种具有循环连接的神经网络,适用于处理序列数据(如文本句子、视频帧等),先前介绍的FNN或CNN所需要处理的输入数据一次性给定,难以处理存在前后依赖关系的数据。

 RNN的本质是希望模拟人所具有的记忆能力,在学习过程中记住部分已经出现的信息,并利用所记住的信息影响后续结点输出。循环神经网络在自然语言处理,如语音识别、情感分析、机器翻译等领域有重要应用。

 长短时记忆网络(LSTM)、门控循环单元(GRU)等是常见的RNN架构。

4.自注意力网络(Self-Attention Networks):

 自注意力网络,采用自注意力机制,允许每个输入位置对其他位置进行加权。它具有可学习的感受野,让机器学会去感知数据中的重要和不重要的部分。上述提到的CNN中希望模型不仅仅考虑某一个像素点,而是让模型考虑一个感受野(Receptive field),对于自注意力机制来说,相当于模型自己决定感受野是怎样的形状和类型。可以说CNN是特殊情况下的一种self-attention,self-attention就是复杂版的CNN。

 BERT、GPT、Transformer等都是基于自注意力的模型。下图是经典transformer结构图,模型包含两个部分:编码器和解码器。编码器主要负责将输入序列转化为一个定长的向量表示,解码器则将这个向量解码为输出序列。

5.生成对抗网络(Generative Adversarial Networks,GAN):

 生成对抗网络由一个生成器(generator,简称G)和一个判别器(discriminator,简称D)组成。GAN的核心是通过生成器和判别器两个神经网络之间的竞争对抗,不断提升彼此水平以使得生成器所生成数据(人工伪造数据)与真实数据相似,使判别器无法区分真实数据和生成数据。DCGAN、CycleGAN、WGAN等是GAN的不同变体。

6.图神经网络(Graph Neural Networks,GNN):

 GNN用于处理图数据,能够对节点和边进行学习和表示。图神经网络专门处理不规则的图结构数据,如社交网络、知识图谱等。图结构数据是一种由节点和边组成的复杂关系网络,其中节点代表实体,边代表实体之间的关系。

 Graph Convolutional Networks(GCN)、Graph Attention Networks(GAT)、GraphSAGE等都是GNN架构。GNN已经在多个领域取得了广泛的成功,包括社交网络分析、推荐系统、生物信息学、化学、计算机视觉等,被用于节点分类、社区检测、图生成、知识图谱嵌入等各种任务。

7.自编码器(Auto Encoders):

 自编码器(Auto Encoder,简称AE)是一种无监督学习的神经网络模型,用于数据压缩、特征学习、降维和图片降噪、修复等,包含两部分:Encoder(编码器)和Decoder(解码器)。有卷积自动编码器(CAE:Convolutional Autoencoder)、变分自动编码器(VAE:Variational Autoencoder)等多种类型。

相关文章
|
7天前
|
机器学习/深度学习 人工智能 算法
深度学习入门:理解神经网络与反向传播算法
【9月更文挑战第20天】本文将深入浅出地介绍深度学习中的基石—神经网络,以及背后的魔法—反向传播算法。我们将通过直观的例子和简单的数学公式,带你领略这一技术的魅力。无论你是编程新手,还是有一定基础的开发者,这篇文章都将为你打开深度学习的大门,让你对神经网络的工作原理有一个清晰的认识。
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)及其应用
【9月更文挑战第24天】本文将深入探讨深度学习中的一种重要模型——卷积神经网络(CNN)。我们将通过简单的代码示例,了解CNN的工作原理和应用场景。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的信息。
18 1
|
1天前
|
机器学习/深度学习 数据采集 自然语言处理
使用Python实现深度学习模型:智能社交媒体内容分析
使用Python实现深度学习模型:智能社交媒体内容分析
99 69
|
4天前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
18 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
2天前
|
机器学习/深度学习 数据采集 自然语言处理
使用Python实现深度学习模型:智能新闻生成与校对
使用Python实现深度学习模型:智能新闻生成与校对
27 10
|
3天前
|
机器学习/深度学习 数据采集 自然语言处理
使用Python实现深度学习模型:智能广告创意生成
使用Python实现深度学习模型:智能广告创意生成
18 4
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习与神经网络:探索复杂数据的表示
【9月更文挑战第26天】深度学习作为人工智能领域的明珠,通过神经网络自动从大数据中提取高级特征,实现分类、回归等任务。本文介绍深度学习的基础、张量表示、非线性变换、反向传播及梯度下降算法,并探讨其在计算机视觉、自然语言处理等领域的应用与挑战。未来,深度学习将更加智能化,揭示数据背后的奥秘。
|
4天前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现深度学习模型:智能电影制作与剪辑
使用Python实现深度学习模型:智能电影制作与剪辑
25 5
|
1天前
|
机器学习/深度学习 存储 自然语言处理
深度学习中的模型压缩技术
在现代深度学习应用中,模型的复杂性和体积不断增加,给存储和计算带来了巨大的挑战。为了解决这些问题,模型压缩技术应运而生,并成为研究热点。本文将介绍什么是模型压缩技术,探讨其常见方法及应用实例,分析其在实际应用中的效果和前景。
8 1
|
7天前
|
机器学习/深度学习 数据采集 开发者
深度学习中的模型优化策略
【9月更文挑战第20天】在深度学习的海洋里,每一个研究者和实践者都在追求更高效、更准确的模型。本文将深入探讨深度学习中模型优化的策略,从数据预处理到正则化技术,再到超参数调整,我们将一步步揭开模型优化的神秘面纱。无论你是初学者还是有经验的开发者,这篇文章都将为你提供宝贵的见解和实用的技巧。让我们一起探索如何让你的深度学习模型更加出色吧!
24 8