一文带你了解【深度学习】中CNN、RNN、LSTM、DBN等神经网络(图文解释 包括各种激活函数)

简介: 一文带你了解【深度学习】中CNN、RNN、LSTM、DBN等神经网络(图文解释 包括各种激活函数)

觉得有帮助请点赞关注收藏~~~

一、深度学习概述

深度学习算法属于机器学习算法的范畴,深度学习一般具有自主学习能力

基于深度学习的自然语言处理基本操作步骤包括:

将原始信息输入神经网络模型,通过自主学习算法识别输入特征;

将特征作为深度神经网络输入;

根据不同需求选用合适的学习模型;

通过训练得出的模型预测未知场景。

神经元模型

深度学习涉及神经网络的概念,其中最基本的神经元模型,可以使用下图表示,主要由输入变量 权重参数 偏置量 激活函数等组成

激活函数

激活函数用于特征表达,常用的激活函数包括线性整流函数(Rectified Linear Unit, ReLU) 、Sigmoid函数和双曲正切函数(hyperbolic tangent,tanh)。

ReLU函数:

Sigmoid函数:

双曲正切函数:

梯度下降法

梯度表示函数在特定点的方向导数沿着该方向的最大值,即函数在特定点沿着该方向变化率最大。假定n元函数在n维空间具有一阶连续偏导数,函数在该空间上的任意点的偏导数或者梯度的数学表达式为:

二、卷积神经网络CNN

卷积神经网络(Convolutional Neural Network,CNN)是包含卷积运算且具有深度结构的前馈神经网络(Feedforward Neural Networks)。具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),在计算机视觉和自然语言处理等领域得到了成功的应用。

卷积神经网络一般包含输入层(Input Layer)、卷积层(convolutional layer)、池化层(pooling layer)、全连接层(fully-connected layer)和输出层(Output layer)。

 

权重W也称为卷积核,卷积运算的主要目的是提取主要特征,去除噪音信号,选择不同的卷积核进行卷积运算,可以得到不同的特征信息。卷积操作原理可以参考图6-6,假定输入X的维度为7x7,选择卷积核W的维度为3x3,卷积核W在X平面上从左向右,从上往下依次移动,每次移动步长为1,则可以得出重合部分卷积结果的维度应为5x5,将卷积核W各位置的元素值与输入X对应位置的元素值相乘后求和,可以得出X*W对应位置的元素值,经过卷积处理后可以提取原输入的主要特征并实现降低维度的目的。

均值池化(average pooling)和极大池化(maximum pooling),

三、循环神经网络RNN

循环神经网络(Recurrent Neural Network,RNN)是以序列数据为输入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。

四、长短时记忆网络LSTM

长短时记忆网络(Long Short Term Memory Network:LSTM)可以存储状态信息,记忆不定时间长度的信息。区块中存在门能够决定输入信息是否重要到能被记住及能不能被输出,忘记门的原理类似,如果信息在这里输出结果趋近于零,则此处值将被忽略,不会进到下一层进行进一步处理。

五、深度信念网络DBN

深度信念网络 (Deep Belief Network, DBN) 是一种生成模型,通过训练神经元间的权重,可以实现让神经网络按照最大概率来生成训练数据。可以使用 DBN 识别特征、分类数据和生成数据。

DBN由多层神经元构成,神经元分为显性神经元和隐性神经元。前者接收信息输入,后者提取特征。

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
6月前
|
机器学习/深度学习 传感器 数据采集
基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)
基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)
974 0
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。
|
12月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本内容介绍了一种基于CNN-LSTM-SAM网络与鲸鱼优化算法(WOA)的时间序列预测方法。算法运行于Matlab2022a,完整程序无水印并附带中文注释及操作视频。核心流程包括数据归一化、种群初始化、适应度计算及参数更新,最终输出最优网络参数完成预测。CNN层提取局部特征,LSTM层捕捉长期依赖关系,自注意力机制聚焦全局特性,全连接层整合特征输出结果,适用于复杂非线性时间序列预测任务。
|
机器学习/深度学习 算法 计算机视觉
基于CNN卷积神经网络的金融数据预测matlab仿真,对比BP,RBF,LSTM
本项目基于MATLAB2022A,利用CNN卷积神经网络对金融数据进行预测,并与BP、RBF和LSTM网络对比。核心程序通过处理历史价格数据,训练并测试各模型,展示预测结果及误差分析。CNN通过卷积层捕捉局部特征,BP网络学习非线性映射,RBF网络进行局部逼近,LSTM解决长序列预测中的梯度问题。实验结果表明各模型在金融数据预测中的表现差异。
503 10
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)
深入理解深度学习中的卷积神经网络(CNN)
663 10

热门文章

最新文章