【深度学习】常用算法生成对抗网络、自编码网络、多层感知机、反向传播等讲解(图文解释 超详细)

简介: 【深度学习】常用算法生成对抗网络、自编码网络、多层感知机、反向传播等讲解(图文解释 超详细)

觉得有帮助请点赞关注收藏~~~

一、生成对抗网络GAN

Generative Adversarial Network 两个组件组成:一个生成器,用于生成虚拟数据,另一个是鉴别器,用于(GAN)生成式深度学习算法,可创建类似于训练数据的新数据实例。

GAN 工作原理概要如下:

(1)初始训练期间,生成器产生虚拟数据,并输入鉴别器。

(2)鉴别器基于学习模型区分生成器的假数据和真实样本数据。

(3)对抗网络将鉴别结果发送给生成器和鉴别器以更新相应模型。

二、自编码网络

自编码器(Autoencoder)是神经网络的一种特殊形式,将输入复制到输出,因此也可以称为恒等函数。其核心思想是将输入复制到输出时,神经网络学习输入的特定属性。

其核心思想是将输入复制到输出时,神经网络学习输入的特定属性。自编码器的主要用途如下

1:降维:通过将多维数据转换为较小维度数据 降低数据复杂性

2:特征学习:学习数据的特定或者重要属性

3:生成建模:通过自编码器学习数据样本特征来生成新的数据样本

三、强化学习 (增强学习)

增强学习和监督学习的区别:

(1) 增强学习是试错学习(Trail-and-error),由于没有直接的标注信息提供参考,需要不断与环境进行交互,通过试错的方式来获得最优行为策略。

(2) 激励延迟(Delayed Return),增强学习缺乏参考信息,激励在时间上通常延迟发生,因此如何优化分配激励成为不能忽略的课题。

四、多层感知机MLP

多层感知机属于前馈神经网络,具有激活功能,多层感知机由完全连接的输入层和输出层组成,它们具有相同的输入层和输出层,但可能有多个隐藏层,隐藏层输出可以通过激活函数进行变换。

原理:

(1)将数据馈送到网络的输入层。

(2)基于输入层和隐藏层之间的权重执行计算。多层感知机使用激活函数确定触发节点的信息。常用的激活函数包括 ReLU、Sigmoid 函数和 Tanh。

(3)训练模型获得相关性以及变量之间的依赖关系。

五、自组织映射神经网络SOM

它可以减少数据处理的维度,不同于基于损失函数反向传递算法的神经网络,自组织映射网络使用竞争学习策略,依靠神经元互相竞争实现优化网络的目标

工作原理:

(1)为所有节点初始化权重,并随机选择一个输入样本。

(2)查找与随机输入样本的最优相似度。

(3)基于最优相似度遴选优胜邻域节点,更新优胜领域节点的权重信息。

(4)迭代计算,直到满足迭代次数或者要求。

六、径向基函数网络RBFN

它是一种特殊类型的前馈神经网络,它使用径向基函数作为激活函数,径向基函数是沿径向对称的函数,径向基函数网络由输入层,隐藏层和输出层组成。

工作原理:

(1)接收信息输入,此时不执行变换计算。

(2)在隐藏层对数据进行变换,隐藏层节点使用输入与中心向量的距离(如欧式距离)作为径向基函数的自变量,这与反向传播网络常用输入与权向量的内积作为自变量存在区别。

(3)输出层对隐藏层的输出信息执行加权运算,作为神经网络的结果。

七、反向传播算法BP

BP神经网络基于梯度下降法,将M维数据输入欧式空间映射到N维输出欧式空间,由正向传播过程和反向传播过程组成。

信号从层传递到层(黑色箭头),误差没有达到预期值时,误差传播方向与信号方向相反(绿色箭头)。

八、连接时序分类CTC

连接时序分类(Connectionist Temporal Classification,CTC)主要用于处理序列标注问题中的输入与输出标签的对齐问题。基于传统方法的自然语言处理,语音转换为数据以后,需明确单帧信息对应的标签才能执行有效的训练,因此在训练数据之前需要执行语音信息对齐的预处理。其缺点是工时量消耗大,在标签对齐信息部分缺失的情况下,正确的预测比较困难;而且预测结果只利用了局部信息。CTC由于使用端到端训练,并不需要输入和输出对齐,输出整体序列的预测概率,因此可以克服这些问题。CTC通过引入一个特殊的空白字符(blank),解决变长映射的问题,其典型应用场景是文本识别。

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
3天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
92 55
|
11天前
|
机器学习/深度学习 人工智能 算法
深入解析图神经网络:Graph Transformer的算法基础与工程实践
Graph Transformer是一种结合了Transformer自注意力机制与图神经网络(GNNs)特点的神经网络模型,专为处理图结构数据而设计。它通过改进的数据表示方法、自注意力机制、拉普拉斯位置编码、消息传递与聚合机制等核心技术,实现了对图中节点间关系信息的高效处理及长程依赖关系的捕捉,显著提升了图相关任务的性能。本文详细解析了Graph Transformer的技术原理、实现细节及应用场景,并通过图书推荐系统的实例,展示了其在实际问题解决中的强大能力。
91 30
|
6天前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
9天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于深度学习网络的宝石类型识别算法matlab仿真
本项目利用GoogLeNet深度学习网络进行宝石类型识别,实验包括收集多类宝石图像数据集并按7:1:2比例划分。使用Matlab2022a实现算法,提供含中文注释的完整代码及操作视频。GoogLeNet通过其独特的Inception模块,结合数据增强、学习率调整和正则化等优化手段,有效提升了宝石识别的准确性和效率。
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)##
在当今的人工智能领域,深度学习已成为推动技术革新的核心力量之一。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,因其在图像和视频处理方面的卓越性能而备受关注。本文旨在深入探讨CNN的基本原理、结构及其在实际应用中的表现,为读者提供一个全面了解CNN的窗口。 ##
|
12天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
18天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
6天前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
14天前
|
算法
基于GA遗传算法的PID控制器参数优化matlab建模与仿真
本项目基于遗传算法(GA)优化PID控制器参数,通过空间状态方程构建控制对象,自定义GA的选择、交叉、变异过程,以提高PID控制性能。与使用通用GA工具箱相比,此方法更灵活、针对性强。MATLAB2022A环境下测试,展示了GA优化前后PID控制效果的显著差异。核心代码实现了遗传算法的迭代优化过程,最终通过适应度函数评估并选择了最优PID参数,显著提升了系统响应速度和稳定性。
|
12天前
|
算法
基于WOA鲸鱼优化的购售电收益与风险评估算法matlab仿真
本研究提出了一种基于鲸鱼优化算法(WOA)的购售电收益与风险评估算法。通过将售电公司购售电收益风险计算公式作为WOA的目标函数,经过迭代优化计算出最优购电策略。实验结果表明,在迭代次数超过10次后,风险价值收益优化值达到1715.1万元的最大值。WOA还确定了中长期市场、现货市场及可再生能源等不同市场的最优购电量,验证了算法的有效性。核心程序使用MATLAB2022a实现,通过多次迭代优化,实现了售电公司收益最大化和风险最小化的目标。