【Tensorflow深度学习】优化算法、损失计算、模型评估、向量嵌入、神经网络等模块的讲解(超详细必看)

简介: 【Tensorflow深度学习】优化算法、损失计算、模型评估、向量嵌入、神经网络等模块的讲解(超详细必看)

觉得有帮助请点赞关注收藏~~~

一、优化算法

1)Adam算法: 基于一阶或二阶动量(Moments)的随机梯度下降算法,动量是非负超参数,主要作用是调整方向梯度下降并抑制波动。此算法适用于数据量和参数规模较大的场合。

(2)SGD算法: 动量梯度下降算法。

(3)Adagrad算法: 学习率与参数更新频率相关。

(4)Adamax算法:Adam算法的扩展型,词嵌入运算有时优于Adam算法。

(5)Ftrl算法:谷歌发明的算法,适用于大稀疏特征空间的场合。

(6)Nadam算法: 基于Adam算法,使用Nesterov动量。

(7)RMSprop算法:基于梯度平方均值。

(8)Adadelta算法:使用随机梯度下降算法和自适应学习率,避免训练过程中学习率持续劣化以及手动设定问题。

二、损失计算

Tensorflow的keras.losses库中定义了各种损失值得运算类,下面重点介绍常用的几种

(1)CategoricalCrossentropy类: 计算标签和预测值之间的交叉熵损失(Crossentropy Loss)。

(2)SparseCategoricalCrossentropy类: 原理与CategoricalCrossentropy类似。比较适用于有两个及以上标签类别的场景,如果运算基于独热表示标签,更适合使用CategoricalCrossentropy损失。

(3) BinaryCrossentropy类: 类似CategoricalCrossentropy,适用于0或者1二分类的场合。

(4)MeanSquaredError类:计算标签和预测值之间的误差平方均值。

(5)MeanAbsoluteError类:计算标签和预测值之间的绝对误差均值。

(6)Hinge类:计算真实值和预测值之间的铰链损失。

三、模型评估

Tensorflow的keras.metrics库中定义了模型评估指标 下面介绍几种代表性指标

(1)AUC类:代表Area Under The Curve,计算ROC 的曲线下面积。

(2)MeanSquaredError类:计算预测值和真实值的误差平方均值。

(3)MeanAbsoluteError类:计算标签值和预测值的误差绝对均值。

(4)Accuracy类:计算标签值和预测值相同的频率。

(5)CategoricalCrossentropy类: 计算标签和预测值之间的交叉熵。

(6)SparseCategoricalCrossentropy类: 原理与CategoricalCrossentropy类似,比较适用于有两个及以上标签类别的场景

四、向量嵌入

机器学习模型将向量作为输入,因此在将字符串输入模型之前需要将字符串转换为数值向量,也称为词嵌入。词嵌入提供了一种高效表示的方法,其中相似的词具有相似的编码,在处理大型数据集时,通常会看到多维的词嵌入处理,高纬度嵌入可以体现词间的细粒度关系,但需要更多的数据来学习

Embedding(    input_dim, output_dim, embeddings_initializer,    embeddings_regularizer, activity_regularizer,    embeddings_constraint, mask_zero, input_length, **kwargs )

主要参数说明:

input_dim:词语大小;

output_dim:嵌入维度;

embeddings_initializer:嵌入矩阵初始值;

embeddings_regularizer:嵌入矩阵调整函数;

embeddings_constraint:嵌入矩阵限定函数;

mask_zero:布尔值,判断是否零作为填充;

input_length:输入序列长度。

五、神经网络

门控机制基于循环神经网络,门控循环单元网络(GRU)类似于附带遗忘门的长短期记忆网络,但参数比后者少,门控循环单元网络在自然语言处理的部分性能能与长短期记忆网络相似,在较小数据集上的分析效果比较突出 语法定义如下

GRU(units, activation, recurrent_activation,    use_bias, kernel_initializer,recurrent_initializer,    bias_initializer, kernel_regularizer,    recurrent_regularizer, bias_regularizer, activity_regularizer,kernel_constraint, recurrent_constraint, bias_constraint,dropout, recurrent_dropout, return_sequences, return_state,go_backwards, stateful, unroll, time_major,    reset_after, **kwargs)

主要参数说明:

·  units:输出空间维度;

·  Activation:激活函数;

·  recurrent_activation:重复激活函数;

·  use_bias:偏置量标识;

·  kernel_initializer:权重矩阵初始化;

·  dropout:输入的丢弃率,介于0和1之间;

·  go_backwards:逆向处理输入序列。

创作不易  觉得有帮助请点赞关注收藏~~~

相关文章
|
4月前
|
机器学习/深度学习 算法 数据可视化
基于MVO多元宇宙优化的DBSCAN聚类算法matlab仿真
本程序基于MATLAB实现MVO优化的DBSCAN聚类算法,通过多元宇宙优化自动搜索最优参数Eps与MinPts,提升聚类精度。对比传统DBSCAN,MVO-DBSCAN有效克服参数依赖问题,适应复杂数据分布,增强鲁棒性,适用于非均匀密度数据集的高效聚类分析。
|
4月前
|
机器学习/深度学习 算法
采用蚁群算法对BP神经网络进行优化
使用蚁群算法来优化BP神经网络的权重和偏置,克服传统BP算法容易陷入局部极小值、收敛速度慢、对初始权重敏感等问题。
429 5
|
4月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
4月前
|
机器学习/深度学习 人工智能 算法
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
227 0
|
4月前
|
机器学习/深度学习 算法 物联网
基于遗传方法的动态多目标优化算法
基于遗传方法的动态多目标优化算法
|
5月前
|
机器学习/深度学习 存储 算法
【微电网调度】考虑需求响应的基于改进多目标灰狼算法的微电网优化调度研究(Matlab代码实现)
【微电网调度】考虑需求响应的基于改进多目标灰狼算法的微电网优化调度研究(Matlab代码实现)
234 0
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
1185 55
|
机器学习/深度学习 数据采集 数据可视化
TensorFlow,一款由谷歌开发的开源深度学习框架,详细讲解了使用 TensorFlow 构建深度学习模型的步骤
本文介绍了 TensorFlow,一款由谷歌开发的开源深度学习框架,详细讲解了使用 TensorFlow 构建深度学习模型的步骤,包括数据准备、模型定义、损失函数与优化器选择、模型训练与评估、模型保存与部署,并展示了构建全连接神经网络的具体示例。此外,还探讨了 TensorFlow 的高级特性,如自动微分、模型可视化和分布式训练,以及其在未来的发展前景。
1078 5
|
机器学习/深度学习 人工智能 算法
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
鸟类识别系统。本系统采用Python作为主要开发语言,通过使用加利福利亚大学开源的200种鸟类图像作为数据集。使用TensorFlow搭建ResNet50卷积神经网络算法模型,然后进行模型的迭代训练,得到一个识别精度较高的模型,然后在保存为本地的H5格式文件。在使用Django开发Web网页端操作界面,实现用户上传一张鸟类图像,识别其名称。
671 12
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别

热门文章

最新文章