《深度学习》李宏毅 -- task4深度学习介绍和反向传播机制

简介: Step1:神经网络(Neural network)Step2:模型评估(Goodness of function)Step3:选择最优函数(Pick best function)

深度学习的三个步骤


image.png


Step1:神经网络(Neural network)

Step2:模型评估(Goodness of function)

Step3:选择最优函数(Pick best function)


2.1 神经网络(Neural network)

image.png

神经网络(Neural network)里面的节点,类似我们的神经元。神经网络也可以有很多不同的连接方式,这样就会产生不同的结构(structure)在这个神经网络里面,我们有很多逻辑回归函数,其中每个逻辑回归都有自己的权重和自己的偏差,这些权重和偏差就是参数。


2.2 模型评估(Goodness of function)

损失示例:

image.png

对于模型的评估,我们一般采用损失函数来反应模型的好差,所以对于神经网络来说,采用交叉熵(cross entropy)函数来对y yy和y ^\hat{y}y^的损失进行计算。

总体损失:

image.png

对于损失,我们不单单要计算一笔数据的,而是要计算整体所有训练数据的损失,然后把所有的训练数据的损失都加起来,得到一个总体损失L。


2.3 选择最优函数(Pick best function)

我们使用梯度下降法去找最优函数和最好的一组参数。

image.png

image.png



反向传播


1.损失函数(Loss function)是定义在单个训练样本上的,也就是就算一个样本的误差,比如我们想要分类,就是预测的类别和实际类别的区别,是一个样本的,用L表示。

2.代价函数(Cost function)是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均,有没有这个平均其实不会影响最后的参数的求解结果。

3.总体损失函数(Total loss function)是定义在整个训练集上面的,也就是所有样本的误差的总和。也就是平时我们反向传播需要最小化的值。


总结


通过本节的学习,我学会了:


1.深度学习的来由

2.深度学习的步骤

3.反向传播的基础知识


目录
相关文章
|
机器学习/深度学习 算法 TensorFlow
深度学习常用知识梯度下降学习率和反向传播
深度学习常用知识梯度下降学习率和反向传播
431 0
|
7月前
|
机器学习/深度学习 算法 PyTorch
深度学习调参新思路:Hyperband早停机制提升搜索效率
Hyperband是一种高效的超参数调优算法,通过逐次减半策略在探索与利用间取得平衡。它先为大量配置分配少量资源,快速淘汰表现差的模型,将剩余资源集中用于有潜力的配置,从而加快优化过程。相比贝叶斯优化、随机搜索和遗传算法,Hyperband在处理大规模搜索空间时效率更高,尤其适合资源有限的场景。文章通过LSTM模型预测股价的实验展示了其工作机制与实际效果。
395 6
深度学习调参新思路:Hyperband早停机制提升搜索效率
|
机器学习/深度学习 人工智能 算法
深度学习入门:理解神经网络与反向传播算法
【9月更文挑战第20天】本文将深入浅出地介绍深度学习中的基石—神经网络,以及背后的魔法—反向传播算法。我们将通过直观的例子和简单的数学公式,带你领略这一技术的魅力。无论你是编程新手,还是有一定基础的开发者,这篇文章都将为你打开深度学习的大门,让你对神经网络的工作原理有一个清晰的认识。
|
机器学习/深度学习 人工智能 自然语言处理
揭秘深度学习中的自注意力机制及其在Transformer模型中的应用
揭秘深度学习中的自注意力机制及其在Transformer模型中的应用
|
机器学习/深度学习 人工智能 自然语言处理
揭秘深度学习中的自注意力机制及其在现代AI应用中的革新
揭秘深度学习中的自注意力机制及其在现代AI应用中的革新
|
机器学习/深度学习 自然语言处理 算法
深度学习中的自注意力机制:理解与应用
本文深入探讨了深度学习领域的一项关键技术——自注意力机制,旨在揭示其工作原理、优势以及在各类任务中的应用。通过分析自注意力机制如何使模型捕捉序列内部的动态依赖关系,本文阐明了其在提升模型性能方面的重要性。同时,文中还讨论了自注意力机制在自然语言处理、图像识别等领域的具体应用案例,并指出了当前研究的局限性和未来的发展方向。
583 27
|
机器学习/深度学习 自然语言处理 计算机视觉
深度学习中的自注意力机制:理解与应用
在深度学习领域,自注意力机制(Self-Attention Mechanism)已成为推动模型性能飞跃的关键技术之一。本文将通过浅显易懂的方式,探讨自注意力机制的核心原理、实现方法及其在不同领域的应用实例,旨在为初学者和从业者提供一份简明扼要的指南。
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的自注意力机制:理论与实践
在深度学习的海洋中,自注意力机制犹如一艘破浪前行的帆船,引领着模型理解数据的新航向。本文将深入探讨自注意力机制的原理,解析其如何在各类任务中发挥作用,并分享一些实际应用案例,以期为读者提供对该技术更深层次的理解和应用启示。
345 3
|
机器学习/深度学习 算法 Serverless
现代深度学习框架构建问题之链式法则在反向传播中的作用如何解决
现代深度学习框架构建问题之链式法则在反向传播中的作用如何解决
242 3
|
机器学习/深度学习 自然语言处理 算法
深度学习的奥秘:探索神经网络的核心机制
在这篇文章中,我们将深入浅出地探讨深度学习背后的科学原理和实际应用。通过简化的语言和生动的比喻,我们将揭示神经网络如何模仿人脑处理信息的方式,以及它们如何在各种领域内实现惊人的成就。无论你是技术新手还是资深专家,这篇文章都将为你提供新的视角和深刻的见解。

热门文章

最新文章