二、浅层神经网络

简介: 二、浅层神经网络

1、神经网络的表示


所有输入特征组成输入层(Input Layer),最终的输出神经元组成输出层(Output Layer),输入层和输出层之间的叫做隐藏层(Hidden Layer)。神经网络通过偏置和权重进行计算的示意图如下图所示:

879b93829349440494135d2b505c5c3c.png


将上述计算式进一步进行整合:

image.png

在进行多个样本的并行训练时,计算方法如下所示:

image.png



其中, Z[i],A[i]表示不同训练样本在相同神经网络层下的权值累和和输入值,将其组合起来为矩阵形式,矩阵的行表示当前神经网络层的神经元个数,列表示训练样本数量,如下图所示:

image.png


2、激活函数


除了之前介绍的sigmoid激活函数,还有一种另外一种激活函数为tanh激活函数,同时tanh在大多数情况下用于隐藏层时的效果要优于sigmoid激活函数,但是在输出层一般使用sigmoid激活函数。tanh激活函数表达式为:

image.png

tanh激活函数的图像如下图所示:


284f219def7b4f8ea73e1d25efeb296b.png


sigmoid激活函数和tanh激活函数具有一个相同的弊端:当z的值十分大或者十分小时,sigmoid激活函数和tanh激活函数的导数均比较小,这会导致梯度下降运算效率降低;所以,另外一种常用的激活函数时ReLU激活函数,


image.png

,ReLU的图像如下所示:


c629e21e8c8043cda4e31486a81bd905.png



2.1 激活函数的导数

 

sigmoid激活函数:


614297bf03c54182882428c2c30b1f03.png


tanh激活函数:

9d2e96fafaff41da8a1407e070080246.png


ReLU激活函数和Leakey ReLU激活函数:


f390816caf0c47e5ab8f13b0d9334c2a.png





3、神经网络的误差反向传播


单个隐藏层的神经网络误差反向传播的公式如下所示:dd86fb258fcf431ea87b9d0e6a6cc2cd.png






4、神经网络参数的随机初始化



如果将所有权重和偏置均初始化为0,则会使得神经网络中每一个隐藏层中的所有神经元起到相同的作用,即每一个隐藏层中的所有神经元均计算的是同一个相同的函数,从而使得增加神经元数量变得无效,降低学习效果。偏置可以初始化为0,但是权重不能初始化为0。


通常的做法是使用随机初始化偏置和权重的方法,通常将权重初始化为比较小的数值,因为如果将权重设置的很大,将会使得梯度下降的速度减慢:

d217b9b88b0847d987e6dc8af71aecdd.png











相关文章
|
11月前
|
机器学习/深度学习 算法 Python
第三周:浅层神经网络
前面的课程中,我们已经使用计算图的方式介绍了逻辑回归梯度下降算法的正向传播和反向传播两个过程。如下图所示。神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层/中间层。
169 0
|
机器学习/深度学习 算法
浅层神经网络
浅层神经网络
114 0
浅层神经网络
|
机器学习/深度学习
第三周浅层神经网络
第三周浅层神经网络
99 0
第三周浅层神经网络
|
机器学习/深度学习 人工智能 自然语言处理
深度学习教程 | 浅层神经网络
本文从浅层神经网络入手,讲解神经网络的基本结构(输入层,隐藏层和输出层),浅层神经网络前向传播和反向传播过程,神经网络参数的梯度下降优化,不同的激活函数的优缺点及非线性的原因
278 1
深度学习教程 | 浅层神经网络
|
机器学习/深度学习 算法 Python
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。
192 0
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
|
机器学习/深度学习 资源调度 Python
|
机器学习/深度学习 数据采集 人工智能
搭建浅层神经网络"Hello world"
作为图像识别与机器视觉界的 "hello world!" , MNIST ("Modified National Institute of Standards and Technology") 数据集有着举足轻重的地位。基本上每本人工智能、机器学习相关的书上都以它作为开始。
1046 0
|
机器学习/深度学习
吴恩达《深度学习》第一门课(3)浅层神经网络
3.1神经网络概述 (1)神经网络每个单元相当于一个逻辑回归,神经网络由逻辑回归的堆叠起来。下图是网络结构: 针对网络结构进行计算: 1.第一层的正向传播 2.第一层的反向传播 3.第二层的反向传播(正向只要把微分符号去掉即可) 3.
1455 0
|
机器学习/深度学习 资源调度
DeepLearningAI 学习笔记 1.3 浅层 logistic 神经网络
1.3 浅层 logistic 神经网络 视频:第三周 浅层神经网络 整理:飞龙 普通的 logistic 可看做无隐层的神经网络。
|
机器学习/深度学习 算法 Python
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络
介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录。 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记(CSDN)系列笔记中都有提到,所以这里不再赘述。
1189 0

热门文章

最新文章

相关实验场景

更多