PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)

简介: PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)

需要源码请点赞关注收藏后评论区留言私信~~~

激活函数是神经网络中的重要组成部分。在多层神经网络中,上层节点的输出和下层节点的输入之间有一个函数关系。如果这个函数我们设置为非线性函数,深层网络的表达能力将会大幅度提升,几乎可以逼近任何函数,这里,我们把这些非线性函数叫做激活函数。激活函数的作用就是给网络提供非线性的建模能力。

一、Sigmoid函数

Sigmoid函数指一类S型曲线函数,为两端饱和函数。Sigmoid函数是使用范围最广的一类激活函数,在物理意义上最接近生物神经元

由于它的输出在(0,1)之间,所以还可以被表示为概率或者用作输入的归一化,即带有“挤压”的功能

Sigmoid函数图像与公式

torch.sigmoid():函数或方法 torch.nn.Sigmoid() :网络层 torch.nn.functional.sigmoid():层中方法,在forward中使用

Sigmoid函数很好地解释了神经元在受到刺激的情况下是否被激活和向后传递的情景,当取值接近0时几乎没有被激活,当取值接近1的时候几乎完全被激活

sigmoid函数缺点,那就是使用sigmoid函数容易出现梯度消失,甚至小概率会出现梯度爆炸问题

解析式里含有幂函数,计算机在求解的时候比较耗时,对于规模比较大的网络来说,将会较大的增加网络训练的时间

sigmoid的输出不是0均值的,这会造成后面层里的神经元的输入是非零均值的信号,从而对梯度产生影响,使得收敛缓慢

代码如下

import matplotlib.pyplot as plt
import numpy as np
x = np.linspace(-10,10)
y_sigmoid = 1/(1+np.exp(-x))
y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
fig = plt.figure()
# plot sigmoid
ax = fig.add_subplot()
ax.plot(x,y_tanh)
ax.grid()
ax.set_title('Sigmoid')
plt.show()

二、Tanh函数

tanh函数是sigmoid函数的一个变形,两者的关系为tanh⁡(x)=2sigmoid(2x)-1

Tanh函数图像与公式

将输出值映射到(-1,1)之间,因此解决了sigmoid函数的非0均值问题

tanh函数也存在缺点,即它也存在梯度消失和梯度爆炸的问题

幂运算也会导致计算耗时久

为了防止饱和情况的发生,在激活函数前可以加一步batch normalization,尽可能的保证神经网络的输入在每一层都具有均值较小的0中心分布

代码如下

import matplotlib.pyplot as plt
import numpy as np
x = np.linspace(-10,10)
y_sigmoid = 1/(1+np.exp(-x))
y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
fig = plt.figure()
ax = fig.add_subplot()
ax.plot(x,y_tanh)
ax.grid()
ax.set_title('Tanh')
plt.show()

三、ReLU函数

Relu是修正线性单元(The Rectified Linear Unit)的简称,跟sigmoid和tanh函数相比,Relu函数对于随机梯度下降的收敛速度有极大的促进作用

Relu函数是近几年比较受欢迎的一个激活函数,目前在深度学习领域非常常用

ReLU函数图像与公式

ReLU函数不存在指数运算部分,几乎没有什么计算量

收敛快,计算简单,具有单侧抑制、宽兴奋边界的生物学合理性,可以缓解梯度消失的问题

缺点是有时候会比较脆弱,可能会导致神经元的死亡。比如很大的梯度经过Relu单元之后,权重的更新结果可能是0,在此之后它将永远不能再被激活

代码如下

import matplotlib.pyplot as plt
import numpy as np
x = np.linspace(-10,10)
y_sigmoid = 1/(1+np.exp(-x))
y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
fig = plt.figure()
ax = fig.add_subplot()
y_relu = np.array([0*item  if item<0 else item for item in x ])
ax.plot(x,y_relu)
ax.grid()
ax.set_title('ReLu')
plt.show()

四、LeakyReLU函数

公式中γ是很小的负数梯度值

LeakyRelu函数图像与公式

LeakyReLU解决了一部分ReLU存在的可能杀死神经元的问题。它给所有非负值赋予一个非零的斜率,来保证负轴不为零,保证负轴信息的存在性,因此解决了一部分神经元死亡的问题

然而,在实际使用的过程中,LeakyRelu函数并非总是有优于Relu函数

通常来说,很少把各种激活函数同时使用在一个网络中

可以首先试试Relu函数,如果效果不好,可以继而试用LeakyRelu函数,tanh函数等,最好不要轻易使用sigmoid函数。总而言之,激活函数的使用需要根据具体的模型具体分析,多尝试不同的激活函数,最后选取效果最好的一个,具体问题具体分析,不能一概而论

import matplotlib.pyplot as plt
import numpy as np
x = np.linspace(-10,10)
y_sigmoid = 1/(1+np.exp(-x))
y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
fig = plt.figure()
ax = fig.add_subplot()
y_relu = np.array([0.2*item  if item<0 else item for item in x ])
ax.plot(x,y_relu)
ax.grid()
ax.set_title('Leaky ReLu')
plt.show()

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(五):nn.AdaptiveAvgPool2d()函数详解
PyTorch中的`nn.AdaptiveAvgPool2d()`函数用于实现自适应平均池化,能够将输入特征图调整到指定的输出尺寸,而不需要手动计算池化核大小和步长。
97 1
Pytorch学习笔记(五):nn.AdaptiveAvgPool2d()函数详解
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(六):view()和nn.Linear()函数详解
这篇博客文章详细介绍了PyTorch中的`view()`和`nn.Linear()`函数,包括它们的语法格式、参数解释和具体代码示例。`view()`函数用于调整张量的形状,而`nn.Linear()`则作为全连接层,用于固定输出通道数。
78 0
Pytorch学习笔记(六):view()和nn.Linear()函数详解
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(四):nn.MaxPool2d()函数详解
这篇博客文章详细介绍了PyTorch中的nn.MaxPool2d()函数,包括其语法格式、参数解释和具体代码示例,旨在指导读者理解和使用这个二维最大池化函数。
105 0
Pytorch学习笔记(四):nn.MaxPool2d()函数详解
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(三):nn.BatchNorm2d()函数详解
本文介绍了PyTorch中的BatchNorm2d模块,它用于卷积层后的数据归一化处理,以稳定网络性能,并讨论了其参数如num_features、eps和momentum,以及affine参数对权重和偏置的影响。
135 0
Pytorch学习笔记(三):nn.BatchNorm2d()函数详解
|
1月前
|
机器学习/深度学习 PyTorch TensorFlow
Pytorch学习笔记(二):nn.Conv2d()函数详解
这篇文章是关于PyTorch中nn.Conv2d函数的详解,包括其函数语法、参数解释、具体代码示例以及与其他维度卷积函数的区别。
121 0
Pytorch学习笔记(二):nn.Conv2d()函数详解
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
本文介绍了PyTorch中的F.softmax()和F.log_softmax()函数的语法、参数和使用示例,解释了它们在进行归一化处理时的作用和区别。
356 1
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Pytorch学习笔记(八):nn.ModuleList和nn.Sequential函数详解
PyTorch中的nn.ModuleList和nn.Sequential函数,包括它们的语法格式、参数解释和具体代码示例,展示了如何使用这些函数来构建和管理神经网络模型。
76 1
|
1月前
|
PyTorch 算法框架/工具
Pytorch学习笔记(一):torch.cat()模块的详解
这篇博客文章详细介绍了Pytorch中的torch.cat()函数,包括其定义、使用方法和实际代码示例,用于将两个或多个张量沿着指定维度进行拼接。
66 0
Pytorch学习笔记(一):torch.cat()模块的详解
|
1月前
|
机器学习/深度学习 算法 PyTorch
Pytorch的常用模块和用途说明
肆十二在B站分享PyTorch常用模块及其用途,涵盖核心库torch、神经网络库torch.nn、优化库torch.optim、数据加载工具torch.utils.data、计算机视觉库torchvision等,适合深度学习开发者参考学习。链接:[肆十二-哔哩哔哩](https://space.bilibili.com/161240964)
29 0
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索PyTorch:自动微分模块
探索PyTorch:自动微分模块

热门文章

最新文章