SiLU函数

简介: SiLU(Sigmoid Linear Unit)函数,也称为 Swish 函数,是一种常用于深度学习中的激活函数。它是由 Google 的研究人员提出的,旨在解决 ReLU(Rectified Linear Unit)函数的一些缺点,尤其是在深度网络的训练过程中。

SiLU 函数的定义

SiLU 函数的数学表达式如下:SiLU(x)=x⋅σ(x)

其中:

x 是输入值。
σ(x) 是 Sigmoid 函数,定义为:
σ(x)=11+e−x

SiLU 的特性

平滑性:SiLU 函数比 ReLU 更平滑,因此可以在训练过程中提供更平稳的梯度,避免了 ReLU 函数的死神经元问题(ReLU 函数在输入小于零时梯度为零,这可能导致某些神经元的更新停止)。
非线性:像 Sigmoid 和 Tanh 函数一样,SiLU 是非线性的,这使得它能够处理更复杂的模式。
输出范围:SiLU 的输出是非负的,并且随着输入的增大,输出逐渐增大。SiLU 输出的范围在 [0,+∞)之间,这与 ReLU 类似,但 SiLU 的增长方式比 ReLU 更平滑。
可微性:SiLU 函数在所有点都是可微的,这意味着它不会出现梯度消失问题,能够为深度神经网络提供更加稳定的训练。
SiLU vs ReLU vs Sigmoid

ReLU(Rectified Linear Unit):ReLU(x)=max⁡(0,x)
只对正输入有激活作用,负输入的梯度为 0,可能会导致神经元“死亡”。
Sigmoid:σ(x)=11+e−x
输出范围是 [0,1],通常用于二分类问题的输出层,但在深度神经网络中可能会出现梯度消失问题,导致学习效率较低。
SiLU:SiLU(x)=x⋅σ(x)
结合了 Sigmoid 和线性函数的特性,在深度学习中常被认为是对 ReLU 和 Sigmoid 的改进,能够避免梯度消失,并且在训练深层网络时有更好的性能。
SiLU 的优势

避免死神经元问题:
ReLU 的问题是当输入为负时,输出为零,且无法通过梯度更新,这可能导致“死神经元”现象,即某些神经元在训练过程中不再更新权重。而 SiLU 在负输入时也有非零的输出,使得所有神经元都可以参与训练,避免了这一问题。
平滑的梯度:
SiLU 的导数是平滑的,这意味着它提供了更连续的梯度,可以帮助更好地传播误差,尤其在深层神经网络中训练时,比 ReLU 和 Sigmoid 更稳定。
增加网络的表达能力:
与 ReLU 相比,SiLU 具有更多的非线性,使得它能够学习更复杂的特征。
SiLU 的导数

SiLU 的导数可以通过链式法则求得。首先,SiLU 函数的表达式是:SiLU(x)=x⋅σ(x)

然后,使用乘积的导数公式来求导:ddxSiLU(x)=ddx(x⋅σ(x))

应用乘积法则得到:ddxSiLU(x)=σ(x)+x⋅σ(x)⋅(1−σ(x))

因此,SiLU 的导数为:SiLU′(x)=σ(x)+x⋅σ(x)⋅(1−σ(x))

SiLU 函数的图形

SiLU 函数的图像比 ReLU 更为平滑,且对于负数输入也有非零输出。随着输入的增加,SiLU 的输出会逐渐增大,类似于线性增长。

SiLU 函数的应用

SiLU 函数已经在许多深度学习任务中取得了良好的表现,尤其是在一些复杂的任务(如图像分类、自然语言处理等)中,能够帮助神经网络更好地训练。许多现代的神经网络架构,如 BERT 和 ResNet 等,都采用了类似的激活函数。

在 PyTorch 中使用 SiLU

如果你使用 PyTorch,可以通过 torch.nn.SiLU() 或者直接使用 torch.sigmoid(x) * x 来实现 SiLU 激活函数。

import torch
import torch.nn as nn

定义 SiLU 激活函数

silu = nn.SiLU()

输入张量

x = torch.randn(5)

应用 SiLU 激活

output = silu(x)
print(output)
php
139 Bytes
© 菜鸟-创作你的创作
在 TensorFlow 中使用 SiLU

在 TensorFlow 中,SiLU 函数也可以通过 tf.keras.activations.silu() 来使用:

import tensorflow as tf

输入张量

x = tf.random.normal([5])

应用 SiLU 激活

output = tf.keras.activations.silu(x)
print(output)
php
123 Bytes
© 菜鸟-创作你的创作
总结

SiLU(Swish)是一个平滑且非线性的激活函数,结合了 Sigmoid 和 线性 的优点。它不仅避免了 ReLU 的死神经元问题,还能够提供更平滑的梯度传播,尤其适用于深度神经网络。随着深度学习模型的不断发展,SiLU 已经被越来越多的研究和工程实践所采用。
https://www.52runoob.com/archives/4732

目录
相关文章
|
9月前
|
机器学习/深度学习 自然语言处理 PyTorch
【笔记】激活函数SiLU和Swish
激活函数 SiLU 和 Swish 都是 深度学习 中用于神经网络中的非线性激活函数,旨在增强模型的表达能力和训练性能。实际上,SiLU(Sigmoid Linear Unit)和 Swish 本质上是同一个激活函数的两种不同名称。
678 0
|
机器学习/深度学习 测试技术 Python
【激活函数】基础回顾:带你认识神经网络中常见的激活函数
【激活函数】基础回顾:带你认识神经网络中常见的激活函数
1830 0
【激活函数】基础回顾:带你认识神经网络中常见的激活函数
|
机器学习/深度学习 人工智能 负载均衡
基于 NVIDIA Megatron-Core 的 MoE LLM 实现和训练优化
本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大型语言模型(LLM)实现与训练优化上的创新工作。
|
机器学习/深度学习
YOLOv11改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
YOLOv11改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
3099 4
|
机器学习/深度学习 数据可视化 测试技术
YOLO11实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
本文探讨了创新点在自定义数据集上表现不稳定的问题,分析了不同数据集和网络位置对创新效果的影响。通过在YOLO11的不同位置引入MSCAAttention模块,展示了三种不同的改进方案及其效果。实验结果显示,改进方案在mAP50指标上分别提升了至0.788、0.792和0.775。建议多尝试不同配置,找到最适合特定数据集的解决方案。
3962 0
|
机器学习/深度学习 编解码 测试技术
RT-DETR改进策略【注意力机制篇】| WACV-2024 D-LKA 可变形的大核注意 针对大尺度、不规则的目标图像
RT-DETR改进策略【注意力机制篇】| WACV-2024 D-LKA 可变形的大核注意 针对大尺度、不规则的目标图像
383 2
RT-DETR改进策略【注意力机制篇】| WACV-2024 D-LKA 可变形的大核注意 针对大尺度、不规则的目标图像
|
机器学习/深度学习 算法
广义优势估计(GAE):端策略优化PPO中偏差与方差平衡的关键技术
广义优势估计(GAE)由Schulman等人于2016年提出,是近端策略优化(PPO)算法的核心理论基础。它通过平衡偏差与方差,解决了强化学习中的信用分配问题,即如何准确判定历史动作对延迟奖励的贡献。GAE基于资格迹和TD-λ思想,采用n步优势的指数加权平均方法,将优势函数有效集成到损失函数中,为策略优化提供稳定梯度信号。相比TD-λ,GAE更适用于现代策略梯度方法,推动了高效强化学习算法的发展。
2250 3
广义优势估计(GAE):端策略优化PPO中偏差与方差平衡的关键技术
|
编解码 异构计算
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合
4050 7
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合