leaky ReLU

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 本文探讨了高等数学中的leaky ReLU激活函数,其在神经网络中的应用。函数定义为:当$x\geq0$时,$f(x)=x$;当$x<0$时,$f(x)=\lambda x$,其中$\lambda\in(0,1)$是泄露率。导数为:$x\geq0$时,$f'(x)=1$;$x<0$时,$f'(x)=\lambda$。文中还提供了leaky ReLU的Python实现和图像展示。

本文介绍高等数学中的leaky ReLU,以及在神经网络中的应用。

函数原型

leaky ReLU(带泄露的ReLU)

$$ f(x) = \begin{cases} x, & \text{if } x \geq 0 \\ \lambda x, & \text{if } x < 0 \end{cases} $$

其中$\lambda$为泄露率,取 $(0,1) 内的数$

导数的函数原型

$$ f(x)' = \begin{cases} 1, & \text{if } x \geq 0 \\ \lambda, & \text{if } x < 0 \end{cases} $$

适用范围

默认全部

函数图像

leaky ReU函数

Python代码实现

def main():
    x = np.arange(-10, 10, 0.01)
    lambda1 = 0.5
    y = list(map(lambda x: x if x > 0 else lambda1 * x, x))

    plt.figure(figsize=(6, 4))
    plt.title('leaky ReU function')
    plt.xlabel('x', loc='left')
    plt.ylabel('y', loc='bottom')
    # ReU图像
    plt.plot(x, y, label='leaky ReU function')

    # ReU导数图像
    der_y = list(map(lambda x: 1 if x > 0 else lambda1, x))
    plt.plot(x, der_y, label='leaky ReU derivative function')

    plt.xticks(np.arange(-10, 11, 1))
    plt.yticks(np.arange(-1, 10, 1))

    plt.legend()
    plt.grid(True, color='b', linewidth='0.5', linestyle='dashed')
    plt.tight_layout()
    plt.show()
目录
相关文章
|
2月前
|
机器学习/深度学习 编解码
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
本文介绍了九种常用的神经网络激活函数:Sigmoid、tanh、ReLU、ReLU6、Leaky ReLU、ELU、Swish、Mish和Softmax,包括它们的定义、图像、优缺点以及在深度学习中的应用和代码实现。
158 0
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
|
2月前
|
机器学习/深度学习 资源调度 自然语言处理
Softmax激活函数介绍
【10月更文挑战第2天】
98 0
|
2月前
|
机器学习/深度学习 数据可视化 算法
激活函数与神经网络------带你迅速了解sigmoid,tanh,ReLU等激活函数!!!
激活函数与神经网络------带你迅速了解sigmoid,tanh,ReLU等激活函数!!!
|
4月前
|
算法框架/工具 数据格式
tf.keras.layers.Conv2D
【8月更文挑战第20天】tf.keras.layers.Conv2D。
44 2
|
4月前
tf.keras.layers.Dense
【8月更文挑战第20天】tf.keras.layers.Dense。
75 2
|
5月前
ReLU函数
【7月更文挑战第24天】ReLU函数。
117 1
|
6月前
|
机器学习/深度学习 Python
ReLU
本文探讨了高等数学中ReLU(修正线性单元)在神经网络的应用。ReLU函数定义为$f(x) = \max(0, x)$,其导数为$1$($x \geq 0$)或$0$($x &lt; 0$)。适用于除二分类问题外的其他问题。Python代码展示了ReLU及其导数的图形绘制。
60 1
|
4月前
|
机器学习/深度学习 自然语言处理 PyTorch
Dropout和R-Dropout的使用技巧
【8月更文挑战第4天】Dropout及其扩展R-Dropout在机器学习中的应用,包括Dropout解决过拟合问题的方法、最佳实践技巧以及R-Dropout如何通过两次前向传播和损失函数正则化来提高模型的泛化能力。
74 0
|
7月前
|
机器学习/深度学习 计算机视觉
epochs,batches,dropout是什么?
epochs,batches,dropout是什么?
70 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中nn.ReLU()和F.relu()有什么区别?
pytorch中nn.ReLU()和F.relu()有什么区别?
585 0