sigmoid函数

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 本文探讨了高等数学中的sigmoid函数,它在神经网络中的应用,特别是在二分类问题的输出层。sigmoid函数公式为 $\frac{1}{1 + e^{-x}}$,其导数为 $sigmoid(x)\cdot(1-sigmoid(x))$。文章还展示了sigmoid函数的图像,并提供了一个使用Python绘制函数及其导数的代码示例。

本文介绍高等数学中的sigmoid函数,以及在神经网络中的应用。

函数原型

$sigmoid(x) = \frac{1}{1 + \frac{1}{e^x}} = \frac{1}{1 + e^{-x}}$

导数的函数原型

$(sigmoid(x))' = (\frac{1}{1 + e^{-x}})' = \frac{-(1+e^{-x})'}{(1+e^{-x})^2} = \frac{e^{-x}}{(1+e^{-x})^2} = sigmoid(x)\cdot(1-sigmoid(x)) = \frac{e^{-x}}{1+e^{-x}} = 1 - \frac{1}{1 + e^{-x}}$

适用范围

主要用于二分类的输出层

函数图像

sigmoid函数

Python代码实现

def main():
    x = np.arange(-10, 10, 0.01)
    y = 1 / (1 + np.exp(-x))

    plt.figure(figsize=(6, 4))
    plt.title('sigmoid function')
    plt.xlabel('x', loc='left')
    plt.ylabel('y', loc='bottom')
    # sigmoid函数图像
    plt.plot(x, y, label='sigmoid function')

    # sigmoid导数图像
    der_y = y * (1 - y)
    plt.plot(x, der_y, label='sigmoid derivative function')

    plt.xticks(np.arange(-10, 11, 1))
    plt.yticks(np.arange(0, 1.1, 0.1))

    plt.legend()
    plt.grid(True, color='b', linewidth='0.5', linestyle='dashed')
    plt.tight_layout()
    plt.show()
目录
相关文章
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)
PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)
152 0
|
1月前
|
机器学习/深度学习 Python
tanh函数
本文探讨了高等数学中的tanh函数,即双曲正切函数,其定义为 $\tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}}$,导数为 $1 - \tanh^2(x)$。tanh函数广泛适用于各类场景,并在神经网络中有重要应用。提供的Python代码绘制了tanh函数及其导数的图像。
25 1
|
1月前
|
机器学习/深度学习
函数求导
本文概述了高等数学中函数求导的基本规则,包括常数、幂函数、求和、乘积、商、复合函数、指数函数及三角函数的导数。这些规则是微积分的基础,用于求解各种函数的导数。例如,常数的导数是0,$(x^n)' = n \cdot x^{n-1}$,$(e^x)' = e^x$,$\frac{d}{dx}\sin(x) = \cos(x)$。更复杂的函数可能需要使用隐函数或参数方程求导等高级技术。
26 1
plt画图(sigmoid、relu、softmax)
plt画图(sigmoid、relu、softmax)
70 0
|
机器学习/深度学习 人工智能 自然语言处理
【Pytorch神经网络理论篇】 07 激活函数+Sigmoid+tanh+ReLU+Swish+Mish+GELU
对于分类任务来说,如果仅仅给出分类的结果,在某些场景下,提供的信息可能并不充足,这就会带来一定的局限。因此,我们建立分类模型,不仅应该能够进行分类,同时,也应该能够提供样本属于该类别的概率。这在现实中是非常实用的。例如,某人患病的概率,明天下雨概率等。因此,我们需要将z的值转换为概率值,逻辑回归使用sigmoid函数来实现转换。
522 0
|
机器学习/深度学习 Serverless
|
机器学习/深度学习 Python
【激活函数】
【激活函数】
97 0
|
机器学习/深度学习 数据采集 人工智能
常用激活函数(激励函数)理解与总结
神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。
常用激活函数(激励函数)理解与总结
|
机器学习/深度学习
【2】激活函数与Loss函数求导
【2】激活函数与Loss函数求导
191 0
【2】激活函数与Loss函数求导
|
机器学习/深度学习 PyTorch 算法框架/工具
【26】pytorch中的grad求导说明以及利用backward获取梯度信息
【26】pytorch中的grad求导说明以及利用backward获取梯度信息
319 0
【26】pytorch中的grad求导说明以及利用backward获取梯度信息