标准化:Normalization vs. 归一化:Standardization

简介: 关于标准化和归一化的概念,经常容易弄混淆,下面给出相关概念的公式。

一、归一化(2种形式)

1、Rescaling
图片.png

2、Mean normalization
图片.png

二、标准化

图片.png

参考链接

Feature scaling

相关文章
|
8月前
|
数据采集 机器学习/深度学习 资源调度
归一化和标准化
归一化和标准化
|
3月前
|
数据采集 机器学习/深度学习 算法
|
4月前
|
数据采集 定位技术 计算机视觉
归一化
【9月更文挑战第15天】
125 3
WK
|
4月前
|
机器学习/深度学习
实际应用场景下Tanh和Sigmoid哪个更常用
在实际应用中,Tanh和Sigmoid函数的选择受多种因素影响。Sigmoid函数常用于二分类问题的输出层,因其输出范围在(0, 1)内,适合表示概率;但在隐藏层中较少使用,因为它会导致梯度消失和非零中心化问题。Tanh函数输出范围在(-1, 1),以0为中心,适用于隐藏层,有助于加快收敛速度,但也存在梯度消失问题。随着深度学习技术的发展,ReLU及其变体因计算效率高和梯度消失问题较轻而逐渐成为主流选择。因此,选择激活函数需综合考虑任务需求和网络结构特点。
WK
130 2
|
5月前
|
机器学习/深度学习
Softmax 和 ReLU 函数的效用
【8月更文挑战第23天】
356 0
|
6月前
|
机器学习/深度学习
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
【7月更文挑战第14天】研究表明,层归一化(LayerNorm)可能具备非线性表达能力,挑战了神经网络对激活函数的依赖。在LN-Net结构中,仅使用线性层与LayerNorm就能实现复杂分类,其VC维度下界证明了非线性表达。尽管如此,是否能完全替代激活函数及如何有效利用这一特性仍需更多研究。[arXiv:2406.01255]
74 5
|
机器学习/深度学习 资源调度 算法
特征工程:归一化与标准化
样本特征由于来源以及度量单位不同,它们的尺度(Scale),或者说是取值范围有可能差异很大。如果一个机器学习算法在缩放全部或者部分特征后不影响它的学习和预测,我们就称该算法具有尺度不变性(Scale Invariance)。神经网络从理论上应该具有尺度不变性,可以通过参数的调整来适应不同特征的尺度。
176 0
|
数据采集 机器学习/深度学习 数据挖掘
机器学习数据预处理——归一化(Normalization)和标准化(standardlization)
昨天进行一场答辩,被评委老师问起来归一化的概念,一时间紧张没有想起来,后来复盘回忆,感觉还是自己的理解不够深刻,才导致关键时刻掉链子,没有想起。所以特此整理一下,以供加深印象。
1793 0
|
机器学习/深度学习 数据采集 算法
数据预处理|关于标准化和归一化的一切
数据预处理|关于标准化和归一化的一切
数据预处理|关于标准化和归一化的一切
|
机器学习/深度学习 算法 计算机视觉
BN(Batch Normalization 批量归一化)
BN(Batch Normalization 批量归一化)
BN(Batch Normalization 批量归一化)