为什么要对数值类型特征做归一化?

简介: 为什么要对数值类型特征做归一化?

给出一个场景

通过住户的居住面积和楼层来分析他们的居住舒适度,楼层的特征会在1-20(层)数值范围内,居住面积的特征会在30-200(平方米)数值范围内,那么根据这两种特征分析出来的数据居住面积会成为决定性更大的特征,这显然是不准确的,此时就需要我们进行特征归一化,使得各个特征处于同一个数值量级,然后再进行分析。


常用的特征归一化方法

1.最大最小归一化(Min-Max Scaling)

最大最小归一化对原始数据进行线性变换,使结果映射到[0,1]范围内,实现对原始数据的等比缩放。

image.png

2.零均值归一化(Z-Score Normalization)

零均值归一化会将原始数据映射到均值为0、标准差为1的分布上。

image.png

其中均值是μ ,标准差是σ 。


为什么要进行特征归一化?

借助随机梯度下降的例子来说明一下归一化的重要性。假设现在我们有两个特征x1、x2,x1的范围是[0,10],x2的范围是[0,4],在他们的学习速率相同的情况下x1的更新速度要大于x2,此时需要较多的迭代才能找到最优解;而当他们在同一数值范围内的时候,他们的更新速度就会变得更为一致,此时就更容易快速的通过梯度下降找到最优解。


用一张图片来说明一下(左边是归一化之前,右边是归一化之后):

image.png

实际应用中哪里需要归一化

可以看到上文中我用到了梯度下降来距离,可以看出归一化对梯度下降的影响是很大的,所以在实际应用中通过梯度下降求解的算法通常都是需要进行归一化的,常见的有线性回归、逻辑回归、支持向量机、神经网络等模型。


相关文章
|
6月前
|
数据采集 定位技术 计算机视觉
归一化
【9月更文挑战第15天】
169 3
|
10月前
|
数据可视化
R平方/相关性取决于预测变量的方差
R平方/相关性取决于预测变量的方差
(二)随机变量的数字特征:探索概率分布的关键指标
(二)随机变量的数字特征:探索概率分布的关键指标
wustojc2003求整数均值
wustojc2003求整数均值
66 0
频域滤波—离散余弦变换
频域滤波—离散余弦变换
离散型随机变量和连续型随机变量及其常见分布(下)
离散型随机变量和连续型随机变量及其常见分布
|
机器学习/深度学习
离散型随机变量和连续型随机变量及其常见分布(上)
离散型随机变量和连续型随机变量及其常见分布
|
机器学习/深度学习
L4-数字特征:期望、方差、协方差、相关系数等
L4-数字特征:期望、方差、协方差、相关系数等
L4-数字特征:期望、方差、协方差、相关系数等
|
机器学习/深度学习 算法 测试技术
适合离散值分类的多分类模型——softmax回归
适合离散值分类的多分类模型——softmax回归
适合离散值分类的多分类模型——softmax回归