浅谈数据归一化

简介:   归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。归一化是为了加快训练网络的收敛性,可以不进行归一化处理     归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在-1--+1之间是统计的坐标分布。

  归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。归一化是为了加快训练网络的收敛性,可以不进行归一化处理
     归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在-1--+1之间是统计的坐标分布。

  在这里主要讨论两种归一化方法:

  1、线性函数归一化(Min-Max scaling)

  线性函数将原始数据线性化的方法转换到[0 1]的范围,归一化公式如下:

  该方法实现对原始数据的等比例缩放,其中Xnorm为归一化后的数据,X为原始数据,Xmax、Xmin分别为原始数据集的最大值和最小值。

  2、0均值标准化(Z-score standardization)

  0均值归一化方法将原始数据集归一化为均值为0、方差1的数据集,归一化公式如下:
  其中,μ、σ分别为原始数据集的均值和方法。该种归一化方式要求原始数据的分布可以近似为高斯分布,否则归一化的效果会变得很糟糕。

  3、反余切函数转换,表达式如下:
                                          y=atan(x)*2/PI
  以上为两种比较普通但是常用的归一化技术,那这两种归一化的应用场景是怎么样的呢?什么时候第一种方法比较好、什么时候第二种方法比较好呢?下面做一个简要的分析概括:
  1、在分类、聚类算法中,需要使用距离来度量相似性的时候、或者使用PCA技术进行降维的时候,第二种方法(Z-score standardization)表现更好。
  2、在不涉及距离度量、协方差计算、数据不符合正太分布的时候,可以使用第一种方法或其他归一化方法。比如图像处理中,将RGB图像转换为灰度图像后将其值限定在[0 255]的范围。
  为什么在距离度量计算相似性、PCA中使用第二种方法(Z-score standardization)会更好呢?我们进行了以下的推倒分析:
归一化方法对方差、协方差的影响:假设数据为2个维度(X、Y),首先看0均值对方法、协方差的影响:
  可以看到,使用第一种方法(线性变换后),其协方差产生了倍数值的缩放,因此这种方式无法消除量纲对方差、协方差的影响,对PCA分析影响巨大;同时,由于量纲的存在,使用不同的量纲、距离的计算结果会不同。
  而在第二种归一化方式中,新的数据由于对方差进行了归一化,这时候每个维度的量纲其实已经等价了,每个维度都服从均值为0、方差1的正太分布,在计算距离的时候,每个维度都是去量纲化的,避免了不同量纲的选取对距离计算产生的巨大影响。
  总结来说,在算法、后续计算中涉及距离度量(聚类分析)或者协方差分析(PCA、LDA等)的,同时数据分布可以近似为状态分布,应当使用0均值的归一化方法。其他应用中更具需要选用合适的归一化方法。
目录
相关文章
|
6月前
|
机器学习/深度学习 人工智能 测试技术
使用随机森林分类器对基于NDRE(归一化差异水体指数)的特征进行分类
使用随机森林分类器对基于NDRE(归一化差异水体指数)的特征进行分类
52 1
|
机器学习/深度学习 算法 数据可视化
浅析特征数据离散化的几种方法(上)
什么是离散化? 离散化就是把无限空间中有限的个体映射到有限的空间中去,以此提高算法的时空效率。通俗的说,离散化是在不改变数据相对大小的条件下,对数据进行相应的缩小。例如:
|
数据处理
数据处理 过采样与欠采样 SMOTE与随机采样 达到样本均衡化
数据处理 过采样与欠采样 SMOTE与随机采样 达到样本均衡化
230 0
数据处理 过采样与欠采样 SMOTE与随机采样 达到样本均衡化
|
3月前
|
机器学习/深度学习 PyTorch TensorFlow
PyTorch使用一维卷积对时间序列数据分类
PyTorch使用一维卷积对时间序列数据分类
|
10月前
|
机器学习/深度学习
最大值池化与均值池化比较分析
最大值池化与均值池化比较分析
68 0
|
10月前
|
机器学习/深度学习 并行计算 异构计算
卷积降维与池化降维的对比分析
卷积降维与池化降维的对比分析
113 0
|
11月前
|
算法 数据可视化 数据挖掘
基于GMM的一维时序数据平滑算法
本文将介绍我们使用高斯混合模型(GMM)算法作为一维数据的平滑和去噪算法。
145 0
|
11月前
|
机器学习/深度学习 算法
为什么要对数值类型特征做归一化?
为什么要对数值类型特征做归一化?
均值回归中的半衰期计算方式
均值回归中的半衰期计算方式
162 0
|
数据采集 Python
数据预处理相关Demo(缺失值、均值方差标准化、极差法归一化、主成分分析)
数据预处理相关Demo(缺失值、均值方差标准化、极差法归一化、主成分分析)
295 0
数据预处理相关Demo(缺失值、均值方差标准化、极差法归一化、主成分分析)

相关实验场景

更多