sklearn:sklearn.preprocessing中的Standardization、Scaling、 Normalization简介、使用方法之详细攻略

简介: sklearn:sklearn.preprocessing中的Standardization、Scaling、 Normalization简介、使用方法之详细攻略

目录

Standardization&Scaling、 Normalization简介

1、Standardization, or mean removal and variance scaling

1.1、Scaling features to a range

1.2、Scaling sparse data

1.3、Scaling data with outliers

1.4、Scaling vs Whitening

1.5、Centering kernel matrices

2、Normalization

Standardization&Scaling、 Normalization简介

参考文章:https://scikit-learn.org/stable/modules/preprocessing.html

image.png

1、Standardization, or mean removal and variance scaling 标准化,或均值去除和方差标度

image.png

from sklearn import preprocessing
import numpy as np
X_train = np.array([[ 1., -1.,  2.],
                    [ 2.,  0.,  0.],
                    [ 0.,  1., -1.]])
X_scaled = preprocessing.scale(X_train)
print(X_scaled )
Scaled data has zero mean and unit variance:
X_scaled.mean(axis=0)
X_scaled.std(axis=0)

image.png

scaler = preprocessing.StandardScaler().fit(X_train)
print(scaler)
print(scaler.mean_)
print(scaler.scale_)
print(scaler.transform(X_train))
X_test = [[-1., 1., 0.]]
scaler.transform(X_test)

1.1、Scaling features to a range  缩放功能到一个范围

image.png

1.2、Scaling sparse data  缩放稀疏数据

image.png

1.3、Scaling data with outliers 用离群值对数据进行缩放

image.png

1.4、Scaling vs Whitening 缩放比例与白化

image.png

1.5、Centering kernel matrices  中心核矩阵

image.png

2、Normalization  归一化

image.png

X = [[ 1., -1.,  2.],
     [ 2.,  0.,  0.],
     [ 0.,  1., -1.]]
X_normalized = preprocessing.normalize(X, norm='l2')
print(X_normalized)
normalizer = preprocessing.Normalizer().fit(X)  # fit does nothing
print(normalizer)
normalizer.transform(X)
normalizer.transform([[-1.,  1., 0.]])

image.png



相关文章
|
11月前
|
程序员
什么是后门
后门( Back Door )是指一种绕过安全性控制而获取对程序或系统访问权的方法。在软件的开发阶段,程序员常会在软件内创建后门以便可以修改程序中的缺陷。如果后门被其他人知道,或是在发布软件之前没有删除,那么它就成了安全隐患。
|
9月前
|
人工智能 计算机视觉
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
772 5
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
|
10月前
|
机器学习/深度学习 人工智能 计算机视觉
NeurIPS 2024:无需训练,一个框架搞定开放式目标检测、实例分割
在NeurIPS 2024会议上,论文提出了一种名为VL-SAM的框架,旨在解决开放式目标检测和实例分割任务。该框架结合了视觉语言模型(VLM)和Segment-Anything模型(SAM),利用注意力图作为提示,在无需额外训练的情况下实现未知物体的检测与分割。实验结果显示,VL-SAM在长尾实例分割数据集(LVIS)和角落情况目标检测数据集(CODA)上均表现出色,展示了其在现实世界应用中的潜力。然而,注意力图质量和计算复杂性仍是潜在挑战。
443 19
|
9月前
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
493 0
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
|
机器学习/深度学习 PyTorch 算法框架/工具
【Transformer系列(5)】Transformer代码超详细解读(Pytorch)
【Transformer系列(5)】Transformer代码超详细解读(Pytorch)
2101 1
【Transformer系列(5)】Transformer代码超详细解读(Pytorch)
|
存储 SQL 关系型数据库
MySQL创建表
如何使用MySQL CREATE TABLE语句在数据库中创建新表。
352 0
|
机器学习/深度学习 数据可视化 TensorFlow
深入探索TensorBoard:使用可视化工具提升模型调试与优化的效率和效果
【8月更文挑战第31天】在深度学习领域,理解和优化复杂的神经网络模型充满挑战。TensorBoard作为TensorFlow的强大可视化工具,能帮助我们清晰地展示模型结构、激活值、损失函数变化等关键信息,从而更高效地调试和优化模型。
459 0
|
机器学习/深度学习 人工智能 Dart
AI - 机器学习GBDT算法
梯度提升决策树(Gradient Boosting Decision Tree),是一种集成学习的算法,它通过构建多个决策树来逐步修正之前模型的错误,从而提升模型整体的预测性能。
|
测试技术 计算机视觉
【YOLOv8性能对比试验】YOLOv8n/s/m/l/x不同模型尺寸大小的实验结果对比及结论参考
【YOLOv8性能对比试验】YOLOv8n/s/m/l/x不同模型尺寸大小的实验结果对比及结论参考
|
存储 算法 中间件
nginx限流方案
nginx限流方案
532 0