04 数据清洗和转换

简介: 大部分机器学习模型处理的都是特征,是实际工作中最耗时的一部分。大部分情况下,收集到的数据需要经过预处理后才能被后续的机器学习算法所使用。一、数据预处理包括以下几个步骤1、数据过滤比如用户ID是一个唯一值,当出现两个相同的用户ID就需要过滤掉一个。

大部分机器学习模型处理的都是特征,是实际工作中最耗时的一部分。大部分情况下,收集到的数据需要经过预处理后才能被后续的机器学习算法所使用。

一、数据预处理包括以下几个步骤

1、数据过滤
比如用户ID是一个唯一值,当出现两个相同的用户ID就需要过滤掉一个。

2、处理数据缺失
如果有500个样本,其中第230个样本的某个数据缺失,我们可以考虑使用总体样本的平均值、中位数(Mediam,所有数据值从大到小排序最中间的那个值)、众数(Mode,数据中出现次数最多的那个值) 来代替该样本的缺失的值。

当特征是离散型数据的时候,多数用众数来填补缺失值。比如一组数据为(1,1,1,1,NaN,0,1,1) 用什么值来填充NaN比较合适呢?也许这组数据体现的是姓别(0=男、1=女),显然使用中位数或均值都不能代表样本的特性,因此选择众数。

3、处理可能的异常值、错误值
手机号的数据中出现了一个中文,那么考虑将这组样本删除。

4、合并多个数据源数据
租房预测模型中,待租房屋的特征中包含长度和宽度,那么如果将这两组数据合并成面积或许更能体现特征的价值。

二、数据预处理的方法
1、哑编码

功能:分类编码,将非数值型的特征值转化为数值型的数据。
描述:假设变量的取值有k个,如果对这些值用1到k编号,则可用k的向量来表示一个变量的值。在这样的向量里,该取值所对应的需要所在的元素为1,其他元素为0。

样本/特征 T1 T2 T3
R1 A 1 2
R2 A 2 3
R3 B 3 3
R4 C 2 2
R5 C 1 2

T1特征有三种分类:A、B、C,但无法确定哪种分类更好。在T1的基础上生成三个新的特征 T1-A 、T1-B 、T1-C。于是在原有的T1维度上进行了扩张,将1维变成了3维。

向量/类型 T1-A T1-B T1-C
A 1 0 0
B 0 1 0
C 0 0 1

生成的新数据集删除了原本的T1特征,新增了 T1-A 、T1-B 、T1-C特征:

样本/特征 T1-A T1-B T1-C T2 T3
R1 1 0 0 1 2
R2 1 0 0 2 3
R3 0 1 0 3 3
R4 0 0 1 2 2
R5 0 0 1 1 2

哑编码是一个将数据集从低维变成高维的过程,是对数据的一种扩充。但该方法既有正向的影响也有负向的影响,具体的问题在后续欠拟合与过拟合的问题中进一步叙述。

PS: 大家可以思考一下,如果此时将T1-C删除了,会对结果有什么影响?提示:多重共线性。其实删除了T1-C对于结果没有影响,因为10、01、00即可表示三种不同的类型。后续哑编码会用得比较多,希望大家能够看明白。

2、文本数据提取

词袋法(BOW):将文本当作一个无序的数据集合,文本特征可以采用文本中的词条T进行体现,那么文本中出现的所有词条及其出现的次数就可以体现文档的特征。

词袋法有几个关键点:
1、每个公司的词库是不同的,词条T可以理解为词组,比如“人工智能”、“爬虫”、“机器学习”,“大数据” 这词条出现得多了,可以默认文章属于IT类的,更细分可以规定为AI分类。

2、不是所有的词条都是有意义的,比如“我”,“的”,“了” 这些对于文章内容是毫无意义的词组。再比如说:“刀”、“剑” 在武侠小说中出现几乎没有意义,但在新闻里如果出现了就变得很有意义。

所以词频的重要性,有时候和出现的频率成正比,有时候成反比。于是引入了TF-IDF算法。

TF-IDF:
1、TF:词频。指某个词条出在文本中的次数,一般会将其进行归一化操作 (该词条数量/该文档中所有词条的数量)。

2、IDF:逆向文件频率。指一个词条重要性的度量= 总文件数/包含词语的文件数。有时候得到的商还会取对数操作。

3、TF-IDF = TF*IDF

举个栗子:
文档1的内容:A(2)、B(1)、C(3)、D(9)、E(1)
文档2的内容:A(1)、B(5)、C(2)、D(10)

BoW模型:

样本/特征 A B C D E
文档1 2 1 3 9 1
文档2 1 5 2 10 0

TF(A|文档1的总词条) = 2/(2+1+3+9+1)=1/8
...
TF(E|文档2的总词条) = 0/(1+5+2+10)=0/18=0

IDF(A) = IDF(B) = IDF(C) = IDF(D) = 2/2
IDF(E) = 1/2
A、B、C、D字条在文档1和文档2中都有出现,而E词条只在文档2中出现。

最后计算 TF*IDF 得到模型:

样本/TF-IDF(X) A B C D E
文档1 1/8 1/16 3/16 9/16 1/8
文档2 1/18 5/18 1/9 5/9 0
3、傅立叶变换。

处理图像或音频(像素、声波、音频、振幅)

4、数值数据转换为类别数据,以减少变量的值

比如:年龄分段
1.童年---0岁—6岁。
2.少年---7岁—17岁。
3.青年---18岁—40岁。
4.中年---41—65岁。

5、数值数据进行转换:对数转换

这组数据斜率非常大,需要利用统计或数学变换来减轻数据分布倾斜的影响。使原本密集的区间的值尽可能的分散,原本分散的区间的值尽量的聚合。

img_2588abf7efe56b2e289c6c89b40c76db.png
对数转化前的数据

Log变换通常用来创建单调的数据变换。它的主要作用在于帮助稳定方差,始终保持分布接近于正态分布并使得数据与分布的平均值无关。

y=logc(1+λx)。λ 通常设置为1,c通常设置为变换数据的最大值。

img_6f75357a3cf0d45bc7772371319820ff.png
数据收入log变换后结构

Log变换倾向于拉伸那些落在较低的幅度范围内自变量值的范围,压缩或减少较高幅度范围内的自变量值的范围。从而使得倾斜分布尽可能的接近正态分布。

img_7e62c701b23612004f593ca1772b09bd.png
Log变换后的数据直方图

对数转换部分参考文献:
https://www.leiphone.com/news/201801/T9JlyTOAMxFZvWly.html

相关文章
|
3月前
|
数据采集 数据可视化 数据挖掘
数据清洗有什么方式
数据清洗有什么方式
|
14天前
|
数据采集 数据挖掘 大数据
数据处理利器:使用Pandas进行数据清洗与转换
【4月更文挑战第12天】在大数据时代,Pandas是Python数据分析的关键工具,提供高效的数据清洗和转换功能。本文介绍了如何使用Pandas处理缺失值(删除或填充)、异常值(Z-Score法和IQR法)以及重复值(检测和删除)。此外,还涵盖了数据转换,包括数据类型转换、数据标准化(Min-Max和Z-Score)以及类别数据的one-hot编码。通过学习这些方法,可以为数据分析和挖掘奠定坚实基础。
|
9天前
|
数据采集 机器学习/深度学习 算法
scikit-learn中的数据预处理:从清洗到转换
【4月更文挑战第17天】在机器学习中,scikit-learn是用于数据预处理的强大Python库,涵盖数据清洗和转换。数据清洗涉及处理缺失值(如使用SimpleImputer和IterativeImputer填充)和异常值,以及分类数据的编码(如标签编码和独热编码)。数据转换包括特征缩放(如StandardScaler和MinMaxScaler)和特征选择(过滤、包装和嵌入方法)。这些工具能提升数据质量,优化模型性能,但需根据具体问题选择合适方法。
|
9月前
|
JSON 数据可视化 数据挖掘
python数据可视化开发(2):pandas读取Excel的数据格式处理(数据读取、指定列数据、DataFrame转json、数学运算、透视表运算输出)
python数据可视化开发(2):pandas读取Excel的数据格式处理(数据读取、指定列数据、DataFrame转json、数学运算、透视表运算输出)
222 0
|
24天前
|
数据采集 监控 数据挖掘
提高数据清洗效果的关键
【4月更文挑战第2天】提高数据清洗效果的关键
9 2
|
2月前
|
数据采集 JSON 数据挖掘
利用Python实现自动化数据清洗和转换
数据清洗和转换是数据分析的重要步骤。在数据分析工作中,我们常常需要处理不规范、重复、缺失或错误的数据。本文介绍如何使用Python编程语言实现自动化数据清洗和转换,为数据分析工作提供高效的支持。
|
11月前
|
数据采集 存储 JSON
基于Spark的数据清洗与转换
基于Spark的数据清洗与转换
|
数据采集 分布式计算 大数据
数据清洗_转换完成|学习笔记
快速学习数据清洗_转换完成
42 0
|
数据采集 算法 Dubbo
数据清洗_数据转换|学习笔记
快速学习数据清洗_数据转换
127 0
数据清洗_数据转换|学习笔记
|
算法 数据挖掘 开发者
数据转换| 学习笔记
快速学习数据转换。
229 0
数据转换| 学习笔记