pandas:数据离散化与离散化数据的后期处理(one-hot)

简介: pandas:数据离散化与离散化数据的后期处理(one-hot)

1、什么是数据离散化?

 连续属性的离散化,就是将连续属性的值域划分为若干个离散的区间。最后用不同的符号或整数值,代表每个子区间的属性值。

 


2、为什么要进行数据离散化?

 数据离散化可以有效的降低时间复杂度和内存开销。

 对于某些机器学习算法来说,像决策树、随机森林、朴素贝叶斯。他们的数据集大多数都是针对的离散型数据。因此做出有效的数据离散化,对于降低计算复杂度和提高算法准确率有很重要的影响。

 离散型数据更容易理解。针对收入字段,一个人是3000,一个人是20000。如果将收入看成一个连续型变量,对于这么多数字,我们需要通过数字层面的比较才能知道,谁属于高薪,谁属于低薪,看起来并不直观。如果将收入转换为离散化数据类型(低薪、中薪、高薪),就能够很清楚的看出原始数字的含义。

 离散化后的特征对异常数据有很强的鲁棒性:对于年龄这个特征,如果年龄>30是1,否则0。假如特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰。

 更多数据离散化的内容,可以参考如下文章:https://zhuanlan.zhihu.com/p/91181935

 


3、怎么进行数据离散化?

 对于获取到的数据集,会有很多个特征,也就是我们常说的字段。有的特征是连续性数据类型,有的数据本身就是离散型数据变量。

 已经是离散型数据变量,我们不用管。但是对于连续性数据变量,如果需要进行数据离散化,应该怎么办?


1)pd.cut()和pd.qcut()的参数说明

qcut():表示自动分组,一般用的不太多。

cut():表示自定义分组,这个用的最多。

语法:pd.cut(x, bins=, labels=, right=, )

x表示一个序列(列表、Series等),也就是我们想要离散化的数据类型。

bins在定义分组的时候,可以传入一个序列,进行自定义分组。

labels表示给每个分组起别名。

right=False表示左闭右开区间。默认是right=True表示左开右闭区间。

pd.cut()一般会与value_counts()进行搭配使用,用于统计每个分组的个数。

2)pd.cut()和pd.qcut()的使用说明

① pd.qcut()的使用说明

x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_qcut = pd.qcut(s,3)
print(s_qcut)


结果如下:

image.png


② pd.cut()的使用说明

x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_cut = pd.cut(s,bins=[150,165,180,195])
print(s_cut)
# 添加labels参数后
x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_cut = pd.cut(s,bins=[150,165,180,195],labels=["低","中","高"])
print(s_cut)
# 添加right参数后
x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_cut = pd.cut(s,bins=[150,165,180,195],labels=["低","中","高"],right=False)
print(s_cut)



结果如下:

image.png


3)pd.cut()配合value_counts()使用

import matplotlib.pyplot as plt
plt.rcParams["font.sans-serif"] = "SimHei"
plt.rcParams["axes.unicode_minus"] = False
x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_cut = pd.cut(s,bins=[150,165,180,195],labels=["低","中","高"],right=False)
count = s_cut.value_counts()
print(count)
count.plot(kind="bar")
plt.xticks(rotation=360)


结果如下:


image.png

4、离散化数据的后期处理(one-hot编码)

 不管是连续性数据变量,还是离散型数据编码,都是数据的一个特征,都有它独特的含义。但是对于离散型数据编码,一般展现出来的是文本字符串,我们虽然认识,但是机器不认识,因此在处理这些数据的时候,就需要将其变成数字。

 比如说,我们有这样两组数据。一组数据代表的是性别,一组数据代表的是物种,另外一组数据代表的是毛发。如下所示。

image.png

 从图中可以看出。对于性别来说,不是男、就是女,一般的处理方式都是采取二值编码,即“男=1”,“女=0”。对于物种来说,有很多个物种,图中我们采取的是1,2,3…这种格式的编码。对于毛发来说,我们采取的也是1,2,3…这种格式的编码。

 但是很显然不太合适,对于性别、物种来说,采用图中的编码方式,很显然3>2>1>0,计算机会将这样的数字会等效看代,因为存在着一种大小关系。但是对于毛发、学历来说,采用这种编码方式,却是可以的,因此毛发有多有少,学历有高有低,因此不同的数字大小,表示等级的不同。

 因此,我们需要使用one-hot编码处理一下,最终效果如下。

image.png


1)pd.get_dummies(data,prefix=)的使用

data表示数组、Series或DataFrame。

prefix表示给分组加前缀。

① data传入一个Series

x = [165,174,160,180,159,163,192,184]
s = pd.Series(x,index=["NO1:165","NO1:174","NO1:160","NO1:180",\
                       "NO1:159","NO1:163","NO1:192","NO1:184"])
s_cut = pd.cut(s,bins=[150,165,180,195],labels=["低","中","高"])
print(s_cut)
pd.get_dummies(s_cut)


结果如下:

image.png


② data传入一个DataFrame

df = pd.DataFrame({"性别":["男","女","男"],
                   "物种":["主","狗","猫"]})
print(df)
pd.get_dummies(df)


结果如下:

image.png

相关文章
|
1月前
|
Python
使用 Pandas 库时,如何处理数据的重复值?
在使用Pandas处理数据重复值时,需要根据具体的数据特点和分析需求,选择合适的方法来确保数据的准确性和唯一性。
140 8
|
4天前
|
存储 数据挖掘 数据处理
Pandas 数据筛选:条件过滤
Pandas 是 Python 最常用的数据分析库之一,提供了强大的数据结构和工具。本文从基础到高级,介绍如何使用 Pandas 进行条件过滤,包括单一条件、多个条件过滤、常见问题及解决方案,以及动态和复杂条件过滤的高级用法。希望本文能帮助你更好地利用 Pandas 处理数据。
109 78
|
1天前
|
数据挖掘 数据处理 数据库
Pandas数据聚合:groupby与agg
Pandas库中的`groupby`和`agg`方法是数据分析中不可或缺的工具,用于数据分组与聚合计算。本文从基础概念、常见问题及解决方案等方面详细介绍这两个方法的使用技巧,涵盖单列聚合、多列聚合及自定义聚合函数等内容,并通过代码案例进行说明,帮助读者高效处理数据。
46 32
|
6天前
|
数据挖掘 索引 Python
Pandas数据读取:CSV文件
Pandas 是 Python 中强大的数据分析库,`read_csv` 函数用于从 CSV 文件中读取数据。本文介绍 `read_csv` 的基本用法、常见问题及其解决方案,并通过代码案例详细说明。涵盖导入库、读取文件、指定列名和分隔符、处理文件路径错误、编码问题、大文件读取、数据类型问题、日期时间解析、空值处理、跳过行、指定索引列等。高级用法包括自定义列名映射、处理多行标题和注释行。希望本文能帮助你更高效地使用 Pandas 进行数据读取和处理。
45 13
|
3天前
|
算法 数据挖掘 索引
Pandas数据排序:单列与多列排序详解
本文介绍了Pandas库中单列和多列排序的方法及常见问题的解决方案。单列排序使用`sort_values()`方法,支持升序和降序排列,并解决了忽略大小写、处理缺失值和索引混乱等问题。多列排序同样使用`sort_values()`,可指定不同列的不同排序方向,解决列名错误和性能优化等问题。掌握这些技巧能提高数据分析效率。
26 9
|
1月前
|
Python
|
1月前
|
Python
|
1月前
|
Python
Pandas 常用函数-数据合并
Pandas 常用函数-数据合并
42 1
|
1月前
|
索引 Python
Pandas 常用函数-数据排序
10月更文挑战第28天
18 1
|
1月前
|
Python
Pandas 常用函数-查看数据
Pandas 常用函数-查看数据
21 2