机器学习 - 数据预处理中的 特征离散化 方法

简介: 在数据分析中,我们认为在某个范围内取值过于密集的特征认为是取值”连续“的特征。出于某些需求经常需要将这些”连续特征进行离散化“。本文介绍三种比较实用的数据离散化方法。本文介绍可供参考的三种特征离散化方法的Python实现。

可供参考的三种特征离散化方法


在数据分析中,我们认为在某个范围内取值过于密集的特征认为是取值”连续“的特征。出于某些需求经常需要将这些”连续特征进行离散化“。本文介绍三种比较实用的数据离散化方法。


李俊才的个人博客



方法1:尺度缩小法

这种方法是对于数值元素的一种简单粗暴的方法。离散化的目的不就是减少取值数目吗。那么好,只要把数据除以某个值,大数就变小数,抹掉小数位,自然取值个数就少了很多。很显然,这种离散化方法的特点在于对越小的数整合归并能力越强。

经常我们将数据读取为一个二维DataFrame结构的表,而需要离散化的是该DataFrame对象中的一列。以下该方法离散化的源代码。

defscaling(DF, feature, scale, submit=True):
"""    数据尺度缩小法离散化    Parameters    -------     - DF:      DataFrame,假设我们需要离散化的是DF种索引为feature的那一列     - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值     - scale:   该列特征数值的放缩尺度。     - submit:  bool,离散化后直接提交更改到DF中的该特征    """dis_feature=DF[feature].copy()
dis_feature=np.array(np.floor(np.array(DF[feature]/scale)))
ifsubmit:
DF[feature] =dis_featurereturndis_feature

方法2:按数值区间分割数据法(使用pandas.cut())

经常我们将数据读取为一个二维DataFrame结构的表,而需要离散化的是该DataFrame对象中的一列。以下该方法离散化的源代码。

defpd_cut(DF,feature,bins,submit=True):
"""    离散化备选方法2:    按数值区间分割数据离散化——先按照数据取值将数据分割成n组。    Parameters    ----------     - DF:      DataFrame,假设我们需要离散化的是DF种索引为feature的那一列     - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值     - bins: 若为Series,则序列中数据元素各为分割点;             若为int,则特征值定义范围内的等宽bin数。x的范围在每一侧             都扩展了0.1%,以包括x的最小值和最大值。     - submit: bool,离散化后直接提交更改到self.DF中的该特征    """dis_feature=DF[feature].copy()
dis_feature=pd.cut(Feature,bins)
ifsubmit:
self.DF[feature] =dis_featurereturndis_feature

方法3:等元素个数分割法(使用pandas.qcut())

经常我们将数据读取为一个二维DataFrame结构的表,而需要离散化的是该DataFrame对象中的一列。以下该方法离散化的源代码。

defpd_qcut(self,feature,q,submit=True,**kw):
"""    离散化备选方法3:    等元素个数分割数据——分割后每个存储组有相同元素个数。    Parameters    -------     - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值     - q: 频数,int,也就是分割后的组数     - q_label: serial,分割后,必须用新的标签代表旧的数据,标签数目必                须和分割的频数对应一致     - submit: bool,离散化后直接提交更改到self.DF中的该特征    """ifkw.get('q_label') !=None:
q_label=kw.get('q_label')
else:
q_label=list(range(q))
dis_feature=self.DF[feature].copy()
dis_feature=pd.qcut(dis_feature,q,q_label,duplicates="drop") # duplicates="drop"表示如果bin边缘(每组的分位点处)不是唯一则丢弃非唯一变量ifsubmit:
self.DF[feature] =dis_featurereturndis_feature

使用作图法以对比DF中所有feature列离散前后的效果

直接上代码:

defbarchart_ax(discrete_df, title='各个特征取值数量统计', xlabel='特征名称', ylabel='特征的不同取值量', background_color="#EAEAF2", Batch1_color="#25AFF3"):
feature_values= []
x_text= []
forcindiscrete_df.columns[1:]:
x_text.append(c)
ct=discrete_df[c].duplicated(keep='first')
feature_values.append(len(ct[ct==False]))
batch1=feature_valuespylab.rcParams['figure.figsize'] = (19.0, 10.0)
plt.rcParams['font.sans-serif'] = ['KaiTi']
matplotlib.rcParams['axes.unicode_minus'] =Falsex=np.arange(len(x_text))
width=0.66fig, ax=plt.subplots()
rects=ax.bar(x-width/2, batch1, width, color=Batch1_color)                               
ax.patch.set_facecolor(background_color)  
ax.set_title(title, fontsize=26)     
ax.set_xlabel(xlabel, fontsize=22)   
ax.set_ylabel(ylabel, fontsize=22)  
ax.set_xticks(x)    
ax.set_xticklabels(x_text, fontsize=22)   
forrectinrects:
height=rect.get_height()
ax.annotate('{}'.format(height),      
xy=(rect.get_x() +rect.get_width() /2, height),
xytext=(0,3),      
textcoords="offset points",
ha='center', va='bottom')
plt.grid(linestyle="dotted",color="g")
plt.xticks(rotation=89)
fig.tight_layout()
plt.show()

案例:等待编写。

小结

importpandasaspdimportnumpyasnpclassdiscretization(object):
"""    离散化类:提供几种可供选择的离散化方法。    离散化就是将特征中多个不同的特征值用相对少的取值表示。    每种离散化方法一次工作中对特定的列(特征)进行离散化操作,返回被离散的列的离散化结果    如果最终需要获取完成所有特征离散化的DataFrame,则使用该类实例的DF属性(discretization.DF)即可    """def__init__(self,DataF):
"""        初始化:拷贝一份传入的DataFrame。        仅当各备选的离散化方法中,submit = True 时,将改变 self.DF 中该列特征的数据。        """self.DF=DataF.copy()
defscaling(self,feature,scale,submit=True):
"""        离散化备选方法1:        数据尺度缩小法离散化——该方法法通过将数值除以特定的数来进行离散化。        Parameters        -------         - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值         - scale: 该列特征数值的放缩尺度。         - submit: bool,离散化后直接提交更改到self.DF中的该特征        """dis_feature=self.DF[feature].copy()
dis_feature=np.array(np.floor(np.array(self.DF[feature]/scale)))
ifsubmit:
self.DF[feature] =dis_featurereturndis_featuredefpd_cut(self,feature,bins,submit=True):
"""        离散化备选方法2:        按数值区间分割数据离散化——先按照数据取值将数据分割成n组。        Parameters        -------         - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值         - bins: 若为Series,则序列中数据元素各为分割点;                 若为int,则特征值定义范围内的等宽bin数。x的范围在每一侧                 都扩展了0.1%,以包括x的最小值和最大值。         - submit: bool,离散化后直接提交更改到self.DF中的该特征        """dis_feature=self.DF[feature].copy()
dis_feature=pd.cut(dis_feature ,bins)
ifsubmit:
self.DF[feature] =dis_featurereturndis_featuredefpd_qcut(self,feature,q,submit=True,**kw):
"""        离散化备选方法3:        等元素个数分割数据离散化——分割后每个存储组有相同元素个数。        Parameters        -------         - feature: str,特征名,将用作从DF中索引该列特征的有序所有取值         - q: 频数,int,也就是分割后的组数         - q_label: serial,分割后,必须用新的标签代表旧的数据,标签数目必                    须和分割的频数对应一致         - submit: bool,离散化后直接提交更改到self.DF中的该特征        """ifkw.get('q_label') !=None:
q_label=kw.get('q_label')
else:
q_label=list(range(q))
dis_feature=self.DF[feature].copy()
dis_feature=pd.qcut(dis_feature,q,q_label,duplicates="drop") # duplicates="drop"表示如果bin边缘(每组的分位点处)不是唯一则丢弃非唯一变量ifsubmit:
self.DF[feature] =dis_featurereturndis_feature
目录
相关文章
|
27天前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型:从数据预处理到模型优化
在机器学习的实践中,构建一个高效的模型并非一蹴而就。本文将深入探讨如何通过精确的数据预处理、合理的特征选择、适当的模型构建以及细致的参数调优来提升模型的性能。我们将讨论数据清洗的重要性,探索特征工程的策略,分析不同算法的适用场景,并分享模型调参的实用技巧。目标是为读者提供一套系统的方法论,以指导他们在构建机器学习模型时能够更加高效和目标明确。
32 3
|
1月前
|
机器学习/深度学习 数据采集 数据挖掘
构建高效机器学习模型:从数据预处理到模型优化
【2月更文挑战第23天】 在机器学习领域,构建一个高效的模型并非易事。它涉及从数据预处理到特征工程,再到模型选择和调优的一系列复杂步骤。本文将引导读者通过实际案例理解这一过程,展示如何通过细致的数据清洗、智能的特征选择、合理的模型架构设计以及精确的超参数调整来提升模型性能。我们将探讨处理不平衡数据集的策略,采用交叉验证来减少过拟合风险,并使用网格搜索等技术找到最优超参数。文章还将分享一些实用的技巧和常见问题的解决方案,以帮助实践者在构建机器学习模型时避免常见的陷阱。
|
1月前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型:从数据预处理到模型调优
【2月更文挑战第23天】 在数据驱动的时代,构建一个高效的机器学习模型是解决复杂问题的关键。本文将深入探讨如何通过有效的数据预处理、特征工程、选择合适的算法以及细致的模型调优来提升模型的性能。我们将摒弃传统摘要的束缚,直接深入讨论各个环节对模型性能的影响,并分享实践中的经验教训。
|
1月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
58 0
|
27天前
|
机器学习/深度学习 数据采集 自然语言处理
构建高效机器学习模型:从数据预处理到模型优化
在机器学习的实践中,一个精确且高效的模型是成功解决问题的关键。本文将深入探讨如何从原始数据的收集与处理开始,通过选择合适的算法,再到模型的训练与优化,最终构建出一个高性能的机器学习模型。我们将讨论数据预处理的重要性、特征工程的策略、常用机器学习算法的选择标准以及超参数调整的最佳实践。通过案例分析和技术讲解,本文旨在为读者提供一个清晰的构建高效机器学习模型的蓝图。
|
1月前
|
机器学习/深度学习 数据采集 大数据
构建高效机器学习模型:从数据预处理到模型优化
【2月更文挑战第25天】 在当今数据驱动的时代,构建一个高效的机器学习模型对于解决实际问题至关重要。本文将详细介绍如何从数据预处理开始,逐步构建并优化一个机器学习模型。我们将讨论数据清洗、特征工程、模型选择、超参数调优等关键步骤,并通过实例演示如何应用这些技术。通过阅读本文,您将掌握构建高性能机器学习模型的方法和技巧。
|
11天前
|
机器学习/深度学习 数据可视化 算法
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
|
14天前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型:从数据预处理到模型优化
【4月更文挑战第5天】 在机器学习领域,构建一个高效的模型并非易事。它涉及多个阶段,包括数据预处理、特征工程、模型选择、训练以及最终的评估和优化。本文深入探讨了如何通过精确的数据预处理技巧和细致的特征工程来提升模型性能,同时介绍了几种常见的模型优化策略。我们的目标是为读者提供一套实用的指导方案,帮助他们在面对复杂数据集时能够有效地构建和调整机器学习模型。
|
29天前
|
机器学习/深度学习 数据采集 算法
构建高效的机器学习模型:从数据预处理到模型优化
【2月更文挑战第30天】 在机器学习的实践中,构建一个高效且准确的预测模型是每个数据科学家的核心任务。本文将深入探讨如何通过一系列策略性步骤来提升模型的性能,包括数据预处理、特征选择、模型训练以及超参数调优。我们将讨论各种技术方法,并通过实例展示这些策略是如何在实际问题中应用的。目标是为读者提供一套实用的工具和思路,以应对机器学习项目中遇到的挑战。
|
1月前
|
机器学习/深度学习 数据采集 数据可视化
【机器学习】样本、特征、标签:构建智能模型的三大基石
【机器学习】样本、特征、标签:构建智能模型的三大基石
178 0

热门文章

最新文章