机器学习深度研究:特征选择中几个重要的统计学概念

简介: 机器学习深度研究:特征选择中几个重要的统计学概念

问题引出


当我们拿到数据并对其进行了数据预处理,但还不能直接拿去训练模型,还需要选择有意义的特征(即特征选择),这样做有四个好处:


1、避免维度灾难

2、降低学习难度

3、减少过拟合

4、增强对特征和特征值之间的理解


常见的特征选择有三种方法:


过滤法(Filter):先对数据集进行特征选择,然后再训练学习器,特征选择过程与后续学习器无关。


包装法(Wrapper):根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。


嵌入法(Embedding):先使用机器学习模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。


640.png


其中,过滤法是最简单,最易于运行和最易于理解的。


过滤法核心思路就是考察自变量和目标变量之间的关联性、相关性,设定阈值,优先选择与目标相关性高的特征。


主要方法:


1、分类问题:卡方检验(chi2),F检验(f_classif), 互信息(mutual_info_classif)

2、回归问题:相关系数(f_regression), 信息系数(mutual_info_regression)


卡方检验、F检验、互信息、相关系数、信息系数


这些都是统计学领域的概念,在sklearn特征选择中被使用,所以在解释这些概念时,我也重点参考了sklearn文档。


卡方检验百科定义:


卡方检验就是统计样本的实际观测值与理论推断值之间的偏离程度,实际观测值与理论推断值之间的偏离程度就决定卡方值的大小,如果卡方值越大,二者偏差程度越大;反之,二者偏差越小;若两个值完全相等时,卡方值就为0,表明理论值完全符合。


卡方值  image.png计算公式


640.png


不要望公式兴叹,其实只需掌握到第一个等号后就行了:A为实际值,T为理论值。


F检验


F检验和方差分析(ANOVA)是一回事,主要用于两个及两个以上样本均数差别的显著性检验。方差分析的基本原理是认为不同处理组的均数间的差别基本来源有两个:(1) 实验条件,即不同的处理造成的差异,称为组间差异。用变量在各组的均值与总均值之偏差平方和的总和表示,记作image.png,组间自由度image.png


(2) 随机误差,如测量误差造成的差异或个体间的差异,称为组内差异,用变量在各组的均值与该组内变量值之偏差平方和的总和表示, 记作image.png,组内自由度image.png


640.png


利用f值可以判断假设H0是否成立:值越大,大到一定程度时,就有理由拒绝零假设,认为不同总体下的均值存在显著差异。所以我们可以根据样本的某个特征的f值来判断特征对预测类别的帮助,值越大,预测能力也就越强,相关性就越大,从而基于此可以进行特征选择。


互信息(mutual_info_classif/regression)


互信息是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。


两个离散随机变量 X 和 Y 的互信息可以定义为:


640.png


相关系数(f_regression)


相关系数是一种最简单的,能帮助理解特征和响应变量之间关系的方法,该方法衡量的是变量之间的线性相关性,结果的取值区间为[-1,1],-1表示完全的负相关,+1表示完全的正相关,0表示没有线性相关。

image.png


式中是代表所有样本的在i号特征上的取值的维列向量,分子上其实两个维列向量的内积,所以是一个数值,其实就是样本相关系数。


值越大,第i个特征和因变量y之间的相关性就越大,据此我们做特征选择。


P值 (P-value)


P值,也就是常见到的 P-value。P 值是一种概率,指的是在 H0 假设为真的前提下,样本结果出现的概率。如果 P-value 很小,则说明在原假设为真的前提下,样本结果出现的概率很小,甚至很极端,这就反过来说明了原假设很大概率是错误的。通常,会设置一个显著性水平(significance level) 与 P-value 进行比较,如果 P-value <  ,则说明在显著性水平 下拒绝原假设, 通常情况下设置为0.05。


sklearn特征选择——过滤法


sklearn过滤法特征选择方法


SelectBest 只保留 k 个最高分的特征;SelectPercentile 只保留用户指定百分比的最高得分的特征;使用常见的单变量统计检验:假正率SelectFpr,错误发现率selectFdr,或者总体错误率SelectFwe;GenericUnivariateSelect 通过结构化策略进行特征选择,通过超参数搜索估计器进行特征选择。


SelectKBest按照scores保留K个特征;


SelectPercentile按照scores保留指定百分比的特征;


SelectFpr、SelectFdr和SelectFwe对每个特征使用通用的单变量统计检验;


GenericUnivariateSelect允许使用可配置策略如超参数搜索估计器选择最佳的单变量选择策略。特征选择指标


640.png


使用sklearn中SelectKBest函数进行特征选择,参数中的score_func选择:分类:chi2----卡方检验


f_classif----方差分析,计算方差分析(ANOVA)的F值 (组间均方 / 组内均方)


mutual_info_classif----互信息,互信息方法可以捕捉任何一种统计依赖,但是作为非参数方法,需要更多的样本进行准确的估计


回归:f_regression----相关系数,计算每个变量与目标变量的相关系数,然后计算出F值和P值


mutual_info_regression----互信息,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。


sklearn过滤法特征选择-示例


在sklearn中,可以使用chi2这个类来做卡方检验得到所有特征的卡方值与显著性水平P临界值,我们可以给定卡方值阈值, 选择卡方值较大的部分特征。代码如下:


  1. 首先import包和实验数据:


from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.datasets import load_iris
#导入IRIS数据集
iris = load_iris()


  1. 使用卡方检验来选择特征


model1 = SelectKBest(chi2, k=2)#选择k个最佳特征
model1.fit_transform(iris.data, iris.target)#iris.data是特征数据,iris.target是标签数据,该函数可以选择出k个特征


结果输出为:


array([[ 1.4,  0.2],
       [ 1.4,  0.2],
       [ 1.3,  0.2],
       [ 1.5,  0.2],
       [ 1.4,  0.2],
       [ 1.7,  0.4],
       [ 1.4,  0.3],


可以看出后使用卡方检验,选择出了后两个特征。如果我们还想查看卡方检验的p值和得分,可以使用第3步。


  1. 查看p-values和scores


model1.scores_  #得分


得分输出为:


array([ 10.81782088, 3.59449902, 116.16984746, 67.24482759])


可以看出后两个特征得分最高,与我们第二步的结果一致;


model1.pvalues_  #p-values


p值输出为:


array([ 4.47651499e-03, 1.65754167e-01, 5.94344354e-26, 2.50017968e-15])


可以看出后两个特征的p值最小,置信度也最高,与前面的结果一致。

相关文章
|
29天前
|
机器学习/深度学习 人工智能 算法
详解机器学习概念、算法
详解机器学习概念、算法
详解机器学习概念、算法
|
2月前
|
机器学习/深度学习 算法 数据可视化
可解释性机器学习:基于随机森林和Ceteris-paribus的乳腺癌早期诊断研究
可解释性机器学习:基于随机森林和Ceteris-paribus的乳腺癌早期诊断研究
59 1
|
2月前
|
机器学习/深度学习 自然语言处理 算法
机器学习-特征选择:如何用信息增益提升模型性能?
机器学习-特征选择:如何用信息增益提升模型性能?
53 1
|
2月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
79 0
|
21天前
|
机器学习/深度学习 自然语言处理 算法
|
2天前
|
机器学习/深度学习 算法 数据挖掘
【Python 机器学习专栏】Python 机器学习入门:基础概念与流程
【4月更文挑战第30天】本文介绍了Python在机器学习中的重要性,机器学习的基础概念和分类,包括监督学习、非监督学习和强化学习。Python因其丰富的库(如Scikit-learn、TensorFlow、PyTorch)、简单易学的语法和跨平台性在机器学习领域广泛应用。文章还概述了机器学习的基本流程,包括数据收集、预处理、特征工程、模型训练与评估等,并列举了常用的Python机器学习算法,如线性回归、逻辑回归、决策树和支持向量机。最后,讨论了Python机器学习在金融、医疗、工业和商业等领域的应用,鼓励读者深入学习并实践这一技术。
|
8天前
|
机器学习/深度学习 数据挖掘 数据中心
利用机器学习优化数据中心能效的策略研究
【4月更文挑战第24天】在数据中心管理和运营中,能效优化是一个长期存在的挑战,它直接关系到成本控制和环境影响的减轻。随着人工智能技术的不断进步,特别是机器学习(ML)方法的广泛应用,为解决数据中心能效问题提供了新的途径。本文旨在探讨如何通过机器学习技术对数据中心的能源消耗进行建模、预测和优化,以实现更高的能效。我们首先分析了数据中心能耗的主要组成部分,然后提出了一种基于机器学习的能效优化框架,并详细阐述了关键技术和方法。最后,通过实验验证了所提出策略的有效性,并讨论了未来的研究方向。
|
13天前
|
机器学习/深度学习 运维 监控
利用机器学习优化数据中心能效的研究
【4月更文挑战第19天】在数据中心的运营成本中,能源消耗占据了显著比例。随着能源价格的不断攀升与环境保护意识的加强,如何降低数据中心的能耗已成为研究的热点。本文提出了一种基于机器学习的方法来优化数据中心的能效。通过分析历史运行数据,构建预测模型,并结合实时监控,动态调整资源分配策略以达到节能目的。实验结果表明,该方法能有效减少能源开销,同时保证服务质量。
|
14天前
|
机器学习/深度学习 资源调度 调度
利用机器学习优化数据中心能效的策略研究
【4月更文挑战第18天】 在数据中心的运营成本中,能源消耗占据了显著比例。为了降低这一开销同时减少环境影响,本文提出一套基于机器学习技术的数据中心能效优化策略。通过分析数据中心的能耗模式和环境变量,构建了一个预测模型来动态调整资源分配,实现能源使用的最大效率。与传统方法相比,本研究提出的策略在保证服务质量的前提下,能有效降低能耗,并具备自我学习和适应的能力。
|
24天前
|
机器学习/深度学习 自然语言处理 算法
探索机器学习的奥秘:从基础概念到算法解析
探索机器学习的奥秘:从基础概念到算法解析
39 0