机器学习深度研究:特征选择中几个重要的统计学概念

简介: 机器学习深度研究:特征选择中几个重要的统计学概念

问题引出


当我们拿到数据并对其进行了数据预处理,但还不能直接拿去训练模型,还需要选择有意义的特征(即特征选择),这样做有四个好处:


1、避免维度灾难

2、降低学习难度

3、减少过拟合

4、增强对特征和特征值之间的理解


常见的特征选择有三种方法:


过滤法(Filter):先对数据集进行特征选择,然后再训练学习器,特征选择过程与后续学习器无关。


包装法(Wrapper):根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。


嵌入法(Embedding):先使用机器学习模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。


640.png


其中,过滤法是最简单,最易于运行和最易于理解的。


过滤法核心思路就是考察自变量和目标变量之间的关联性、相关性,设定阈值,优先选择与目标相关性高的特征。


主要方法:


1、分类问题:卡方检验(chi2),F检验(f_classif), 互信息(mutual_info_classif)

2、回归问题:相关系数(f_regression), 信息系数(mutual_info_regression)


卡方检验、F检验、互信息、相关系数、信息系数


这些都是统计学领域的概念,在sklearn特征选择中被使用,所以在解释这些概念时,我也重点参考了sklearn文档。


卡方检验百科定义:


卡方检验就是统计样本的实际观测值与理论推断值之间的偏离程度,实际观测值与理论推断值之间的偏离程度就决定卡方值的大小,如果卡方值越大,二者偏差程度越大;反之,二者偏差越小;若两个值完全相等时,卡方值就为0,表明理论值完全符合。


卡方值  image.png计算公式


640.png


不要望公式兴叹,其实只需掌握到第一个等号后就行了:A为实际值,T为理论值。


F检验


F检验和方差分析(ANOVA)是一回事,主要用于两个及两个以上样本均数差别的显著性检验。方差分析的基本原理是认为不同处理组的均数间的差别基本来源有两个:(1) 实验条件,即不同的处理造成的差异,称为组间差异。用变量在各组的均值与总均值之偏差平方和的总和表示,记作image.png,组间自由度image.png


(2) 随机误差,如测量误差造成的差异或个体间的差异,称为组内差异,用变量在各组的均值与该组内变量值之偏差平方和的总和表示, 记作image.png,组内自由度image.png


640.png


利用f值可以判断假设H0是否成立:值越大,大到一定程度时,就有理由拒绝零假设,认为不同总体下的均值存在显著差异。所以我们可以根据样本的某个特征的f值来判断特征对预测类别的帮助,值越大,预测能力也就越强,相关性就越大,从而基于此可以进行特征选择。


互信息(mutual_info_classif/regression)


互信息是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。


两个离散随机变量 X 和 Y 的互信息可以定义为:


640.png


相关系数(f_regression)


相关系数是一种最简单的,能帮助理解特征和响应变量之间关系的方法,该方法衡量的是变量之间的线性相关性,结果的取值区间为[-1,1],-1表示完全的负相关,+1表示完全的正相关,0表示没有线性相关。

image.png


式中是代表所有样本的在i号特征上的取值的维列向量,分子上其实两个维列向量的内积,所以是一个数值,其实就是样本相关系数。


值越大,第i个特征和因变量y之间的相关性就越大,据此我们做特征选择。


P值 (P-value)


P值,也就是常见到的 P-value。P 值是一种概率,指的是在 H0 假设为真的前提下,样本结果出现的概率。如果 P-value 很小,则说明在原假设为真的前提下,样本结果出现的概率很小,甚至很极端,这就反过来说明了原假设很大概率是错误的。通常,会设置一个显著性水平(significance level) 与 P-value 进行比较,如果 P-value <  ,则说明在显著性水平 下拒绝原假设, 通常情况下设置为0.05。


sklearn特征选择——过滤法


sklearn过滤法特征选择方法


SelectBest 只保留 k 个最高分的特征;SelectPercentile 只保留用户指定百分比的最高得分的特征;使用常见的单变量统计检验:假正率SelectFpr,错误发现率selectFdr,或者总体错误率SelectFwe;GenericUnivariateSelect 通过结构化策略进行特征选择,通过超参数搜索估计器进行特征选择。


SelectKBest按照scores保留K个特征;


SelectPercentile按照scores保留指定百分比的特征;


SelectFpr、SelectFdr和SelectFwe对每个特征使用通用的单变量统计检验;


GenericUnivariateSelect允许使用可配置策略如超参数搜索估计器选择最佳的单变量选择策略。特征选择指标


640.png


使用sklearn中SelectKBest函数进行特征选择,参数中的score_func选择:分类:chi2----卡方检验


f_classif----方差分析,计算方差分析(ANOVA)的F值 (组间均方 / 组内均方)


mutual_info_classif----互信息,互信息方法可以捕捉任何一种统计依赖,但是作为非参数方法,需要更多的样本进行准确的估计


回归:f_regression----相关系数,计算每个变量与目标变量的相关系数,然后计算出F值和P值


mutual_info_regression----互信息,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。


sklearn过滤法特征选择-示例


在sklearn中,可以使用chi2这个类来做卡方检验得到所有特征的卡方值与显著性水平P临界值,我们可以给定卡方值阈值, 选择卡方值较大的部分特征。代码如下:


  1. 首先import包和实验数据:


from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.datasets import load_iris
#导入IRIS数据集
iris = load_iris()


  1. 使用卡方检验来选择特征


model1 = SelectKBest(chi2, k=2)#选择k个最佳特征
model1.fit_transform(iris.data, iris.target)#iris.data是特征数据,iris.target是标签数据,该函数可以选择出k个特征


结果输出为:


array([[ 1.4,  0.2],
       [ 1.4,  0.2],
       [ 1.3,  0.2],
       [ 1.5,  0.2],
       [ 1.4,  0.2],
       [ 1.7,  0.4],
       [ 1.4,  0.3],


可以看出后使用卡方检验,选择出了后两个特征。如果我们还想查看卡方检验的p值和得分,可以使用第3步。


  1. 查看p-values和scores


model1.scores_  #得分


得分输出为:


array([ 10.81782088, 3.59449902, 116.16984746, 67.24482759])


可以看出后两个特征得分最高,与我们第二步的结果一致;


model1.pvalues_  #p-values


p值输出为:


array([ 4.47651499e-03, 1.65754167e-01, 5.94344354e-26, 2.50017968e-15])


可以看出后两个特征的p值最小,置信度也最高,与前面的结果一致。

相关文章
|
11月前
|
机器学习/深度学习 人工智能 供应链
从概念到商业价值:AI、机器学习与深度学习全景指南
在这个科技飞速发展的时代🚀,人工智能正以惊人的速度渗透到我们的生活和工作中👀。但面对铺天盖地的AI术语和概念,很多人感到困惑不已😣。"AI"、"机器学习"、"深度学习"和"神经网络"到底有什么区别?它们如何相互关联?如何利用这些技术提升工作效率和创造价值?
611 0
|
机器学习/深度学习 资源调度 算法
机器学习领域必知数学符号与概念(一)
本文介绍了一些数学符号以及这些符号的含义。
1116 65
|
机器学习/深度学习 数据采集 搜索推荐
机器学习在智能推荐系统中的个性化算法研究
机器学习在智能推荐系统中的个性化算法研究
|
机器学习/深度学习 自然语言处理 JavaScript
信息论、机器学习的核心概念:熵、KL散度、JS散度和Renyi散度的深度解析及应用
在信息论、机器学习和统计学领域中,KL散度(Kullback-Leibler散度)是量化概率分布差异的关键概念。本文深入探讨了KL散度及其相关概念,包括Jensen-Shannon散度和Renyi散度。KL散度用于衡量两个概率分布之间的差异,而Jensen-Shannon散度则提供了一种对称的度量方式。Renyi散度通过可调参数α,提供了更灵活的散度度量。这些概念不仅在理论研究中至关重要,在实际应用中也广泛用于数据压缩、变分自编码器、强化学习等领域。通过分析电子商务中的数据漂移实例,展示了这些散度指标在捕捉数据分布变化方面的独特优势,为企业提供了数据驱动的决策支持。
2132 2
信息论、机器学习的核心概念:熵、KL散度、JS散度和Renyi散度的深度解析及应用
|
机器学习/深度学习
自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速
【10月更文挑战第21天】在科技快速发展的背景下,机器学习研究面临诸多挑战。为提高研究效率,研究人员提出了MLR-Copilot系统框架,利用大型语言模型(LLM)自动生成和实施研究想法。该框架分为研究想法生成、实验实施和实施执行三个阶段,通过自动化流程显著提升研究生产力。实验结果显示,MLR-Copilot能够生成高质量的假设和实验计划,并显著提高任务性能。然而,该系统仍需大量计算资源和人类监督。
292 4
|
机器学习/深度学习 传感器 算法
机器学习入门(一):机器学习分类 | 监督学习 强化学习概念
机器学习入门(一):机器学习分类 | 监督学习 强化学习概念
|
机器学习/深度学习 数据可视化 算法
机器学习中的特征选择与降维技术
机器学习中的特征选择与降维技术
596 0
|
机器学习/深度学习 人工智能 算法
算法金 | 统计学的回归和机器学习中的回归有什么差别?
**摘要:** 统计学回归重在解释,使用线性模型分析小数据集,强调假设检验与解释性。机器学习回归目标预测,处理大数据集,模型复杂多样,关注泛化能力和预测误差。两者在假设、模型、数据量和评估标准上有显著差异,分别适用于解释性研究和预测任务。
318 8
算法金 | 统计学的回归和机器学习中的回归有什么差别?
|
机器学习/深度学习 算法
【机器学习】解释对偶的概念及SVM中的对偶算法?(面试回答)
解释了对偶的概念,指出对偶性在优化问题中的重要性,尤其是在强对偶性成立时可以提供主问题的最优下界,并且详细阐述了支持向量机(SVM)中对偶算法的应用,包括如何将原始的最大间隔优化问题转换为对偶问题来求解。
587 2
|
机器学习/深度学习
【机器学习】准确率、精确率、召回率、误报率、漏报率概念及公式
机器学习评估指标中的准确率、精确率、召回率、误报率和漏报率等概念,并给出了这些指标的计算公式。
4460 0

热门文章

最新文章

下一篇
开通oss服务