机器学习深度研究:特征选择中几个重要的统计学概念

简介: 机器学习深度研究:特征选择中几个重要的统计学概念

问题引出


当我们拿到数据并对其进行了数据预处理,但还不能直接拿去训练模型,还需要选择有意义的特征(即特征选择),这样做有四个好处:


1、避免维度灾难

2、降低学习难度

3、减少过拟合

4、增强对特征和特征值之间的理解


常见的特征选择有三种方法:


过滤法(Filter):先对数据集进行特征选择,然后再训练学习器,特征选择过程与后续学习器无关。


包装法(Wrapper):根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。


嵌入法(Embedding):先使用机器学习模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。


640.png


其中,过滤法是最简单,最易于运行和最易于理解的。


过滤法核心思路就是考察自变量和目标变量之间的关联性、相关性,设定阈值,优先选择与目标相关性高的特征。


主要方法:


1、分类问题:卡方检验(chi2),F检验(f_classif), 互信息(mutual_info_classif)

2、回归问题:相关系数(f_regression), 信息系数(mutual_info_regression)


卡方检验、F检验、互信息、相关系数、信息系数


这些都是统计学领域的概念,在sklearn特征选择中被使用,所以在解释这些概念时,我也重点参考了sklearn文档。


卡方检验百科定义:


卡方检验就是统计样本的实际观测值与理论推断值之间的偏离程度,实际观测值与理论推断值之间的偏离程度就决定卡方值的大小,如果卡方值越大,二者偏差程度越大;反之,二者偏差越小;若两个值完全相等时,卡方值就为0,表明理论值完全符合。


卡方值  image.png计算公式


640.png


不要望公式兴叹,其实只需掌握到第一个等号后就行了:A为实际值,T为理论值。


F检验


F检验和方差分析(ANOVA)是一回事,主要用于两个及两个以上样本均数差别的显著性检验。方差分析的基本原理是认为不同处理组的均数间的差别基本来源有两个:(1) 实验条件,即不同的处理造成的差异,称为组间差异。用变量在各组的均值与总均值之偏差平方和的总和表示,记作image.png,组间自由度image.png


(2) 随机误差,如测量误差造成的差异或个体间的差异,称为组内差异,用变量在各组的均值与该组内变量值之偏差平方和的总和表示, 记作image.png,组内自由度image.png


640.png


利用f值可以判断假设H0是否成立:值越大,大到一定程度时,就有理由拒绝零假设,认为不同总体下的均值存在显著差异。所以我们可以根据样本的某个特征的f值来判断特征对预测类别的帮助,值越大,预测能力也就越强,相关性就越大,从而基于此可以进行特征选择。


互信息(mutual_info_classif/regression)


互信息是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。


两个离散随机变量 X 和 Y 的互信息可以定义为:


640.png


相关系数(f_regression)


相关系数是一种最简单的,能帮助理解特征和响应变量之间关系的方法,该方法衡量的是变量之间的线性相关性,结果的取值区间为[-1,1],-1表示完全的负相关,+1表示完全的正相关,0表示没有线性相关。

image.png


式中是代表所有样本的在i号特征上的取值的维列向量,分子上其实两个维列向量的内积,所以是一个数值,其实就是样本相关系数。


值越大,第i个特征和因变量y之间的相关性就越大,据此我们做特征选择。


P值 (P-value)


P值,也就是常见到的 P-value。P 值是一种概率,指的是在 H0 假设为真的前提下,样本结果出现的概率。如果 P-value 很小,则说明在原假设为真的前提下,样本结果出现的概率很小,甚至很极端,这就反过来说明了原假设很大概率是错误的。通常,会设置一个显著性水平(significance level) 与 P-value 进行比较,如果 P-value <  ,则说明在显著性水平 下拒绝原假设, 通常情况下设置为0.05。


sklearn特征选择——过滤法


sklearn过滤法特征选择方法


SelectBest 只保留 k 个最高分的特征;SelectPercentile 只保留用户指定百分比的最高得分的特征;使用常见的单变量统计检验:假正率SelectFpr,错误发现率selectFdr,或者总体错误率SelectFwe;GenericUnivariateSelect 通过结构化策略进行特征选择,通过超参数搜索估计器进行特征选择。


SelectKBest按照scores保留K个特征;


SelectPercentile按照scores保留指定百分比的特征;


SelectFpr、SelectFdr和SelectFwe对每个特征使用通用的单变量统计检验;


GenericUnivariateSelect允许使用可配置策略如超参数搜索估计器选择最佳的单变量选择策略。特征选择指标


640.png


使用sklearn中SelectKBest函数进行特征选择,参数中的score_func选择:分类:chi2----卡方检验


f_classif----方差分析,计算方差分析(ANOVA)的F值 (组间均方 / 组内均方)


mutual_info_classif----互信息,互信息方法可以捕捉任何一种统计依赖,但是作为非参数方法,需要更多的样本进行准确的估计


回归:f_regression----相关系数,计算每个变量与目标变量的相关系数,然后计算出F值和P值


mutual_info_regression----互信息,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。


sklearn过滤法特征选择-示例


在sklearn中,可以使用chi2这个类来做卡方检验得到所有特征的卡方值与显著性水平P临界值,我们可以给定卡方值阈值, 选择卡方值较大的部分特征。代码如下:


  1. 首先import包和实验数据:


from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.datasets import load_iris
#导入IRIS数据集
iris = load_iris()


  1. 使用卡方检验来选择特征


model1 = SelectKBest(chi2, k=2)#选择k个最佳特征
model1.fit_transform(iris.data, iris.target)#iris.data是特征数据,iris.target是标签数据,该函数可以选择出k个特征


结果输出为:


array([[ 1.4,  0.2],
       [ 1.4,  0.2],
       [ 1.3,  0.2],
       [ 1.5,  0.2],
       [ 1.4,  0.2],
       [ 1.7,  0.4],
       [ 1.4,  0.3],


可以看出后使用卡方检验,选择出了后两个特征。如果我们还想查看卡方检验的p值和得分,可以使用第3步。


  1. 查看p-values和scores


model1.scores_  #得分


得分输出为:


array([ 10.81782088, 3.59449902, 116.16984746, 67.24482759])


可以看出后两个特征得分最高,与我们第二步的结果一致;


model1.pvalues_  #p-values


p值输出为:


array([ 4.47651499e-03, 1.65754167e-01, 5.94344354e-26, 2.50017968e-15])


可以看出后两个特征的p值最小,置信度也最高,与前面的结果一致。

相关文章
|
3月前
|
机器学习/深度学习 数据采集 搜索推荐
机器学习在智能推荐系统中的个性化算法研究
机器学习在智能推荐系统中的个性化算法研究
|
1月前
|
机器学习/深度学习 算法
【机器学习】解释对偶的概念及SVM中的对偶算法?(面试回答)
解释了对偶的概念,指出对偶性在优化问题中的重要性,尤其是在强对偶性成立时可以提供主问题的最优下界,并且详细阐述了支持向量机(SVM)中对偶算法的应用,包括如何将原始的最大间隔优化问题转换为对偶问题来求解。
44 2
|
13天前
|
机器学习/深度学习 存储 分布式计算
Hadoop与机器学习的融合:案例研究
【8月更文第28天】随着大数据技术的发展,Hadoop已经成为处理大规模数据集的重要工具。同时,机器学习作为一种数据分析方法,在各个领域都有着广泛的应用。本文将介绍如何利用Hadoop处理大规模数据集,并结合机器学习算法来挖掘有价值的信息。我们将通过一个具体的案例研究——基于用户行为数据预测用户留存率——来展开讨论。
57 0
|
3月前
|
机器学习/深度学习 人工智能 算法
算法金 | 统计学的回归和机器学习中的回归有什么差别?
**摘要:** 统计学回归重在解释,使用线性模型分析小数据集,强调假设检验与解释性。机器学习回归目标预测,处理大数据集,模型复杂多样,关注泛化能力和预测误差。两者在假设、模型、数据量和评估标准上有显著差异,分别适用于解释性研究和预测任务。
57 8
算法金 | 统计学的回归和机器学习中的回归有什么差别?
|
2月前
|
机器学习/深度学习 算法 数据可视化
Fisher模型在统计学和机器学习领域通常指的是Fisher线性判别分析(Fisher's Linear Discriminant Analysis,简称LDA)
Fisher模型在统计学和机器学习领域通常指的是Fisher线性判别分析(Fisher's Linear Discriminant Analysis,简称LDA)
|
1月前
|
机器学习/深度学习
【机器学习】准确率、精确率、召回率、误报率、漏报率概念及公式
机器学习评估指标中的准确率、精确率、召回率、误报率和漏报率等概念,并给出了这些指标的计算公式。
71 0
|
1月前
|
机器学习/深度学习 算法 搜索推荐
【机器学习】凸集、凸函数、凸优化、凸优化问题、非凸优化问题概念详解
本文解释了凸集、凸函数、凸优化以及非凸优化的概念,并探讨了它们在机器学习中的应用,包括如何将非凸问题转化为凸问题的方法和技术。
48 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习之深度学习算法概念
深度学习算法是一类基于人工神经网络的机器学习方法,其核心思想是通过多层次的非线性变换,从数据中学习表示层次特征,从而实现对复杂模式的建模和学习。深度学习算法在图像识别、语音识别、自然语言处理等领域取得了巨大的成功,成为人工智能领域的重要技术之一。
64 3
|
2月前
|
机器学习/深度学习 人工智能 API
在人工智能和机器学习的领域中,语音识别(Speech Recognition,SR)是一个重要的研究方向。它旨在将人类的语音转换为计算机可读的文本。
在人工智能和机器学习的领域中,语音识别(Speech Recognition,SR)是一个重要的研究方向。它旨在将人类的语音转换为计算机可读的文本。
|
3月前
|
机器学习/深度学习 人工智能 算法
【机器学习】深度探索:从基础概念到深度学习关键技术的全面解析——梯度下降、激活函数、正则化与批量归一化
【机器学习】深度探索:从基础概念到深度学习关键技术的全面解析——梯度下降、激活函数、正则化与批量归一化
41 3
下一篇
DDNS