特征选择介绍及4种基于过滤器的方法来选择相关特征

简介: 特征选择介绍及4种基于过滤器的方法来选择相关特征

特征选择是面试中一个非常受欢迎的问题。 这篇文章能带你了解这方面相关的知识。

640.jpg

为什么要使用特征选择

你熟悉鸢尾花的数据集吗?(sklearn自带小型数据集)即使是最简单的算法也能得到如此美妙的结果,这难道不令人惊叹吗?

很抱歉让你失望了,但这是不现实的。大多数情况下,特征的数量(p)比样本的数量(N)要多得多(p>>N)——这也被称为维数诅咒。但是,为什么这是个问题呢

高维数据可能导致以下情况:

  • 训练时间长
  • 过度拟合

即使不是p>>N,有一长串机器学习算法可以假设自变量。采用特征选择方法去除相关特征。此外,将特征空间的维数降至相关特征的子集,可以减少训练的计算量,提高模型的泛化性能。

特征选择是从数据集中删除无关和冗余特征的过程。反过来,该模型将降低复杂性,因此更易于解释。

“有时候,越少越好!”

过滤方法

640.png

根据特征与目标变量的关系选择特征子集。选择不依赖于任何机器学习算法。相反,过滤方法通过统计检验来衡量特征与输出的“相关性”。你可以参考下表:

640.png

皮尔森的相关性

度量两个连续变量之间线性相关性的统计量。从-1到+1,+1为正线性相关,0为无线性相关,-1为负线性相关。

640.png

数据集:波士顿房屋房价数据集(sklearn自带)。它包括13个连续特征和业主自住房屋在$1000s的中值(目标变量)。

640.png

importpandasaspdimportmatplotlib.pyplotaspltimportseabornassnsfromsklearn.datasetsimportload_bostonX, y=load_boston(return_X_y=True)
feature_names=load_boston().feature_namesdata=pd.DataFrame(X, columns=feature_names)
data['MEDV'] =y#computepearson's rtarget_correlation = data.corr()[['MEDV']]# we only care about the target variableplt.figure(figsize=(7,5))sns.heatmap(target_correlation, annot=True, cmap=plt.cm.Reds)plt.show()

640.png

#extractthemostcorrelatedfeatureswiththeoutputvariabletarget_correlation[abs(target_correlation)>0.5].dropna()

相关系数的大小在0.5 - 0.7之间,表示可以认为是中度相关的变量,因此我们将阈值设为0.5。

640.png

从13个特征中,只有3个与目标有很强的相关性(相关特征);RM, PTRATIO, LSTAT。但是,我们只检查了每个单独特征与输出变量的相关性。由于许多算法,比如线性回归,假设输入特征是不相关的,我们必须计算前3个特征之间的皮尔森r值。

sns.heatmap(data.corr().loc[['RM', 'PTRATIO', 'LSTAT'], ['RM', 'PTRATIO', 'LSTAT']], annot=True, cmap=plt.cm.Reds)
plt.show()

640.png

RM和LSTAT是相互关联的,所以我们选择其中一个(去掉RM就等于去掉冗余特征)。由于LSTAT与目标变量MEDV的相关性高于RM,所以我们选择LSTAT。

LDA

线性判别分析是一种有监督的线性算法,它将数据投影到更小的子空间k (k < N-1)中,同时最大化类间的分离。更具体地说,该模型找到的特征的线性组合,实现最大的可分离性,在每个类内的方差最小。

数据集:乳腺癌威斯康辛(诊断)数据集,包括569个记录,每个由30个特征描述。这项任务是将肿瘤分类为恶性或良性。

importpandasaspdfromsklearn.linear_modelimportLogisticRegressionfromsklearn.preprocessingimportLabelEncoderfromsklearn.discriminant_analysisimportLinearDiscriminantAnalysisfromsklearn.model_selectionimportStratifiedKFold, cross_val_scorefromsklearn.pipelineimportPipelinedf=pd.read_csv('breast_cancer.csv').iloc[:,1:-1]
X=df.drop(['diagnosis'], axis=1)
le=LabelEncoder()
y=le.fit_transform(df.diagnosis)
labels=le.classes_steps= [('lda', LinearDiscriminantAnalysis()), ('m', LogisticRegression(C=10))]
model=Pipeline(steps=steps)
#evaluatemodelcv=StratifiedKFold(n_splits=5)
n_scores_lda=cross_val_score(model, X, y, scoring='f1_macro', cv=cv, n_jobs=-1)
model=LogisticRegression(C=10)
n_scores=cross_val_score(model, X, y, scoring='f1_macro', cv=cv, n_jobs=-1)
#reportperformanceprint('f1-score (macro)\n')
print('With LDA: %.2f'%np.mean(n_scores_lda))
print('Without LDA: %.2f'%np.mean(n_scores))

640.png

使用LDA作为预处理步骤,性能提高了4%。

ANOVA

方差分析(Analysis of Variance )是检验不同输入类别对输出变量是否有显著差异的一种统计方法。来自sklearn的f_classifmethod允许对多个数据组进行分析,以确定样本之间和样本内部的可变性,从而获得关于独立变量和从属变量之间的关系的信息。例如,我们可能想测试两种程序,看看哪一种在收入方面比另一种表现更好。

fromsklearn.feature_selectionimportf_classif, SelectKBestfs=SelectKBest(score_func=f_classif, k=5)
X_new=fs.fit(X, y)

注意:之前,我们只设k=5。如果不是5而是4呢?我们可以通过k-fold交叉验证执行网格搜索来微调所选特征的数量

fromsklearn.model_selectionimportStratifiedKFold, GridSearchfromsklearn.pipelineimportPipelinefromsklearn.linear_modelimportLinearRegressioncv=StratifiedKFold(n_splits=5)
pipeline=Pipeline(steps=[('anova',fs), ('lr', LinearRegression(solver='liblinear'))])
params= {['anova__k']: [i+1foriinrange(X.shape[1])]}
search=GridSearchCV(pipeline, params, scoring='accuracy', n_jobs=-1, cv=cv)
results=search.fit(X, y)
print('Best k: %s'%results.best_params_)

χ²卡方

卡方检验特定特征和特定类的出现是否使用它们的频率分布是独立的。零假设是两个变量是独立的。但是,如果方差值大,则应拒绝原假设。在选择特征时,我们希望提取那些高度依赖于输出的特征。

数据集: Dream Housing Finance公司处理所有住房贷款,并希望自动化贷款资格流程。数据集包含11个分类和数字特征,用于描述客户的个人资料。目标变量是二元的-客户是否有资格获得贷款

fromsklearn.feature_selectionimportchi2, SelectKBestloan=pd.read_csv('loan_data_set.csv')
loan=loan.drop('Loan_ID', axis=1) #irrelevantfeature#Transformthenumericalfeatureintocategoricalfeatureloan['Loan_Amount_Term'] =loan['Loan_Amount_Term'].astype('object')
loan['Credit_History'] =loan['Credit_History'].astype('object')
#Droppingallthenullvalueloan.dropna(inplace=True)
#Retrieveallthecategoricalcolumnsexceptthetargetcategorical_columns=loan.select_dtypes(exclude='number').drop('Loan_Status', axis=1).columns#Retrieveallthecategoricalcolumnsexceptthetargetcategorical_columns=loan.select_dtypes(exclude='number').drop('Loan_Status', axis=1).columnsfs=SelectKBest(score_func=chi2, k=5)
X_kbest=fs.fit_transform(X, y)

非线性关系呢?

640.png

到目前为止,我们一直在讨论假设两个元素X,Y之间存在线性关系的方法。这些方法无法捕获除此以外的任何关系。为了解决这个问题,我们可以看一下特征与目标变量之间的互信息(MI)。MI的范围是0(无互信息)和1(完全相关)。Sklearn为回归和分类任务提供实施。

fromsklearn.feature_selectionimportmutual_info_regression, mutual_info_classif, SelectKBestfs=SelectKBest(score_func=mutual_info_classif, k=5)
#top5featuresX_subset=fs.fit_transform(X, y)

可以使用主成分分析吗?

640.gif

当然可以。但是请不要将特征提取与特征选择混淆。PCA是一种无监督的线性变换技术。这是减少维数的另一种方法-但是要小心,尽管在这种方法中我们不选择特征,而是通过将数据投影到较低维的空间中同时保留最大方差来变换特征空间。该技术导致不相关的变量(主要成分)是旧变量的线性组合。不幸的是,您并不真正了解这些新功能代表什么,因此尽管降低了维度,但您肯定会丧失可解释性。

注意:不要犯年轻的ML从业人员最常见的错误之一:在非连续特征上应用PCA。我知道在离散变量上运行PCA时代码不会中断,但这并不意味着您应该这样做。

注意事项

尽管我们已经看到了很多进行特征选择的方法(还有更多方法),但总会有答案“我不会做”。我知道这听起来可能很奇怪,尤其是当它来自本文的作者时,但是我需要给出所有可能的答案,这就是其中之一。

“特征选择”需要时间,您可能不考虑既不花费时间也不花费精力。您必须始终牢记两件事:1.由于您正在放弃特征,所以肯定会丢失信息;2.即使您尝试了所有技术,也可能看不到模型性能的重大改进。

目录
相关文章
|
6月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
885 0
|
机器学习/深度学习 算法 数据可视化
浅析特征数据离散化的几种方法(上)
什么是离散化? 离散化就是把无限空间中有限的个体映射到有限的空间中去,以此提高算法的时空效率。通俗的说,离散化是在不改变数据相对大小的条件下,对数据进行相应的缩小。例如:
|
1月前
|
自然语言处理 大数据 测试技术
PAIRDISTILL: 用于密集检索的成对相关性蒸馏方法
在大数据时代,有效的信息检索技术对于从海量数据中提取相关信息至关重要。国立台湾大学的研究者提出了一种名为PAIRDISTILL的新方法,通过成对相关性蒸馏,利用成对重排序器提供的细粒度训练信号,显著提升了密集检索模型的性能。该方法不仅在MS MARCO等基准测试中表现出色,还在领域外和零样本场景中展现出强大的泛化能力,为密集检索领域提供了新的研究方向。
73 13
PAIRDISTILL: 用于密集检索的成对相关性蒸馏方法
|
机器学习/深度学习 算法 Python
K最近邻算法:简单高效的分类和回归方法(三)
K最近邻算法:简单高效的分类和回归方法(三)
|
2月前
|
机器学习/深度学习 数据挖掘
数据特征
数据特征
63 1
|
6月前
|
人工智能 物联网
PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法
我们开始看4月的新论文了,这是来自北京大学人工智能研究所、北京大学智能科学与技术学院的研究人员发布的Principal Singular Values and Singular Vectors Adaptation(PiSSA)方法。
89 3
|
数据采集 存储 运维
K最近邻算法:简单高效的分类和回归方法
K最近邻算法:简单高效的分类和回归方法
|
机器学习/深度学习 数据采集 并行计算
K最近邻算法:简单高效的分类和回归方法(二)
K最近邻算法:简单高效的分类和回归方法(二)
|
搜索推荐
召回和粗排负样本构造问题
召回和粗排负样本构造问题
346 0
|
机器学习/深度学习 算法 开发者
特征生成(特征创建)
特征生成(特征创建)

相关实验场景

更多