如何找出 sklearn SelectBest 选出几个重要的特征名称(column name)

简介: 如何找出 sklearn SelectBest 选出几个重要的特征名称(column name)

如何找出 sklearn SelectBest 选出几个重要的特征名称(column name)


一、需求

sklearn SelectBest 函数可以指定参数 k 的值,就能选出最重要的 k 个特征。也能通过 model.scores_ 和 model.pvalues_ 来输出得分和 p-value 的值,如果特征量小,可以通过肉眼对比 model.scores_ 来得知选出来的是哪几列,但是如果特征个数特别多,如何能通过排序方法知道排序结果,并输出选中的列名呢?

二、解决方法

from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.datasets import load_iris
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
from  scipy.stats import chi2_contingency
import numpy as np
#导入IRIS数据集
iris = load_iris()
def get_feature_importance():
"""
此处省略 feature_data, label_data 的生成代码。
如果是 CSV 文件,可通过 read_csv() 函数获得特征和标签。
"""
    model = SelectKBest(chi2, k=2)#选择k个最佳特征
    X_new = model.fit_transform(feature_data, label_data)
    #feature_data是特征数据,label_data是标签数据,该函数可以选择出k个特征 
    print("model shape: ",X_new.shape)
    scores = model.scores_
    print('model scores:', scores)  # 得分越高,特征越重要
    p_values = model.pvalues_
    print('model p-values', p_values)  # p-values 越小,置信度越高,特征越重要
    # 按重要性排序,选出最重要的 k 个
    indices = np.argsort(scores)[::-1]
    k_best_features = list(feature_data.columns.values[indices[0:2]])
    print('k best features are: ',k_best_features)
    return k_best_features

以上,问题解决~

相关文章
|
机器学习/深度学习 算法 数据挖掘
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
|
大数据 iOS开发 Python
Python 按分类权重(区间)随机获取分类样本
Python 按分类权重(区间)随机获取分类样本
92 0
|
机器学习/深度学习 数据可视化
【解决方案】成功解决将XGBoost中plot_importance绘图时出现的f0、f1、f2、f3、f4、f5等改为对应特征的字段名
成功解决将XGBoost中plot_importance绘图时出现的f0、f1、f2、f3、f4、f5等改为对应特征的字段名。
【解决方案】成功解决将XGBoost中plot_importance绘图时出现的f0、f1、f2、f3、f4、f5等改为对应特征的字段名
|
存储 开发者
R 数据框、因子和列表|学习笔记
向量,矩阵和数组,它们共同的特点就是它们中的数据只能拥有一组模式,也就是可以尝试字符型,也可以尝试数值类型,但是不允许在一个向量中即出现字符型也出现数值型,如果一个数据类型中即想放数值型,也想放字符型,也就是不同的模式的数据,应该用什么样的方式进行存储?数据框就可以存放不同类型的数据。
151 0
R 数据框、因子和列表|学习笔记
|
Python
numpy重新学习系列(10)---如何用np.arange生成均匀间隔分布的array
numpy重新学习系列(10)---如何用np.arange生成均匀间隔分布的array
109 0
|
机器学习/深度学习 计算机视觉
LBP+GLCM+SVM对开源数据集kth_tips_col_200x200进行简单分类
LBP+GLCM+SVM对开源数据集kth_tips_col_200x200进行简单分类
563 0
LBP+GLCM+SVM对开源数据集kth_tips_col_200x200进行简单分类
ML之FE:对pandas的dataframe中的类别型字段进行数字编码化(类别型特征数值化)并导出映射表daiding
ML之FE:对pandas的dataframe中的类别型字段进行数字编码化(类别型特征数值化)并导出映射表daiding
|
机器学习/深度学习 数据挖掘
特征工程--有序类别变量&单数值变量特征工程
特征工程--有序类别变量&单数值变量特征工程
270 0
特征工程--有序类别变量&单数值变量特征工程
|
前端开发
准确理解BootStrap中Grid中的列分布
准确理解BootStrap中Grid中的列分布
158 0
准确理解BootStrap中Grid中的列分布
ML之PLiR之LARS:利用LARS算法求解ElasticNet回归类型(包括类别编码+属性重要程度排序)问题(实数值年龄预测)
ML之PLiR之LARS:利用LARS算法求解ElasticNet回归类型(包括类别编码+属性重要程度排序)问题(实数值年龄预测)
ML之PLiR之LARS:利用LARS算法求解ElasticNet回归类型(包括类别编码+属性重要程度排序)问题(实数值年龄预测)