为什么要停止过度使用置换重要性来寻找特征(上)

简介: 为什么要停止过度使用置换重要性来寻找特征

数据分析师通常为了某些任务需要计算特征重要度。特征重要度可以帮助使用者了解数据中是否存在偏差或者模型中是否存在缺陷。并且特征重要度可用于理解底层流程和做出业务决策。模型最重要的特性可能会给我们进一步的特征工程提供灵感。

640.png

目前计算特征重要性的方法有很多种。其中一些方法基于特定的模型,例如线性回归模型中的回归系数、基于树的模型中的增益重要性或神经网络中的批处理范数参数(批处理参数通常用于NN pruning,即神经网络剪枝压缩)。其他一些方法是“通用的”,它们几乎可以应用于任何模型:SHAP 值、置换重要性(permutaion importance)、删除和重新学习方法(drop-and-relearn approach)等。

尽管机器学习模型的黑箱可解释性是模型开发研究的一个重要组成部分,但是Harmanpreet等人的一项研究显示,并非所有的数据分析师和科学家都知道如何正确地解释模型。这些方法的有效性和易用性使得它们几乎成为不二选择。实际上,如果可以通过运行pip install lib, lib.explain(model)来解决问题,为什么还要费心具体的理论呢。

在这篇文章中,主要想要说明一个认知偏差,即过度使用置换重要性来寻找影响特征。本文将说明在某些情况下,置换重要性给出了错误的、误导性的结果。

置换重要性(Permutation Importance)

置换重要性是一种常用的特征重要性类型。其核心思想在于:如果用随机排列的值替换特征,会导致模型分数的下降。它是通过几个简单的步骤来计算的:

  1. 使用训练数据集(X_train,y_train)来训练模型;
  2. 对训练数据集进行预测(X_train,y_hat),计算准确度得分(score, 得分越高越好);
  3. 计算每个特征(feature_i)的置换重要性:
  • (1) 置换训练数据集中的第i个特征的值(feature_i),保持其它特征不变。生成置换后的训练数据集(X_train_permuted);
  • (2) 用第2步训练好的模型以及X_train_permuted数据集进行预测(y_hat_permuted);
  • (3)计算对应的准确度得分(score_permuted);
  • (4)每个特征的置换重要性即为对应的差异系数(score_permuted - score)。
  1. 上述步骤重复若干次并取平均值,以避免随机置换的不确定性影响。

用于说明计算的代码如下:

defcalculate_permutation_importance(
model,
X: pd.DataFrame,
y: pd.Series,
scoring_function: Callable=sklearn.metrics.roc_auc_score,
n_repeats: int=3,
seed: int=42,
) ->Tuple[any, float, Dict[str, float], np.array]:
"""Example of permutation importance calculation:param model: sklearn model, or any model with `fit` and `predict` methods:param X: input features:param y: input target:param scoring_function: function to use for scoring, should output single float value:param n_repeats: how many times make permutation:param seed: random state for experiment reproducibility:return:"""#step1-trainmodelmodel.fit(X, y)
#step2-makepredictionsfortraindataandscore (higherscore-better)
y_hat_no_shuffle=model.predict(X)
score=scoring_function(*(y, y_hat_no_shuffle))
#step3-calculatepermutationimportancefeatures=X.columnsitems= [(key, 0) forkeyinfeatures]
importances=collections.OrderedDict(items)
forninrange(n_repeats):
forcolinfeatures:
#copydatatoavoidusingpreviouslyshuffledversionsX_temp=X.copy()
#shufflefeature_ivaluesX_temp[col] =X[col].sample(X.shape[0], replace=True, random_state=seed+n).values#makepredictionforshuffleddatasety_hat=model.predict(X_temp)
#calculatescorescore_permuted=scoring_function(*(y, y_hat))
#calculatedeltascore#bettermodel<->higherscore#lowerthedelta->moreimportantthefeaturedelta_score=score_permuted-score#saveresultimportances[col] +=delta_score/n_repeatsimportances_values=np.array(list(importances.values()))
importance_ranks=rank_array(importances_values)
returnmodel, score, importances, importance_ranks

置换重要性很容易解释、实现和使用。虽然计算需要对训练数据进行n_features次预测,但与模型再训练或精确SHAP值计算相比,置换重要性不需要大量的重新计算。此外,置换重要性允许选择特征:如果置换数据集上的分数高于正常数据集,那么就表明应该删除该特征并重新训练模型。基于这些原因,置换重要性在许多机器学习项目中得到了广泛的应用。

存在的问题

虽然置换重要性是一个非常有吸引力的模型解释选择,但它有几个问题,特别是在特征具有一定相关性关系时。Giles Hooker和Lucas Mentch在他们的论文https://arxiv.org/abs/1905.03151中阐述如下:

  1. Strobl等人(2007)注意到在CART-builded树中置换重要性度量偏向于与其他特征相关和/或具有多个类别的特征,并进一步表明bootstrapping增强了这一影响效果;
  2. Archer和Kimes(2008)探讨了类似的问题,并注意到当真正的特征(那些与响应相关的特征)与噪声特征不相关时,置换重要性判断性能得到改善;
  3. Nicodemus等人(2010)在一个大规模的模拟研究中开展调查,并再次发现置换重要性方法高估了相关预测因子的重要性。

对这一问题可能的解释是模型的外推性能。假设模型是使用两个高度正相关的特征x1x2(下图中的左图)进行训练的。为了计算特征x1的重要性,我们对特征进行随机化处理,并对“随机”点(中心图上的红色点)进行预测。但这个模型在左上角和右下角都没有看到x1的任何训练例子。因此,要做出预测,它必须外推到以前看不见的区域(右图)。我们知道,所有模型的外推性能都很糟糕,因此做出了出乎意料的预测。这些“来自新区域的分数”强烈影响最终分数,当然也影响置换重要性。

640.png

图1 置换重要性问题的一个直观说明-未知区域

Giles Hooker和Lucas Mentch提出了几种替代方法来代替置换重要性:

  1. 约束置换重要性——有条件地置换特征,基于剩余特征的值来避免“看不见的区域”;
  2. 舍弃置换重要性——类似于Lei等人提出的保留一个协变量的方法:舍弃特征,再训练模型,比较得分。
  3. 置换再学习重要性——置换特征,再训练模型,比较得分。

测试

为了了解特征相关性对置换重要性和其他特征重要性方法的影响程度,本文进行了以下实验。

测试方法

首先,生成一个具有指定数量的特性和样本的正态分布数据集(n_features=50,n_samples=10000)。所有特征的平均值为0,标准差为1。所有的数据集特征通过最大相关度(max_correlation)相互关联。

生成数据集后,为每个特征添加了均匀分布的噪声。每个特征的噪声量是从([-0.5noise_magnitude_max,0.5noise_magnitude_max],noise_magnitude_max=var)的均匀分布中随机选择的。这样做是为了降低特征相关性。至此,特征就生成完毕了。

现在我们需要创建一个指标。对于每个特征,生成了一个权重,它是从具有指定gamma和scale参数(gamma=1,scale=1)的gamma分布中采样的。选择Gamma分布是因为它看起来非常类似于典型的特征重要性分布。然后将每个特征权重除以权重之和,使权重之和等于1。这样做是为了减少随机权重生成对最终结果的影响。然后将指标设置为特征与相应特征权重的线性组合。

640.png

图2 左侧是随机森林特征重要性示例。每个条形图都显示了ML模型中某个特性的重要性。右侧是排列后的sum-scaled gamma分布条形图。每个条柱显示了目标生成的线性组合中特征的权重,这本身就是特征重要性。

对于生成的数据集和目标,本文使用以下参数训练了一个LightGBM模型:

learning_rate: 0.01n_estimators: 100random_state: 42

所有其他参数均为默认值。并且使用内置的增益重要性、SHAP重要性和置换重要性算法来计算每个特征的重要性等级(置换重复五次,得分取平均值)。

然后计算特征的重要性与实际重要性之间的Spearman秩相关系数。实际重要性等于秩(-weights)。最佳可能的相关性系数为1.0,即特征重要性与实际重要性(特征权重)的顺序相同。

每个实验的数据(数据集统计相关性,模型重要性与内置增益重要性、SHAP重要性和置换重要性之间的Spearman秩相关系数)被保存以供进一步分析。这个实验用不同的初始值,用不同的最大相关系数和噪声幅值最大值组合(max_correlation,noise_magnitude_max)进行了50次试验。也用“舍弃置换重要度”和“置换再训练重要度”方法进行了同样的实验,但由于需要大量的计算,只进行了5次。

示例分析

为了直观理解,接下来将拿一个实验举例说明。实验的具体代码可以在这里找到:示例实验。实验参数为:

TASK="classification"OBJECTIVE="binary"METRIC=roc_auc_scoreMU=0VAR=1N_FEATUES=50N_SAMPLES=10_000NOISE_MAGNITUDE_MAX=1SEED=42

生成数据集的相关矩阵的一部分:

640.png

图3 部分特征数据集R2相关矩阵

我们可以看到这些特征之间高度相关(平均绝对相关约为0.96)。相关统计:

640.png

图4 特征数据集相关性的统计。abs_*前缀代表相关性的绝对值(注:数据集中的特征可以相互负相关和正相关)

目录
相关文章
|
6月前
|
机器学习/深度学习 数据可视化 数据库
R语言广义线性模型索赔频率预测:过度分散、风险暴露数和树状图可视化
R语言广义线性模型索赔频率预测:过度分散、风险暴露数和树状图可视化
|
算法 数据挖掘 数据库
priori 算法的影响因素分析| 学习笔记
快速学习 priori 算法的影响因素分析。
564 0
priori 算法的影响因素分析| 学习笔记
|
1天前
|
机器学习/深度学习 Serverless 定位技术
深入理解多重共线性:基本原理、影响、检验与修正策略
本文将深入探讨多重共线性的本质,阐述其重要性,并提供有效处理多重共线性的方法,同时避免数据科学家常犯的陷阱。
11 3
|
27天前
|
机器学习/深度学习 算法 数据挖掘
使用C# 实现期望最大化算法
使用C# 实现期望最大化算法
43 0
|
3月前
|
机器学习/深度学习 监控
在进行多任务学习时,如何确保模型不会过度拟合单一任务而忽视其他任务?
在进行多任务学习时,如何确保模型不会过度拟合单一任务而忽视其他任务?
|
5月前
偏微分方程有了基础模型:样本需求数量级减少,14项任务表现最佳
【6月更文挑战第16天】研究人员提出Poseidon模型,减少求解偏微分方程(PDEs)的样本需求,提升效率。在15个挑战任务中,该模型在14项表现最优。基于scOT的多尺度架构, Poseidon降低了计算成本,但仍有泛化和资源限制。[论文链接](https://arxiv.org/pdf/2405.19101)**
89 4
|
6月前
|
人工智能
小模型性能饱和、表现不佳,根源是因为Softmax?
【5月更文挑战第15天】研究人员发现小型语言模型性能受限于Softmax瓶颈,即隐藏维度与目标上下文概率分布不匹配,导致模型在预测时表现不佳。通过实验,他们证实小于1000个隐藏维度的模型易在训练后期出现退化表示,影响性能。该发现为改进小模型性能提供了新视角,但需要更多后续研究验证。[[240 characters]]
56 1
|
6月前
|
数据可视化 算法 数据挖掘
结构方程模型SEM、路径分析房价和犯罪率数据、预测智力影响因素可视化2案例(下)
结构方程模型SEM、路径分析房价和犯罪率数据、预测智力影响因素可视化2案例
|
6月前
|
数据可视化 前端开发 索引
结构方程模型SEM、路径分析房价和犯罪率数据、预测智力影响因素可视化2案例(上)
结构方程模型SEM、路径分析房价和犯罪率数据、预测智力影响因素可视化2案例