Python 机器学习算法交易实用指南(三)(3)

简介: Python 机器学习算法交易实用指南(三)

Python 机器学习算法交易实用指南(三)(2)https://developer.aliyun.com/article/1523355

收敛

我们可以随时间和它们的分布可视化样本,以检查结果的质量。下面的图表显示了初始 100 和额外的 100,000 个样本后的后验分布,并说明了收敛意味着多个链识别相同的分布。pm.trace_plot()函数也显示了样本的演变(更多信息请参见笔记本):


后验分布

PyMC3 为采样器生成各种摘要统计信息。这些信息可以作为 stats 模块中的各个函数提供,或者通过将跟踪提供给pm.summary()函数获取:

statsmodels 均值 标准差 hpd_2.5 hpd_97.5 n_eff Rhat
截距 -1.97 -1.97 0.04 -2.04 -1.89 69,492.17 1.00
性别[T.男性] 1.20 1.20 0.04 1.12 1.28 72,374.10 1.00
年龄 1.10 1.10 0.03 1.05 1.15 68,446.73 1.00
I(年龄 ** 2) -0.54 -0.54 0.02 -0.58 -0.50 66,539.66 1.00
小时 0.32 0.32 0.02 0.28 0.35 93,008.86 1.00
教育 0.84 0.84 0.02 0.80 0.87 98,125.26 1.00

前面的表格中在第一列包括了(分别计算的)statsmodelslogit系数,以显示在这个简单案例中,两个模型是一致的,因为样本均值非常接近系数。

剩下的列包含了最高后验密度HPD)的估计,用于最小宽度可信区间,这是置信区间的贝叶斯版本,在这里是以 95% 水平计算的。n_eff统计信息总结了 ~100K 绘制结果的有效(未拒绝)样本数量。

R-hat,也称为 Gelman-Rubin 统计量,通过比较链之间的方差与每个链内的方差来检查收敛性。如果采样器收敛,则这些方差应该相同,即链应该看起来相似。因此,统计量应该接近 1。pm.forest_plot() 函数还为多个链总结了此统计量(有关更多信息,请参见笔记本)。

对于具有许多变量的高维模型,检查大量轨迹变得繁琐。使用 NUTS 时,能量图有助于评估收敛问题。它总结了随机过程如何有效地探索后验分布。图表显示了能量和能量转移矩阵,它们应该是相匹配的,如下面的示例所示(有关概念细节,请参见参考资料):


后验预测检查

后验预测检查PPCs)非常有用,用于检查模型与数据的拟合程度。它们通过使用来自后验分布的参数生成模型数据来实现此目的。我们使用 pm.sample_ppc 函数进行此操作,并为每个观测值获取 n 个样本(GLM 模块自动将结果命名为 'y'):

ppc = pm.sample_ppc(trace_NUTS, samples=500, model=logistic_model)
ppc['y'].shape
(500, 29170)

我们可以使用 auc 分数来评估样本内拟合,例如,比较不同模型:

roc_auc_score(y_score=np.mean(ppc['y'], axis=0), 
              y_true=data.income)
0.8294958565103577

预测

在运行后验预测检查之前,预测使用 Theano 的共享变量将训练数据替换为测试数据。为了方便可视化,我们创建一个带有单个预测器小时的变量,创建训练和测试数据集,并将前者转换为共享变量。请注意,我们需要使用 numPy 数组并提供列标签列表(有关详细信息,请参见笔记本):

X_shared = theano.shared(X_train.values
with pm.Model() as logistic_model_pred:
    pm.glm.GLM(x=X_shared, labels=labels,
               y=y_train, family=pm.glm.families.Binomial())

然后我们像之前一样运行采样器,并在用测试数据替换训练数据后对结果的迹线应用 pm.sample_ppc 函数:

X_shared.set_value(X_test)
ppc = pm.sample_ppc(pred_trace, model=logistic_model_pred,
                    samples=100)

单特征模型的 AUC 分数为 0.65。以下图表显示了每个采样预测器值的实际结果和预测周围的不确定性:


我们现在将说明如何将贝叶斯分析应用于与交易相关的用例。

实际应用

贝叶斯机器学习方法在投资领域有许多应用。概率估计产生的透明度对风险管理和绩效评估自然非常有用。我们将说明如何计算和比较诸如夏普比率之类的指标。GitHub 仓库还包括下面引用的两个笔记本,展示了将贝叶斯 ML 用于建模线性时间序列和随机波动性的用法。

这些笔记本已经改编自 Quantopian 上创建的教程,Thomas Wiecki 领导数据科学,并且在推广贝叶斯方法的使用方面做出了重大贡献。参考资料还包括有关使用贝叶斯 ML 估计配对交易套期保值比率的教程。

贝叶斯夏普比率和表现比较

在本节中,我们将说明如何将夏普比率定义为概率模型,并比较不同收益序列的后验分布。对两组的贝叶斯估计提供了完整的可信值分布,包括效应大小、组均值及其差异、标准差及其差异以及数据的正态性。

主要用例包括分析替代策略之间的差异,或者分析策略的样本内收益与样本外收益之间的差异(详见bayesian_sharpe_ratio笔记本)。贝叶斯夏普比率也是 pyfolio 贝叶斯分析表的一部分。

模型定义

为了将夏普比率建模为概率模型,我们需要关于收益分布和控制此分布的参数的先验。学生 t 分布相对于低自由度df)的正态分布具有较厚的尾部,是捕捉收益这一方面的合理选择。

因此,我们需要对这个分布的三个参数进行建模,即收益的均值和标准差,以及自由度。我们假设均值和标准差分别服从正态和均匀分布,并且自由度服从具有足够低期望值的指数分布,以确保有厚尾。收益基于这些概率输入,并且年化夏普比率是通过标准计算得出的,忽略了无风险利率(使用每日收益):

mean_prior = data.stock.mean()
std_prior = data.stock.std()
std_low = std_prior / 1000
std_high = std_prior * 1000
with pm.Model() as sharpe_model:
    mean = pm.Normal('mean', mu=mean_prior, sd=std_prior)
    std = pm.Uniform('std', lower=std_low, upper=std_high)
    nu = pm.Exponential('nu_minus_two', 1 / 29, testval=4) + 2.
    returns = pm.StudentT('returns', nu=nu, mu=mean, sd=std, observed=data.stock)
    sharpe = returns.distribution.mean / returns.distribution.variance ** .5 * np.sqrt(252)
    pm.Deterministic('sharpe', sharpe)

该笔记本包含有关对单个股票进行采样和评估夏普比率的详细信息。

表现比较

为了比较两个收益序列的表现,我们分别对每个组的夏普比率建模,并将效应大小计算为波动率调整后收益之间的差异。通过可视化轨迹,可以深入了解每个指标的分布情况,如下图所示:


用于配对交易的贝叶斯线性回归

在最后一章中,我们介绍了配对交易作为一种流行的算法交易策略,它依赖于两个或更多资产的协整性。给定这样的资产,我们需要估计对冲比率以决定多头和空头仓位的相对大小。基本方法使用线性回归。

linear_regression笔记本说明了贝叶斯线性回归如何跟踪两个资产之间随时间变化的关系。

贝叶斯时间序列模型

PyMC3 包括允许我们对参数不确定性进行类似洞察的 AR§模型,与先前的模型相同。bayesian_time_series笔记本说明了一个或多个滞后的时间序列模型。

随机波动模型

正如上一章所讨论的,资产价格具有时变波动性。在某些时期,回报变动很大,而在其他时期则非常稳定。随机波动模型使用潜在波动性变量来建模,该变量被建模为随机过程。无 U 转折采样器是使用这种模型引入的,并且stochastic_volatility笔记本展示了这种用法。

总结

在本章中,我们探讨了机器学习的贝叶斯方法。我们发现它们具有几个优点,包括能够编码先验知识或观点、更深入地了解模型估计和预测周围的不确定性,以及适用于在线学习,在这种情况下,每个训练样本逐渐影响模型的预测。

我们学会了从模型规范到估计、诊断和预测应用贝叶斯工作流程,使用 PyMC3 并探索了几个相关应用。我们将在第十四章中遇到更多贝叶斯模型,主题建模,以及在第十九章中介绍无监督深度学习,在那里我们将介绍变分自动编码器。

接下来的两章介绍基于树的、非线性的集成模型,即随机森林和梯度提升机。

第十章:决策树和随机森林

在本章中,我们将学习两种新的机器学习模型类:决策树和随机森林。我们将看到决策树如何从数据中学习规则,这些规则编码了输入和输出变量之间的非线性关系。我们将说明如何训练决策树并用于回归和分类问题的预测,可视化和解释模型学习到的规则,并调整模型的超参数以优化偏差-方差的权衡并防止过拟合。决策树不仅是重要的独立模型,而且经常被用作其他模型的组成部分。

在本章的第二部分,我们将介绍集成模型,这些模型将多个个体模型组合起来,产生一个具有较低预测误差方差的单一聚合预测。我们将说明自助聚合,通常称为 bagging,作为随机化构建个体模型和减少集成组件预测误差相关性的几种方法之一。

提升是一个非常强大的替代方法,值得拥有自己的章节来讨论一系列最近的发展。我们将说明如何有效地降低方差,并学习如何配置、训练和调整随机森林。我们将看到随机森林作为大量决策树的集合,可以大幅减少预测误差,但会以一定的解释损失为代价。

简而言之,在本章中,我们将涵盖以下内容:

  • 如何使用决策树进行回归和分类
  • 如何从决策树中获得见解,并可视化从数据中学到的决策规则
  • 为什么集成模型往往能够产生更优异的结果
  • 自助聚合如何解决决策树的过拟合挑战
  • 如何训练、调整和解释随机森林

决策树

决策树是一种机器学习算法,它根据从训练数据中学到的决策规则来预测目标变量的值。该算法可以通过改变控制树学习决策规则的目标函数来应用于回归和分类问题。

我们将讨论决策树如何使用规则进行预测,如何训练它们以预测(连续)收益以及(分类)价格走势的方向,以及如何有效地解释、可视化和调整它们。

树如何学习和应用决策规则

我们在第七章和第八章中学习的线性模型通过学习一组参数来预测结果,使用输入变量的线性组合,可能在 logistic 回归的情况下通过 S 形链函数进行转换。

决策树采取了不同的方法:它们学习并顺序地应用一组规则,将数据点分割为子集,然后为每个子集进行一次预测。预测基于应用给定规则序列后产生的训练样本子集的结果值。正如我们将在后面更详细地看到的那样,分类树根据相对类频率或直接的多数类值来预测概率,而回归模型根据可用数据点的结果值均值计算预测。

这些规则中的每一个都依赖于一个特定的特征,并使用阈值将样本分为两组,其值要么低于要么高于该特征的阈值。二叉树自然地表示模型的逻辑:根是所有样本的起点,节点表示决策规则的应用,数据沿着边移动,分割成更小的子集,直到到达一个叶节点,模型在这里做出预测。

对于线性模型,参数值允许解释输入变量对输出和模型预测的影响。相比之下,对于决策树,从根到叶子的路径显示了特征及其值如何通过模型导致特定决策的透明度。

以下图突出显示了模型学习规则的过程。在训练期间,算法扫描特征,并且对于每个特征,试图找到一个分割数据的截断,以最小化由分割产生的损失,加权每个子集中的样本数:


要在训练期间构建整个树,学习算法重复这个划分特征空间的过程,即可能值集合为p个输入变量X[1], X[2], …, X[p],划分为互斥且集合完备的区域,每个区域由一个叶节点表示。不幸的是,由于特征和阈值序列的可能组合数量爆炸性增长,算法将无法评估特征空间的每种可能分区。基于树的学习采用自顶向下、贪婪的递归二分拆分方法来克服这种计算限制。

这个过程是递归的,因为它使用了由先前分割产生的数据子集。它是自顶向下的,因为它从树的根节点开始,所有观察结果仍然属于单个区域,然后通过向预测器空间添加一个更多的分割来连续创建树的两个新分支。它是贪婪的,因为算法选择了基于对目标函数的直接影响的最佳规则,而不是展望未来并评估几步之后的损失。我们将在回归和分类树的更具体的上下文中返回到分割逻辑,因为这代表了主要的区别。

随着递归分割向树中添加新节点,训练样本的数量将继续减少。如果规则均匀地分割样本,导致完全平衡的树,每个节点在水平n处将有 2^(n )个节点,每个节点包含总观察数量的相应部分。在实践中,这是不太可能的,因此沿着某些分支的样本数量可能会迅速减少,并且树往往沿着不同路径增长到不同的深度。

为了对新观察结果进行预测,模型使用在训练期间推断出的规则来决定数据点应分配到哪个叶节点,然后使用对应特征空间区域的训练观察结果的均值(用于回归)或众数(用于分类)。特征空间中给定区域的训练样本数较少,即在给定叶节点中,会降低对预测的信心,并可能反映出过度拟合。

递归分割将继续,直到每个叶节点只包含单个样本,并且训练误差已降低到零。我们将介绍几个准则来限制分割并防止决策树产生极端过拟合的自然倾向。

如何在实践中使用决策树

在本节中,我们说明如何使用基于树的模型来获得洞察并进行预测。为了演示回归树,我们预测回报,对于分类情况,我们回到了正面和负面资产价格变动的示例。本节的代码示例在笔记本decision_trees中,除非另有说明。

如何准备数据

我们使用了在 Chapter 4 中构建的数据集的简化版本,Alpha Factor Research。它包含了 Quandl 提供的 2010-2017 年期间的每日股票价格以及各种工程特征。具体详情可以在本章的 GitHub 存储库中的data_prep笔记本中找到。本章中的决策树模型不能处理缺失或分类变量,因此我们将在丢弃任何缺失值后对后者应用虚拟编码。

如何编写自定义交叉验证类

我们还构建了一个针对刚刚创建的数据格式的自定义交叉验证类,该数据具有两个级别的 pandas MultiIndex,一个用于股票代码,另一个用于数据:

class OneStepTimeSeriesSplit:
    """Generates tuples of train_idx, test_idx pairs
    Assumes the index contains a level labeled 'date'"""
    def __init__(self, n_splits=3, test_period_length=1, shuffle=False):
        self.n_splits = n_splits
        self.test_period_length = test_period_length
        self.shuffle = shuffle
        self.test_end = n_splits * test_period_length
    @staticmethod
    def chunks(l, chunk_size):
        for i in range(0, len(l), chunk_size):
            yield l[i:i + chunk_size]
    def split(self, X, y=None, groups=None):
        unique_dates = (X.index
                        .get_level_values('date')
                        .unique()
                        .sort_values(ascending=False)[:self.test_end])
        dates = X.reset_index()[['date']]
        for test_date in self.chunks(unique_dates, self.test_period_length):
            train_idx = dates[dates.date < min(test_date)].index
            test_idx = dates[dates.date.isin(test_date)].index
            if self.shuffle:
                np.random.shuffle(list(train_idx))
            yield train_idx, test_idx

OneStepTimeSeriesSplit 确保了训练和验证集的分割,通过仅使用每只股票的数据直到T-1期进行训练,当使用T月份的数据进行验证时避免了前瞻性偏差。我们将只使用一步预测。

如何构建回归树

回归树基于分配给给定节点的训练样本的平均结果值进行预测,并且通常依赖于均方误差来在递归二分割过程中选择最佳规则。

给定一个训练集,该算法迭代遍历预测变量 X[1], X[2], …, X[p] 和可能的切分点 s[1], s[1], …, s[N],以找到最佳组合。最佳规则将特征空间分成两个区域,{X|X[i] < s[j]}{X|X[i] > s[j]**},其中 X[i] 特征的值要么低于要么高于 s[j] 阈值,以便基于训练子集的预测最大化相对于当前节点的平方残差的减少。

让我们从一个简化的例子开始,以便于可视化,并仅使用两个月的滞后收益来预测以下月份,类似于上一章的 AR(2) 模型:


使用sklearn,配置和训练回归树非常简单:

from sklearn.tree import DecisionTreeRegressor
# configure regression tree
regression_tree = DecisionTreeRegressor(criterion='mse', # default
                                        max_depth=4,     # up to 4 splits
                                        random_state=42)
# Create training data
y = data.returns
X = data.drop('returns', axis=1)
X2 = X.loc[:, ['t-1', 't-2']]
# fit model
regression_tree.fit(X=X2, y=y)
# fit OLS model
ols_model = sm.OLS(endog=y, exog=sm.add_constant(X2)).fit()

OLS 摘要和决策树的前两个层级的可视化揭示了模型之间的显著差异。OLS 模型提供了三个参数用于截距和两个特征,与该模型对 f 函数的线性假设一致。

相反,回归树图显示了前两个层级的每个节点的特征和阈值用于分割数据(请注意,特征可以重复使用),以及当前均方误差MSE)的值、样本数量和基于这些训练样本的预测值:


回归树图

该树图还突出显示了样本在节点之间的不均匀分布,只经过两次分裂后,样本数量在 28,000 到 49,000 之间变化。

为了进一步说明关于输入变量与输出之间功能形式关系的不同假设,我们可以将当前收益的预测可视化为特征空间的函数,即作为滞后收益值范围的函数。下图显示了线性回归和回归树的当前期收益作为一期和两期前收益的函数:


右侧的线性回归模型结果突显了滞后和当前收益之间的线性关系,而左侧的回归树图表说明了特征空间的递归划分中编码的非线性关系。

如何构建分类树

分类树的工作方式与回归版本相同,只是结果的分类性质需要不同的方法来进行预测和测量损失。虽然回归树使用相关训练样本的平均结果来预测分配给叶子节点的观测值的响应,但分类树则使用模式,即相关区域中训练样本中最常见的类别。分类树还可以基于相对类频率生成概率预测。

如何优化节点纯度

在构建分类树时,我们也使用递归二分分裂,但是,我们不是使用减少均方误差来评估决策规则的质量,而是可以使用分类错误率,它简单地是给定(叶子)节点中不属于最常见类别的训练样本的比例。

然而,更倾向于使用替代测量方法,如基尼指数或交叉熵,因为它们对节点纯度的敏感性更高,而不是分类错误率。节点纯度是指节点中单一类别的主导程度。一个只包含属于单一类别结果的样本的节点是纯净的,并且暗示着该特征空间区域的成功分类。对于一个分类结果取K个值,0,1,…,K-1,对于表示特征空间区域的给定节点m,其中p[mk]是节点m中第k类结果的比例,它们的计算如下:



当类别比例接近零或一时,基尼不纯度和交叉熵测量值较小,也就是说,当子节点由于分裂而变得纯净时,它们的值最高,并且在二分类情况下,当类别比例均匀或为 0.5 时,它们的值最高。本节末尾的图表显示了这两个测量值和误分类错误率在比例区间 [0, 1] 内的取值情况。

如何训练分类树

我们现在将使用 80% 的样本进行训练,以预测剩余的 20%,训练、可视化和评估一个具有连续 5 次分割的分类树。我们在这里采取了一种简化说明的快捷方式,并使用内置的 train_test_split,它不会防止前瞻性偏差,作为我们的自定义迭代器。树的配置意味着最多有 2⁵=32 个叶节点,平均情况下在平衡的情况下,将包含超过 4,300 个训练样本。看一下以下代码:

# randomize train-test split
X_train, X_test, y_train, y_test = train_test_split(X, y_binary, test_size=0.2, random_state=42)
# configure & train tree learner
classifier = DecisionTreeClassifier(criterion='gini',
                                    max_depth=5,
                                    random_state=42)
classifier.fit(X=X_train, y=y_train)
# Output:
DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=5,
            max_features=None, max_leaf_nodes=None,
            min_impurity_decrease=0.0, min_impurity_split=None,
            min_samples_leaf=1, min_samples_split=2,
            min_weight_fraction_leaf=0.0, presort=False, random_state=42,
            splitter='best')

在训练模型后,输出显示了我们将在下一节讨论参数调整时更详细讨论的所有 DecisionTreeClassifier 参数。

如何可视化决策树

您可以使用 graphviz 库来可视化树(请参阅 GitHub 获取安装说明),因为 sklearn 可以输出描述树的 .dot 语言,该语言由该库使用。您可以配置输出以包括特征和类别标签,并限制级别数量以使图表可读,如下所示:

dot_data = export_graphviz(classifier,
                           out_file=None, # opt. save to file and convert to png
                           feature_names=X.columns,
                           class_names=['Down', 'Up'],
                           max_depth=3,
                           filled=True,
                           rounded=True,
                           special_characters=True)
graphviz.Source(dot_data)

结果显示,模型使用了各种不同的特征,并指示了连续和分类(虚拟)变量的分割规则。图表显示,在标签值下,每个类别的样本数量,以及在标签类别下,最常见的类别(在样本期间,上升的月份更多):


如何评估决策树预测结果

为了评估我们的第一个分类树的预测准确性,我们将使用测试集生成预测的类别概率,如下所示:

y_score = classifier.predict_proba(X=X_test)[:, 1] # only keep probabilities for pos. class

.predict_proba() 方法为每个类别生成一个概率。在二分类中,这些概率是互补的,并且总和为 1,因此我们只需要正类的值。为了评估泛化误差,我们将使用基于我们在第六章介绍的接收器操作特性的曲线下面积。结果表明,与基线值 0.5(随机预测)相比,存在显著的改进:

roc_auc_score(y_score=y_score, y_true=y_test)
0.5941

特征重要性

决策树不仅可以被可视化以检查给定特征的决策路径,还可以提供每个特征对拟合到训练数据的模型的贡献的摘要度量。

特征重要性捕获了特征产生的分裂有助于优化模型用于评估分裂质量的度量标准,我们的情况下是基尼不纯度指数。特征的重要性计算为该度量的(归一化)总减少量,并考虑到受分裂影响的样本数量。因此,在树的较早节点使用的特征,其中节点倾向于包含更多样本,通常被认为具有更高的重要性。

下图显示了前 15 个特征的重要性:


过拟合和正则化

决策树有过拟合的倾向,特别是当数据集相对于样本数量具有大量特征时。正如前几章所讨论的,过拟合会增加预测误差,因为模型不仅学习了训练数据中包含的信号,还学习了噪声。

有几种方法可以解决过拟合的风险:

  • 降维(第十二章,无监督学习)通过用更少、更具信息性和更少噪声的特征代表现有特征来改善特征与样本的比例。
  • 集成模型,例如随机森林,结合了多个树,同时在树构建过程中进行随机化,这将在本章的第二部分中介绍。
  • 决策树提供了几个正则化超参数来限制树的增长和相关的复杂性。每个分裂增加节点数,但也减少了每个节点可用于支持预测的样本数量。对于每个额外级别,需要两倍的样本来填充具有相同样本密度的新节点。
  • 树修剪是减少树复杂性的附加工具,通过消除添加了很少价值但增加了模型方差的节点或整个树的部分来实现。例如,成本复杂度剪枝从一个大树开始,通过用叶子替换节点来递归地减小其大小,基本上是将树构建过程反向运行。各个步骤产生的树序列然后可以使用交叉验证进行比较,以选择理想大小。

如何正则化决策树

以下表格列出了 sklearn 决策树实现中可用于此目的的关键参数。在介绍了最重要的参数之后,我们将说明如何使用交叉验证来优化超参数设置,以达到偏差-方差的折衷和降低预测误差:

参数 选项 描述
**max_depth** None int

| **max_features** | None | None:所有特征;int float:分数

auto, sqrt: sqrt(n_features)

log2: log2(n_features) | 用于分割的特征数量。 |

**max_leaf_nodes** None None:叶节点数量无限制 int 分割节点直到创建这么多个叶子。
**min_impurity_decrease** 0 float 如果不纯度减少至少这个值,则分割节点。
**min_samples_leaf** 1 int;float (as a percentage of N) 必须在叶节点处的最小样本数。仅当每个左右分支中至少有 min_samples_leaf 训练样本时才考虑分割。对于回归问题,可能会平滑模型。
**min_samples_split** 2 int; float (percent of N) 分割内部节点所需的最小样本数:
**min_weight_fraction_leaf** 0 叶节点所需的所有样本权重总和的最小加权分数。除非在 fit 方法中提供了 sample_weight,否则样本权重相等。

max_depth 参数对连续分割数量施加硬性限制,并且代表了限制树生长的最直接方法。

min_samples_splitmin_samples_leaf 参数是限制树生长的替代、数据驱动的方法。与对连续分割数量施加硬性限制不同,这些参数控制进一步分割数据所需的最小样本数。后者保证每个叶子节点有一定数量的样本,而前者在分割导致分布非常不均匀时可能会创建非常小的叶子。小的参数值有助于过度拟合,而高的值可能会阻止树学习数据中的信号。默认值通常相当低,您应该使用交叉验证来探索一系列潜在值。您还可以使用浮点数表示百分比,而不是绝对数值。

sklearn 文档包含有关如何在不同情况下使用各种参数的额外细节;请参阅 GitHub 引用。

决策树剪枝

递归二分法在训练集上可能会产生良好的预测,但往往会过度拟合数据并产生较差的泛化性能,因为它导致了过于复杂的树,表现为大量的叶节点或特征空间的分割。较少的分割和叶节点意味着总体上更小的树,通常也会导致更好的预测性能以及可解释性。

限制叶节点数量的一种方法是避免进一步分割,除非它们对目标度量的改进显著。然而,这种策略的缺点是,有时产生微小改进的分割会在样本的组成不断变化时为后续更有价值的分割创造条件。

相比之下,树剪枝首先通过生长一个非常大的树,然后移除或修剪节点以将大树减少到一个不太复杂且过度拟合的子树。成本复杂度剪枝通过对添加叶节点到树模型的惩罚和调节影响惩罚的正则化参数(类似于套索和岭线性回归模型)生成一系列子树。应用于大树,增加的惩罚将自动产生一系列子树。通过正则化参数的交叉验证可以用来识别最优的修剪子树。

这种方法在 sklearn 中尚不可用;有关进一步详细信息和手动实现剪枝的方法,请参见 GitHub 上的参考资料。

如何调整超参数

决策树提供了一系列超参数来控制和调整训练结果。交叉验证是获取泛化误差无偏估计的最重要工具,这反过来又允许在各种配置选项之间做出知情选择。sklearn 提供了几个工具来简化交叉验证众多参数设置的过程,即我们将在下一节中介绍的GridSearchCV便利类。学习曲线还允许进行诊断,评估收集额外数据以减少泛化误差的潜在益处。

决策树的网格搜索 CV

sklearn提供了一种方法来定义多个超参数的值范围。它自动化了交叉验证这些参数值的各种组合以确定最佳配置的过程。让我们走一遍自动调整模型的过程。

第一步是实例化一个模型对象,并定义一个字典,其中关键词命名超参数,值列出要测试的参数设置:

clf = DecisionTreeClassifier(random_state=42)
param_grid = {'max_depth': range(10, 20),
              'min_samples_leaf': [250, 500, 750],
              'max_features': ['sqrt', 'auto']
              }

然后,实例化GridSearchCV对象,提供评估器对象和参数网格,以及评分方法和交叉验证选择给初始化方法。我们将使用我们自定义的OneStepTimeSeriesSplit类的对象,初始化为使用十个折叠的cv参数,并将评分设置为roc_auc度量。我们可以使用n_jobs参数并行搜索,并通过设置refit=True自动获得使用最佳超参数的训练模型。

所有设置就绪后,我们可以像任何其他模型一样拟合GridSearchCV

gridsearch_clf = GridSearchCV(estimator=clf,
                          param_grid=param_grid,
                          scoring='roc_auc',
                          n_jobs=-1,
                          cv=cv,  # custom OneStepTimeSeriesSplit
                          refit=True,
                          return_train_score=True)
gridsearch_clf.fit(X=X, y=y_binary)

训练过程为我们的GridSearchCV对象生成一些新属性,最重要的是关于最佳设置和最佳交叉验证分数的信息(现在使用正确的设置以避免前瞻性偏差)。

max_depth设置为13min_samples_leaf设置为500,并且在决定分裂时仅随机选择与总特征数的平方根相对应的数量,可以产生最佳结果,AUC 为0.5855

gridsearch_clf.best_params_
{'max_depth': 13, 'max_features': 'sqrt', 'min_samples_leaf': 500}
gridsearch_clf.best_score_
0.5855

自动化非常方便,但我们也想检查性能如何随不同参数值的变化而变化。完成此过程后,GridSearchCV对象会提供详细的交叉验证结果,以获得更多见解。

如何检查树结构

笔记本还说明了如何手动运行交叉验证以获得自定义树属性,例如与某些超参数设置相关联的总节点数或叶节点数。以下函数访问内部的.tree_属性,以检索有关总节点数以及其中多少节点是叶节点的信息:

def get_leaves_count(tree):
    t = tree.tree_
    n = t.node_count
    leaves = len([i for i in range(t.node_count) if t.children_left[i]== -1])
    return leaves

我们可以将这些信息与训练和测试分数结合起来,以获得有关模型在整个交叉验证过程中行为的详细知识,如下所示:

train_scores, val_scores, leaves = {}, {}, {}
for max_depth in range(1, 26):
    print(max_depth, end=' ', flush=True)
    clf = DecisionTreeClassifier(criterion='gini', 
                                 max_depth=max_depth,
                                 min_samples_leaf=500,
                                 max_features='auto',
                                 random_state=42)
    train_scores[max_depth], val_scores[max_depth], leaves[max_depth] = [], [], []
    for train_idx, test_idx in cv.split(X):
        X_train, y_train,  = X.iloc[train_idx], y_binary.iloc[train_idx]
        X_test, y_test = X.iloc[test_idx], y_binary.iloc[test_idx]
        clf.fit(X=X_train, y=y_train)
        train_pred = clf.predict_proba(X=X_train)[:, 1]
        train_score = roc_auc_score(y_score=train_pred, y_true=y_train)
        train_scores[max_depth].append(train_score)
        test_pred = clf.predict_proba(X=X_test)[:, 1]
        val_score = roc_auc_score(y_score=test_pred, y_true=y_test)
        val_scores[max_depth].append(val_score)    
        leaves[max_depth].append(get_leaves_count(clf))

结果显示在以下图表的左侧面板上。它突出显示了在max_depth设置范围内的样本内外性能,以及围绕误差指标的置信区间。它还显示了在 13 次连续分割中最佳表现的设置,如垂直黑线所示。

学习曲线

学习曲线是一种有用的工具,显示验证和训练分数随训练样本数量的变化而演变。

学习曲线的目的是找出模型是否以及在多大程度上会因为在训练过程中使用更多数据而受益。它还有助于诊断模型的泛化误差更可能是由偏差还是方差驱动。

例如,如果验证分数和训练分数都趋于类似低的值,尽管训练集大小增加,但错误更可能是由于偏差,而额外的训练数据不太可能有所帮助。

请看以下可视化结果:


决策树的优势和劣势

当与迄今为止我们所探索的线性模型相比,回归和分类树在预测时采用非常不同的方法。您如何确定哪个模型更适合手头的问题?请考虑以下内容:

  • 如果结果和特征之间的关系大致是线性的(或者可以相应地进行转换),那么线性回归可能会优于更复杂的方法,例如不利用这种线性结构的决策树。
  • 如果关系呈现高度非线性和更复杂,决策树可能会优于经典模型。

决策树具有几个优点,使其非常受欢迎:

  • 它们相当容易理解和解释,部分因为它们可以很容易地可视化,因此更容易让非技术人员理解。决策树也被称为白盒模型,因为它们在如何得出预测方面具有很高的透明度。黑盒模型,如集成和神经网络,可能会提供更好的预测精度,但是决策逻辑往往更难理解和解释。
  • 与对数据做出更强假设或对数据更敏感的模型(如正则化回归)相比,决策树需要更少的数据准备。
  • 一些决策树实现处理分类输入,不需要创建虚拟变量(提高内存效率),并且可以处理缺失值,就像我们将在第十一章中看到的梯度提升机,但这并不适用于 sklearn。
  • 预测速度快,因为它与叶子节点的数量呈对数关系(除非树变得极不平衡)。
  • 可以使用统计测试验证模型并考虑其可靠性(请参阅 GitHub 参考资料)。

决策树也有一些关键的缺点:

  • 决策树内置了对训练集的过度拟合倾向,并产生高泛化误差。解决这个弱点的关键步骤包括修剪(尚未由 sklearn 支持),以及使用前一节中概述的各种早停准则进行正则化。
  • 与决策树相关的是其高方差,这是由于它们能够紧密地适应训练集,因此数据的微小变化可能会导致决策树结构和因此模型生成的预测产生很大波动。解决决策树高方差的关键机制是使用具有低偏差且产生不相关预测误差的随机决策树集成。
  • 决策树学习的贪婪方法基于局部标准进行优化,即减少当前节点的预测误差,并且不能保证全局最优结果。再次,由随机树组成的集成有助于减轻这个问题。
  • 决策树对不平衡的类权重也很敏感,并可能产生偏倚的树。一种选择是对不平衡的类进行过采样或对更频繁的类进行欠采样。通常最好使用类权重并直接调整目标函数。

Python 机器学习算法交易实用指南(三)(4)https://developer.aliyun.com/article/1523357

相关文章
|
10天前
|
机器学习/深度学习 算法 数据挖掘
8个常见的机器学习算法的计算复杂度总结
8个常见的机器学习算法的计算复杂度总结
8个常见的机器学习算法的计算复杂度总结
|
2天前
|
机器学习/深度学习 数据采集 算法
数据挖掘和机器学习算法
数据挖掘和机器学习算法
|
5天前
|
机器学习/深度学习 数据采集 存储
一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析
蒙特卡洛方法起源于1945年科学家斯坦尼斯劳·乌拉姆对纸牌游戏中概率问题的思考,与约翰·冯·诺依曼共同奠定了该方法的理论基础。该方法通过模拟大量随机场景来近似复杂问题的解,因命名灵感源自蒙特卡洛赌场。如今,蒙特卡洛方法广泛应用于机器学习领域,尤其在超参数调优、贝叶斯滤波等方面表现出色。通过随机采样超参数空间,蒙特卡洛方法能够高效地找到优质组合,适用于处理高维度、非线性问题。本文通过实例展示了蒙特卡洛方法在估算圆周率π和优化机器学习模型中的应用,并对比了其与网格搜索方法的性能。
64 1
|
9天前
|
算法 定位技术 vr&ar
一文了解PnP算法,python opencv中的cv2.solvePnP()的使用,以及使用cv2.sovlePnP()方法标定相机和2D激光雷达
一文了解PnP算法,python opencv中的cv2.solvePnP()的使用,以及使用cv2.sovlePnP()方法标定相机和2D激光雷达
55 0
一文了解PnP算法,python opencv中的cv2.solvePnP()的使用,以及使用cv2.sovlePnP()方法标定相机和2D激光雷达
|
10天前
|
机器学习/深度学习 算法 数据挖掘
机器学习必知必会10大算法
机器学习必知必会10大算法
|
11天前
|
机器学习/深度学习 算法 数据挖掘
【白话机器学习】算法理论+实战之决策树
【白话机器学习】算法理论+实战之决策树
|
2天前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能股票交易策略
使用Python实现智能股票交易策略
9 0
|
9天前
|
机器学习/深度学习 存储 算法
图解最常用的 10 个机器学习算法!
图解最常用的 10 个机器学习算法!
|
10天前
|
人工智能 算法 数据可视化
DBSCAN密度聚类算法(理论+图解+python代码)
DBSCAN密度聚类算法(理论+图解+python代码)
|
1月前
|
机器学习/深度学习 存储 人工智能
【数据挖掘】2022年2023届秋招知能科技公司机器学习算法工程师 笔试题
本文是关于2022-2023年知能科技公司机器学习算法工程师岗位的秋招笔试题,包括简答题和编程题,简答题涉及神经网络防止过拟合的方法、ReLU激活函数的使用原因以及条件概率计算,编程题包括路径行走时间计算和两车相向而行相遇时间问题。
57 2
【数据挖掘】2022年2023届秋招知能科技公司机器学习算法工程师 笔试题
下一篇
DDNS