Python 机器学习算法交易实用指南(三)(2)

简介: Python 机器学习算法交易实用指南(三)

Python 机器学习算法交易实用指南(三)(1)https://developer.aliyun.com/article/1523351

如何构建波动率预测模型

为资产收益序列开发波动率模型包括四个步骤:

  1. 基于 ACF 和 PACF 显示的序列依赖性构建金融时间序列的 ARMA 时间序列模型。
  2. 再次依靠残差序列的 ACF 和 PACF 检查模型的残差是否具有 ARCH/GARCH 效应。
  3. 如果序列相关效应显著,则指定一个波动率模型,并联合估计均值和波动率方程。
  4. 仔细检查拟合的模型,如有必要,进行精细调整。

当将波动率预测应用于回报序列时,序列依赖性可能有限,因此可以使用恒定均值代替 ARMA 模型。

arch 库提供了几个选项来估计波动率预测模型。它提供了几个选项来建模预期均值,包括一个常数均值,上面关于单变量时间序列模型的 AR§ 模型以及更近期的异质自回归过程(HAR),它使用每日(1 天)、每周(5 天)和每月(22 天)的滞后来捕捉短期、中期和长期投资者的交易频率。

可以与几个条件异方差模型一起定义和估计均值模型,除了 ARCH 和 GARCH 外,还包括允许正负收益之间的非对称效应的指数 GARCHEGARCH)模型,以及异质 ARCHHARCH)模型,它补充了 HAR 均值模型。

我们将使用 1998 年至 2017 年的每日纳斯达克收益来演示 GARCH 模型的使用情况(有关详细信息,请参阅笔记本 arch_garch_models):

nasdaq = web.DataReader('NASDAQCOM', 'fred', '1998', '2017-12-31').squeeze()
nasdaq_returns = np.log(nasdaq).diff().dropna().mul(100) # rescale to facilitate optimization

重新缩放的日收益率系列仅具有有限的自相关性,但与均值的平方偏差具有显着的记忆,反映在缓慢衰减的 ACF 和 PACF 上,前两者的值很高,并且仅在前六个滞后之后才截断:

plot_correlogram(nasdaq_returns.sub(nasdaq_returns.mean()).pow(2), lags=120, title='NASDAQ Daily Volatility')

函数plot_correlogram生成了以下输出:


因此,我们可以估计一个 GARCH 模型来捕捉过去波动率的线性关系。我们将使用滚动 10 年窗口来估计一个 GARCH(p, q)模型,其中 p 和 q 的范围为 1-4,以生成 1 步的外样本预测。然后,我们将比较预测波动性的 RMSE 与实际收益偏离其均值的平方之间的 RMSE,以确定最具预测性的模型。我们使用修剪数据来限制极端收益值的影响,这些值反映在波动性的非常高的正偏度中:

trainsize = 10 * 252  # 10 years
data = nasdaq_returns.clip(lower=nasdaq_returns.quantile(.05),
                           upper=nasdaq_returns.quantile(.95))
T = len(nasdaq_returns)
test_results = {}
for p in range(1, 5):
    for q in range(1, 5):
        print(f'{p} | {q}')
        result = []
        for s, t in enumerate(range(trainsize, T-1)):
            train_set = data.iloc[s: t]
            test_set = data.iloc[t+1]  # 1-step ahead forecast
            model = arch_model(y=train_set, p=p, q=q).fit(disp='off')
            forecast = model.forecast(horizon=1)
            mu = forecast.mean.iloc[-1, 0]
            var = forecast.variance.iloc[-1, 0]
            result.append([(test_set-mu)**2, var])
        df = pd.DataFrame(result, columns=['y_true', 'y_pred'])
        test_results[(p, q)] = np.sqrt(mean_squared_error(df.y_true, df.y_pred))

GARCH(2, 2)模型实现了最低的 RMSE(与 GARCH(4, 2)的值相同,但参数较少),因此我们继续估计此模型以检查摘要:

am = ConstantMean(nasdaq_returns.clip(lower=nasdaq_returns.quantile(.05),
                                      upper=nasdaq_returns.quantile(.95)))
am.volatility = GARCH(2, 0, 2)
am.distribution = Normal()
model = am.fit(update_freq=5)
print(model.summary())

输出显示了最大化的对数似然以及通常在选择基于样本内表现的模型时要最小化的 AIC 和 BIC 准则(见第七章,线性模型)。它还显示了均值模型的结果,本例中只是一个常数估计,以及常数 omega 的 GARCH 参数、AR 参数α和 MA 参数β,所有这些参数都具有统计学意义:


现在让我们探讨多个时间序列模型和协整概念,这将实现新的交易策略。

多元时间序列模型

多元时间序列模型旨在同时捕捉多个时间序列的动态,并利用这些序列之间的依赖关系进行更可靠的预测。

方程组

像我们刚刚讨论的 ARMA 方法这样的单变量时间序列模型仅限于目标变量与其滞后值或滞后扰动以及在 ARMAX 情况下的外生序列之间的统计关系。相比之下,多元时间序列模型还允许其他时间序列的滞后值影响目标。这种效应适用于所有系列,导致复杂的相互作用,如下图所示:


除了可能更好的预测之外,多变量时间序列还用于获得跨系列依赖关系的洞察。例如,在经济学中,多变量时间序列用于了解对某一变量的政策变化,例如利率,可能在不同的视角下如何影响其他变量。我们将要看的多变量模型产生的冲击-响应函数就是为此目的而服务的,并且允许我们模拟一个变量如何对其他变量的突然变化做出响应。格兰杰因果分析的概念分析了一个变量是否对另一个变量的预测有用(在最小二乘意义上)。此外,多变量时间序列模型允许对预测误差方差进行分解,以分析其他系列的贡献。

向量自回归 (VAR) 模型

我们将看到向量自回归 VAR§ 模型如何通过创建包含所有 k 系列的 p 拖后值的 k 方程系统来扩展 AR§ 模型。在最简单的情况下,k=2 的 VAR(1) 模型如下所示:


这个模型可以用矩阵形式更加简洁地表示:


自身滞后的系数提供了有关系列动态的信息,而交叉变量系数则提供了有关系列间交互的一些见解。此符号扩展到 k 系列和阶数 p,如下所示:


VAR§ 模型还需要平稳性,以便从单变量时间序列建模的初始步骤延续下来。首先,探索系列并确定必要的转换,然后应用增广迪基-富勒检验来验证每个系列是否满足平稳性标准,并在否则应用进一步的转换。它可以通过有条件的 OLS 进行估计,初始信息或最大似然,对于正态分布的误差是等效的,但对于其他情况不是。

如果一些或所有的 k 系列是单位根非平稳的,则它们可能是协整的。将单位根概念扩展到多个时间序列意味着两个或多个系列的线性组合是平稳的,因此是均值回归的。VAR 模型没有能力处理这种情况而不进行差分,而应使用向量误差校正模型 (VECM,请参阅 GitHub 上的参考资料)。我们将进一步探讨协整性,因为如果存在并且被假定为持续存在,它可以用于配对交易策略。

滞后阶数的确定也从每个系列的 ACF 和 PACF 中获得线索,但受到同一滞后阶数适用于所有系列的约束。在模型估计之后,残差诊断也要求产生类似白噪声的结果,并且模型选择可以使用样本内信息准则或更好地使用样本外预测性能来交叉验证备选模型设计,如果最终目标是使用模型进行预测。

如在单变量情况中提到的那样,对原始时间序列的预测要求我们在训练模型之前撤消应用于使系列稳态的转换。

如何使用 VAR 模型进行宏观基本面预测

我们将扩展单变量示例,将一系列工业生产的月度数据和美联储数据服务提供的一系列消费者情绪的月度时间序列加入,我们将使用熟悉的pandas-datareader库从 1970 年到 2017 年检索数据:

df = web.DataReader(['UMCSENT', 'IPGMFN'], 'fred', '1970', '2017-12').dropna()
df.columns = ['sentiment', 'ip']

对工业生产系列进行对数转换,并使用这两个系列的滞后 12 个月进行季节性差分产生稳态结果:

df_transformed = pd.DataFrame({'ip': np.log(df.ip).diff(12),
                              'sentiment': df.sentiment.diff(12)}).dropna()
test_unit_root(df_transformed) # see notebook for details and additional plots
          p-value
ip          0.0003
sentiment   0.0000

这使我们得到以下系列:


为了限制输出大小,我们将仅使用前 480 个观测值使用statsmodelsVARMAX实现(允许使用可选的外生变量)来估计一个 VAR(1)模型,使用恒定的趋势:

model = VARMAX(df_transformed.iloc[:480], order=(1,1), trend='c').fit(maxiter=1000)

这导致以下摘要:


输出包含两个时间序列方程的系数,如前述的 VAR(1)示例所述。statsmodels 提供了诊断图来检查残差是否满足白噪声假设,在这种简单情况下并不完全符合:


外样本预测可按以下方式生成:

preds = model.predict(start=480, end=len(df_transformed)-1)

实际值和预测值的可视化显示了预测滞后于实际值,并且无法很好地捕捉非线性的外样本模式:


共整合 - 具有共同趋势的时间序列

综合多变量系列的概念因该过程的所有组成系列可能是单独集成的,但该过程在一个或多个线性组合产生新的稳态系列的意义上并非联合集成而复杂化。

换句话说,两个共整合系列的组合具有一个稳定的均值,这个线性组合会恢复到该均值。具有这种特性的多变量系列被称为共整合。当个别系列积分的次序较高且线性组合减少了积分的总次序时,这也适用。

协整与相关性不同:两个系列可能高度相关,但不一定是协整的。例如,如果两个增长系列是彼此的恒定倍数,它们的相关性将很高,但任何线性组合也将增长而不是回归到均值。

仍然可以将 VAR 分析应用于使用 VAR 模型的误差校正形式的集成过程,该模型使用各个系列的一阶差异加上水平的误差校正项。

测试协整

测试协整有两种主要方法:

  • Engle-Granger 两步法
  • Johansen 程序

Engle-Granger 方法涉及将一个系列回归到另一个系列,然后对回归残差应用 ADF 单位根检验。如果能拒绝原假设,假设残差是平稳的,那么这些系列就是协整的。这种方法的一个关键优势是,回归系数表示使组合平稳的乘数,即均值回归。当利用协整进行配对交易策略时,我们将回到这个方面。另一方面,这种方法仅限于识别成对系列的协整,而不是更大范围的系列组合。

相比之下,Johansen 程序测试了前一节讨论的矢量自回归(VAR)模型受协整约束的限制。更具体地说,从通用 VAR§ 前述方程两边减去目标向量后,我们得到误差校正模型(ECM)公式


结果修改后的 VAR§ 方程只有一个向量项在水平上,即不使用算子 Δ 表示差异。协整的性质取决于系数矩阵 Π 的特性,特别是其秩。虽然这个方程在结构上与 ADF 测试设置相似,但现在存在多个共同趋势和积分阶数的潜在星座,因为涉及到多个系列。有关详细信息,请参阅 GitHub 上列出的参考文献,包括关于个别系列尺度化的实际挑战。

如何利用协整进行配对交易策略

配对交易依赖于两个资产价格之间的稳定、均值回归关系。换句话说,两个价格之间的比率或差异,也称为价差,随时间可能会发散,但最终应返回到相同水平。鉴于这样的一对,该策略包括做多(即购买)表现不佳的资产,因为它需要一段时间的表现优异来填补差距。同时,应做空价格向正方向移动而远离价格锚点的资产,以筹集购买资产的资金。

协整正是由一个共同均值锚定的两个价格系列之间的这种稳定关系。假设协整持续存在,最终必须发生收敛,无论是表现不佳的股票上涨还是表现良好的股票下跌。该策略无论如何都将是有利可图的,这具有对一般市场动态进行对冲的额外优势。

然而,价差将不断变化,有时扩大,有时缩小,或者保持不变,因为两种资产同时移动。配对交易的挑战在于通过调整相对持仓来维持对冲头寸,因为价差变化。

在实践中,鉴于一组资产,配对交易策略将通过对每对运行统计测试来寻找协整对。这里的关键挑战是考虑到多重测试偏差,如第六章,机器学习工作流中概述的那样。statsmodels库实现了 Engle-Granger 协整测试和 Johansen 测试。

为了估算价差,运行线性回归以获得两个集成资产价格系列的线性组合的系数,以产生一个平稳的组合系列。如前所述,使用线性回归来估算系数被称为协整的 Engle-Granger 检验。

总结

在本章中,我们探讨了用于单个系列的单变量情况的线性时间序列模型以及用于几个交互系列的多变量模型。我们遇到了预测宏观基本面的应用,用于风险管理的预测资产或组合波动性的模型以及捕获多个宏观系列动态的多元 VAR 模型,以及协整的概念,这是支撑流行的配对交易策略的基础。

类似于前一章,我们看到线性模型为模型增加了许多结构,即它们做出了强有力的假设,这些假设可能需要转换和广泛测试来验证这些假设是否成立。如果是这样,模型的训练和解释就是直接的,而且模型提供了一个很好的基准案例,更复杂的模型可能会改进,我们将在接下来的章节中看到。

第九章:贝叶斯机器学习

在本章中,我们将介绍贝叶斯方法在机器学习中的应用,以及它们对开发和评估算法交易策略时的不同不确定性视角的增值。

贝叶斯统计学使我们能够量化对未来事件的不确定性,并以原则性的方式在新信息到来时优化我们的估计。这种动态方法很好地适应了金融市场的发展性质。当存在较少相关数据且我们需要系统地整合先验知识或假设时,它特别有用。

我们将看到,贝叶斯方法使得对统计指标、参数估计和预测周围的不确定性有更丰富的见解。应用范围从更精细的风险管理到动态更新的预测模型,其中包含了市场环境的变化。资产配置的黑-利特曼方法(见第五章,《策略评估》)可以解释为贝叶斯模型。它计算预期收益,作为市场均衡和投资者观点的加权平均值,每个资产的波动性,跨资产的相关性以及对每个预测的信心。

具体来说,在本章中,我们将涵盖以下主题:

  • 贝叶斯统计如何应用于机器学习
  • 如何使用 PyMC3 进行概率编程
  • 如何定义和训练机器学习模型
  • 如何运行最先进的抽样方法进行近似推断
  • 如何应用贝叶斯机器学习来计算动态夏普比率,构建贝叶斯分类器和估计随机波动性

本章的参考文献、附加材料链接和代码示例位于 GitHub 存储库相应目录中。请按照第一章提供的安装说明进行操作,《交易的机器学习》。

贝叶斯机器学习的工作原理

经典统计学也被称为频率派,因为它将概率解释为长期内事件的相对频率,即在观察了大量试验之后。在概率的背景下,一个事件是一个实验的一个或多个基本结果的组合,比如两个骰子掷出六个相等的结果中的任何一个,或者某个资产价格在某一天下跌 10%或更多。

贝叶斯统计学相反,将概率视为事件发生的信心或信念的度量。贝叶斯概率的观点为主观观点留下了更多的空间,因此,与频率派解释相比,意见之间的差异更大。这种差异在很少发生的事件中最为显著,以至于无法得出客观的长期频率度量。

换句话说,频率学派统计假设数据是来自人群的随机样本,并旨在识别生成数据的固定参数。相反,贝叶斯统计将数据视为已知的,并认为参数是随机变量,其分布可以从数据中推断出来。因此,频率学派方法要求的数据点至少与要估计的参数一样多。另一方面,贝叶斯方法与较小的数据集兼容,并且非常适合逐个样本进行在线学习。

贝叶斯观点对于许多在某些重要方面罕见或独特的现实事件非常有用。例如,下次选举的结果或市场是否会在三个月内崩溃的问题。在每种情况下,既有相关的历史数据,又有随着事件临近而展开的独特情况。

首先,我们将介绍贝叶斯定理,该定理通过将先验假设与新的经验证据相结合,并将得到的参数估计与频率学派的对应估计进行比较,以晶化通过更新信念来更新概念的过程。然后,我们将演示两种贝叶斯统计推断的方法,这些方法能够揭示潜在参数的后验分布,即未观察到的参数,在不同情况下的预期值等:

  1. 共轭先验通过提供闭合形式的解决方案来促进更新过程,但确切的分析方法并不总是可用。
  2. 近似推断模拟了由假设和数据组合而成的分布,并使用该分布的样本来计算统计洞察。

如何从经验证据更新假设

牧师托马斯·贝叶斯在 250 多年前提出的定理利用基本的概率理论规定了概率或信念在相关新信息到达时应该如何变化。以下约翰·梅纳德·凯恩斯的引述体现了贝叶斯主义的思维方式:

“当事实发生变化时,我改变我的想法。先生,你会怎么做?”

它依赖于条件概率和全概率以及链式法则;有关这些概念的评论,请参阅 GitHub 上的参考资料。

信念涉及单个或一组参数 θ(也称为假设)。每个参数可以是离散的或连续的。θ 可以是一个一维统计量,比如(离散的)分类变量的模式,或者(连续的)均值,也可以是一个更高维度的值集,比如一个协方差矩阵或深度神经网络的权重。

频率学派统计的一个关键区别在于,贝叶斯假设被表达为概率分布,而不是参数值。因此,虽然频率学派的推断关注点估计,贝叶斯推断则产生概率分布。

贝叶斯定理通过计算从以下输入中得到的后验概率分布来更新对感兴趣参数的信念,如下图所示:

  • 先验分布指示我们考虑每个可能的假设的可能性有多大。
  • 似然函数输出在给定θ参数的某些值的情况下观察到数据集的概率。
  • 证据度量观察到的数据在所有可能的假设下的可能性。因此,它对所有参数值都是相同的,用于将分子标准化:


贝叶斯定理

后验是先验和似然的乘积,除以证据,反映了假设的更新概率分布,同时考虑了先前的假设和数据。从不同的角度看,先验和似然的乘积来自于将数据和参数的联合分布因子分解的链规则的应用。

对于高维、连续变量,制定变得更加复杂,涉及到(多个)积分。一种替代的制定方法使用赔率来表示后验赔率,作为先验赔率乘以似然比的乘积(有关更多细节,请参见参考资料)。

精确推理:最大后验估计

将贝叶斯规则的实际应用于准确计算后验概率的情况非常有限,因为计算分母中的证据项非常具有挑战性。证据反映了在所有可能的参数值上观察到的数据的概率。它也被称为边际似然,因为它需要通过添加或积分参数的分布来对参数的分布进行边际化。这通常只在具有少量假设值的少量离散参数的简单情况下才可能。

**最大后验概率(MAP)**估计利用了证据是一个常数因子,将后验缩放以满足概率分布的要求。由于证据不依赖于θ,后验分布与似然和先验的乘积成比例。因此,MAP 估计选择使后验最大化的θ的值,考虑到观察到的数据和先验信念,即后验的模态。

MAP 方法与最大似然估计MLE)不同,MLE 定义了概率分布。MLE 选择使观察到的训练数据的似然函数最大化的参数值θ。

从定义的角度看,MAP 与 MLE 的不同之处在于包括了先验分布。换句话说,除非先验是一个常数,否则 MAP 估计θ将与其 MLE 对应物不同:



最大似然估计解往往反映了频率主义的概率估计应该反映观察到的比例的概念。另一方面,先验对 MAP 估计的影响通常相当于将反映先验假设的数据添加到 MLE 中。例如,一个强烈的先验,即硬币有偏的先验可以通过添加偏斜的试验数据来融入 MLE 背景。

先验分布是贝叶斯模型的重要组成部分。我们现在将介绍一些方便的选择,以便进行分析推断。

如何选择先验

先验应反映参数分布的知识,因为它影响 MAP 估计。如果先验不确定,我们需要进行选择,通常从几个合理的选项中选择。一般来说,证明先验的合理性并通过测试替代是否得出相同结论是一个好的做法。

有几种类型的先验:

  • 客观先验最大化数据对后验的影响。如果参数分布未知,我们可以选择一个无信息的先验,比如在参数值的相关范围内称为平坦先验的均匀分布。
  • 相反,主观先验旨在将模型外部的信息纳入估计中。
  • 经验性先验结合了贝叶斯和频率主义方法,利用历史数据消除主观性,例如通过估计各种时刻以适应标准分布。

在机器学习模型的背景下,先验可以被视为一种正则化器,因为它限制了后验可以假设的值。例如,具有零先验概率的参数不是后验分布的一部分。一般来说,更多的好数据可以得出更强的结论并减少先验的影响。

如何保持推断简单 - 共轭先验

当结果后验与先验具有相同类型的分布,只是参数不同时,先验分布与似然的共轭性。当先验和似然都是正态分布时,后验也是正态分布的。

先验和似然的共轭性暗示了后验的闭合形式解,从而便于更新过程并避免使用数值方法来近似后验。此外,由此产生的后验可以用作下一个更新步骤的先验。

让我们使用一个股价波动的二元分类示例来说明这个过程。

如何动态估计资产价格波动的概率

当数据由具有某种成功概率的二元伯努利随机变量组成时,重复试验中的成功次数遵循二项分布。共轭先验是支持区间[0, 1]上的 Beta 分布,并具有两个形状参数,用于对成功概率进行任意先验分布建模。因此,后验分布也是一个 Beta 分布,我们可以通过直接更新参数来得到。

我们将收集不同大小的二元化日度标准普尔 500 指数收益率样本,其中正面结果是价格上涨。从一个不含信息的先验开始,该先验将每个可能的成功概率在区间[0, 1]内分配相等的概率,我们计算不同证据样本的后验概率。

下面的代码示例显示了更新只是简单地将观察到的成功和失败数量添加到先验分布的参数中以获得后验分布:

n_days = [0, 1, 3, 5, 10, 25, 50, 100, 500]
outcomes = sp500_binary.sample(n_days[-1])
p = np.linspace(0, 1, 100)
# uniform (uninformative) prior
a = b = 1
for i, days in enumerate(n_days):
    up = outcomes.iloc[:days].sum()
    down = days - up
    update = stats.beta.pdf(p, a + up , b + down)

以下图表中绘制了结果后验分布。它们说明了从将所有成功概率视为同等可能的均匀先验到越来越尖峰的分布的演变。

经过 500 个样本,概率集中在 2010 年至 2017 年间正面走势的实际概率约为 54.7%。它还显示了 MLE 和 MAP 估计之间的小差异,后者倾向于稍微朝向均匀先验的期望值,如下图所示:


后验概率

在实践中,共轭先验的使用仅限于低维情况。此外,简化的 MAP 方法避免了计算证据项,但即使在其可用时也具有几个缺点;它不返回分布,因此我们无法推导出不确定性的度量,或将其用作先验。因此,我们需要采用数值方法和随机模拟而不是精确推理,我们将在下文介绍。

近似推理:随机与确定性方法

对于大多数实际相关的模型,将无法通过分析方法推导出精确的后验分布并计算潜在参数的期望值。模型可能具有太多的参数,或者后验分布可能对于分析解而言过于复杂。对于连续变量,积分可能没有封闭形式的解,而空间的维数和被积函数的复杂性可能会阻止数值积分。对于离散变量,边缘化涉及对隐藏变量的所有可能配置求和,虽然原则上这总是可能的,但在实践中,我们经常发现可能存在指数多个隐藏状态,因此精确计算是非常昂贵的。

尽管对于某些应用而言,对未观察到的参数的后验分布可能是感兴趣的,但通常主要是要评估期望,例如,进行预测。在这种情况下,我们可以依赖近似推断:

  • 基于马尔可夫链蒙特卡罗(MCMC)抽样的随机技术已经在许多领域推广了贝叶斯方法的使用。它们通常具有收敛到精确结果的能力。在实践中,抽样方法可能需要大量计算,并且通常仅限于小规模问题。
  • 确定性方法,即变分推断或变分贝叶斯,基于对后验分布的解析近似,并且可以很好地扩展到大型应用程序。它们做出简化假设,例如,后验在特定方式上因子化,或者具有特定的参数形式,例如高斯分布。因此,它们不会生成精确结果,并且可以用作抽样方法的补充。

基于抽样的随机推断

抽样是关于从给定分布*p(x)中抽取样本,X=(x[1], …, x[n])。假设样本是独立的,大数定理确保对于增长的样本数量,给定实例x[i]*在样本中的比例(对于离散情况)对应于其概率,p(x=x[i])。在连续情况下,类似的推理适用于样本空间的给定区域。因此,对样本的平均值可以用作分布参数的期望值的无偏估计。

实际挑战在于确保独立抽样,因为分布是未知的。相关样本可能仍然是无偏的,但倾向于增加估计的方差,因此将需要更多的样本来获得与独立样本一样精确的估计。

从多元分布中抽样在计算上是具有挑战性的,因为随着维数的增加,状态数量呈指数增长。许多算法简化了这个过程(请参阅参考文献以获取概述)。现在,我们将介绍几种基于 MCMC 的流行变体方法。

马尔可夫链蒙特卡罗抽样

马尔可夫链是描述随机漫步的动态随机模型,由转移概率连接的一组状态组成。马尔可夫性质规定该过程没有记忆,并且下一步仅取决于当前状态。换句话说,它在于当前状态的条件下,过去、现在和未来是独立的,即过去状态的信息不会帮助预测未来超出我们从现在所知道的内容。

蒙特卡罗方法依赖于重复的随机抽样来近似可能是确定性的结果,但不允许解析的精确解。它是在曼哈顿计划期间开发的,用于估计原子级别的能量,并获得了其持久的代号以确保保密性。

许多算法将蒙特卡洛方法应用于马尔可夫链,并通常按以下方式进行:

  1. 从当前位置开始。
  2. 从提议分布中抽取一个新的位置。
  3. 在考虑数据和先验分布的情况下评估新位置的概率:
  1. 如果足够可能,移动到新的位置。
  2. 否则,保持当前位置不变。
  1. 从步骤 1 开始重复。
  2. 经过一定数量的迭代后,返回所有接受的位置。

MCMC 旨在识别和探索后验的有趣区域,这些区域集中在显著的概率密度上。当它持续移动到后验的附近高概率状态时,无记忆的过程被认为是收敛的,其中接受率增加。一个关键挑战是平衡对样本空间的随机探索的需要和降低接受率的风险。

此过程的初始步骤可能更反映出起始位置而不是后验,并且通常被丢弃为burn-in样本。 MCMC 的一个关键特性是在一定数量的迭代后,过程应该忘记其初始位置。

剩余的样本被称为过程的轨迹。假设收敛,则样本的相对频率近似于后验,可以根据大数定律计算期望值。

正如之前所指出的,估计的精度取决于随机游走收集的样本的串行相关性,每个样本设计上仅取决于前一个状态。更高的相关性限制了对后验的有效探索,并需要经过诊断测试。

设计这样的马尔可夫链的一般技术包括 Gibbs 采样、Metropolis-Hastings 算法和更近期的哈密顿 MCMC 方法,这些方法往往表现更好。

Gibbs 采样

Gibbs 采样将多变量采样简化为一系列一维抽样。从一个起始点开始,它迭代地将 n-1 个变量保持不变,同时抽样第 n 个变量。它将这个样本合并并重复。

该算法非常简单易实现,但产生高度相关的样本,导致收敛速度减慢。其顺序性也阻止了并行化。

Metropolis-Hastings 采样

Metropolis-Hastings 算法基于其当前状态随机提出新的位置,以有效地探索样本空间并相对于 Gibbs 采样减少样本的相关性。为了确保它从后验中采样,它使用先验和似然的乘积来评估提议,这与后验成比例。它根据结果接受的概率来接受,这与当前样本的相应值相关。

提议评估方法的一个关键优点是它使用比后验的确切评估更比例的评估。但是,它可能需要很长时间才能收敛,因为与后验无关的随机移动可能会降低接受率,以至于大量步骤仅产生少量(可能相关的)样本。接受率可以通过减小提议分布的方差来调整,但是由此产生的较小步骤意味着较少的探索。

哈密顿蒙特卡洛 – 走 NUTS

**哈密顿蒙特卡洛(HMC)**是一种混合方法,利用似然梯度的一阶导数信息来提出新的状态以进行探索,并克服了 MCMC 的一些挑战。此外,它还融合了动量以有效地在后验分布中跳跃。因此,与简单的随机游走 Metropolis 或 Gibbs 采样相比,它更快地收敛到高维目标分布。

无转弯采样器是自调节的 HMC 扩展,它自适应地调节在选择提议之前围绕后验的大小和数量。它在高维和复杂的后验分布上表现良好,并且允许拟合许多复杂的模型,而无需对拟合算法本身具有专门的知识。正如我们将在下一节中看到的,它是 PyMC3 中的默认采样器。

变分推断

**变分推断(VI)**是一种通过优化来近似概率密度的机器学习方法。在贝叶斯背景下,它近似后验分布如下:

  1. 选择一个参数化的概率分布族
  2. 找到该族中距目标最近的成员,以 Kullback-Leibler 散度为度量

与 MCMC 相比,变分贝叶斯往往收敛更快,并且更适用于大型数据。虽然 MCMC 通过链中的样本来近似后验,最终将收敛到任意接近目标,但变分算法通过优化结果来近似后验,这不能保证与目标重合。

变分推断更适合于大型数据集和快速探索多个模型。相比之下,当数据集较小或时间和计算资源的约束较少时,MCMC 将提供更准确的结果。

自动微分变分推断(ADVI)

变分推断的缺点是需要模型特定的导数和实现一个定制的优化例程,这减慢了广泛采用的速度。

最近的**自动微分变分推断(ADVI)**算法自动化了这个过程,用户只需指定模型,以程序形式表达,并且 ADVI 自动生成相应的变分算法(有关实现细节请参阅 GitHub 上的参考资料)。

我们将看到 PyMC3 支持各种变分推断技术,包括 ADVI。

使用 PyMC3 进行概率编程

概率编程提供了一种描述和拟合概率分布的语言,以便我们可以设计、编码和自动估计和评估复杂模型。它旨在抽象掉一些计算和分析复杂性,以使我们能够专注于贝叶斯推理和推断的概念上更为直观和简单的方面。

由于新语言的出现,该领域变得非常动态。Uber 开源了基于 PyTorch 的 Pyro,并且 Google 最近为 TensorFlow 添加了一个概率模块(请参阅 GitHub 上链接的资源)。

结果是,贝叶斯方法在机器学习中的实际相关性和使用可能会增加,以生成关于不确定性的洞见,特别是对于需要透明而不是黑盒模型的用例。

在本节中,我们将介绍流行的 PyMC3 库,该库使用 Python 实现了高级 MCMC 采样和变分推断,用于机器学习模型。与 Stan 一起,以 Monte Carlo 方法的发明者 Stanislaw Ulam 命名,并由哥伦比亚大学的 Andrew Gelman 自 2012 年以来开发,它是最受欢迎的概率编程语言之一。

使用 Theano 的贝叶斯机器学习

PyMC3 于 2017 年 1 月发布,以向 PyMC2(2012 年发布)中使用的 Metropolis-Hastings 采样器添加 Hamiltonian MC 方法。PyMC3 使用 Theano 作为其计算后端,用于动态 C 编译和自动微分。Theano 是一个以矩阵为重点且启用 GPU 的优化库,是由 Yoshua Bengio 的蒙特利尔机器学习算法研究所(MILA)开发的,并受到 TensorFlow 的启发。由于新的深度学习库的成功(有关详细信息,请参阅第十六章《深度学习》),MILA 最近停止进一步开发 Theano。PyMC4 计划于 2019 年使用 TensorFlow,对 API 的影响可能有限。

PyMC3 工作流程

PyMC3 的目标是直观且可读,但功能强大的语法,反映了统计学家描述模型的方式。建模过程通常遵循以下五个步骤:

  1. 通过定义以下内容来编码概率模型:
  1. 量化关于潜变量的知识和不确定性的先验分布
  2. 条件参数在观察数据上的似然函数
  1. 使用上一节中描述的选项之一分析后验:
  1. 使用 MAP 推断获得一个点估计
  2. 使用 MCMC 方法从后验中采样
  1. 使用变分贝叶斯近似后验。
  2. 使用各种诊断工具检查您的模型。
  3. 生成预测。

生成的模型可用于推断,以获取参数值的详细洞察,以及预测新数据点的结果。

我们将使用简单的 logistic 回归来说明这个工作流程(参见笔记本 bayesian_logistic_regression)。随后,我们将使用 PyMC3 来计算和比较贝叶斯夏普比率,估计动态配对交易比率,并实现贝叶斯线性时间序列模型。

模型定义 - 贝叶斯 logistic 回归

如第六章所讨论的,机器学习工作流程, logistic 回归估计一组特征与二进制结果之间的线性关系,通过 S 形函数进行调节,以确保模型产生概率。 频率方法导致参数的点估计,这些参数测量了每个特征对数据点属于正类的概率的影响,并且置信区间基于关于参数分布的假设。

相比之下,贝叶斯 logistic 回归估计参数本身的后验分布。 后验允许对每个参数的贝叶斯可信区间进行更健壮的估计,其优点在于更透明地了解模型的不确定性。

概率程序由观察到的和未观察到的随机变量(RVs)组成。正如我们所讨论的,我们通过似然分布定义观察到的 RVs,通过先验分布定义未观察到的 RVs。PyMC3 包含许多用于此目的的概率分布。

我们将使用一个简单的数据集,使用每年$50K 的收入门槛将 30,000 个个体分类。此数据集将包含关于年龄、性别、工作小时和教育年限的信息。因此,我们正在使用这些特征对一个人的收入是否超过$50K 的概率进行建模。

PyMC3 库使得对 logistic 回归执行近似贝叶斯推断非常简单。 logistic 回归模型根据以下图表左侧的方式对个体 i 基于 k 个特征的高收入的概率进行建模:


我们将使用上下文管理器 with 来定义一个 manual_logistic_model,以便稍后将其作为概率模型参考:

  1. 未观察到的截距和两个特征的参数的随机变量使用假设的先验进行表达,该先验假设为正态分布,均值为 0,标准差为 100。
  2. 似然函数根据 logistic 回归的规范将参数与数据结合起来。
  3. 结果被建模为 Bernoulli 随机变量,其成功概率由似然函数给出:
with pm.Model() as manual_logistic_model:
    # coefficients as rvs with uninformative priors
    intercept = pm.Normal('intercept', 0, sd=100)
    b1 = pm.Normal('beta_1', 0, sd=100)
    b2 = pm.Normal('beta_2', 0, sd=100)
    # Likelihood transforms rvs into probabilities p(y=1)
    # according to logistic regression model.    
    likelihood = pm.invlogit(intercept + b1 * data.hours + b2 * data.educ)
    # Outcome as Bernoulli rv with success probability 
    # given by sigmoid function conditioned on actual data 
    pm.Bernoulli(name='logit', p=likelihood, observed=data.income)

可视化和板符号

命令 pm.model_to_graphviz(manual_logistic_model) 生成在右侧图中显示的 plate 符号。它显示未观察到的参数为浅色,观察到的元素为深色圆圈。矩形表示由模型定义中包含的数据暗示的观察模型元素的重复次数。

广义线性模型模块

PyMC3 包含许多常见的模型,因此我们通常可以留下自定义应用程序的手动规范。以下代码使用受统计语言 R 启发的公式格式,并由 patsy 库移植到 Python,将相同的逻辑回归定义为 广义线性模型 (GLM) 家族的成员:

with pm.Model() as logistic_model:  
    pm.glm.GLM.from_formula('income ~ hours + educ', 
                            data, 
                            family=pm.glm.families.Binomial())

MAP 推断

我们使用刚刚定义的模型的 .find_MAP() 方法为三个参数获得点 MAP 估计值:

with logistic_model:
    map_estimate = pm.find_MAP()
print_map(map_estimate)
Intercept   -6.561862
hours        0.040681
educ         0.350390

PyMC3 使用拟牛顿 Broyden-Fletcher-Goldfarb-Shanno (BFGS) 算法解决了找到具有最高密度的后验点的优化问题,但提供了几种替代方案,这些替代方案由 sciPy 库提供。结果几乎与相应的 statsmodels 估计相同(有关更多信息,请参阅笔记本)。

近似推断 - MCMC

我们将使用稍微复杂的模型来说明马尔可夫链蒙特卡洛推断:

formula = 'income ~ sex + age+ I(age ** 2) + hours + educ'

Patsy 的函数 I() 允许我们使用常规 Python 表达式动态创建新变量。在这里,我们将 age 平方以捕获更多经验在生活后期增加收入的非线性关系。

请注意,测量尺度非常不同的变量可能会减慢采样过程。因此,我们首先对 agehourseduc 变量进行标准化,应用 sklearn 的 scale() 函数。

一旦我们用新公式定义了我们的模型,我们就可以执行推断以近似后验分布。通过 pm.sample() 函数可用 MCMC 采样算法。

默认情况下,PyMC3 自动选择最有效的采样器,并初始化采样过程以实现有效的收敛。对于连续模型,PyMC3 选择我们在前一节中讨论的 NUTS 采样器。它还通过 ADVI 运行变分推断,以找到采样器的良好起始参数。其中一个选择是使用 MAP 估计。

为了查看收敛情况,我们首先在调整了采样器 1000 次迭代后仅绘制 100 个样本。此后将丢弃这些样本。采样过程可以使用 cores 参数并行化多个链(除非使用 GPU):

with logistic_model:
    trace = pm.sample(draws=100, tune=1000,
                      init='adapt_diag', # alternative initialization
                      chains=4, cores=2,
                      random_seed=42)

结果跟踪包含每个随机变量的采样值。我们可以通过提供先前运行的跟踪作为输入来继续采样(有关更多信息,请参阅笔记本)。

置信区间

我们可以计算可信区间—贝叶斯的置信区间—作为跟踪的百分位数。结果的边界反映了对于给定概率阈值的参数值范围的信心,而不是参数将在大量试验中多少次在此范围内的数量。笔记本演示了计算和可视化。

近似推断 - 变分贝叶斯

变分推断的界面与 MCMC 实现非常相似。我们只需使用fit()函数而不是sample()函数,还可以选择包括一个早期停止的CheckParametersConvergence回调,如果分布拟合过程收敛到给定的容差:

with logistic_model:
    callback = CheckParametersConvergence(diff='absolute')
    approx = pm.fit(n=100000, 
                    callbacks=[callback])

我们可以从近似分布中抽取样本,以获得类似于之前对 MCMC 采样器所做的跟踪对象:

trace_advi = approx.sample(10000)

检查跟踪摘要显示结果略微不准确。

模型诊断

贝叶斯模型诊断包括验证采样过程是否收敛,并且始终从后验的高概率区域中采样,并确认模型是否很好地代表了数据。

Python 机器学习算法交易实用指南(三)(3)https://developer.aliyun.com/article/1523356

相关文章
|
8天前
|
前端开发 搜索推荐 算法
中草药管理与推荐系统Python+Django网页界面+推荐算法+计算机课设系统+网站开发
中草药管理与推荐系统。本系统使用Python作为主要开发语言,前端使用HTML,CSS,BootStrap等技术和框架搭建前端界面,后端使用Django框架处理应用请求,使用Ajax等技术实现前后端的数据通信。实现了一个综合性的中草药管理与推荐平台。具体功能如下: - 系统分为普通用户和管理员两个角色 - 普通用户可以登录,注册、查看物品信息、收藏物品、发布评论、编辑个人信息、柱状图饼状图可视化物品信息、并依据用户注册时选择的标签进行推荐 和 根据用户对物品的评分 使用协同过滤推荐算法进行推荐 - 管理员可以在后台对用户和物品信息进行管理编辑
39 12
中草药管理与推荐系统Python+Django网页界面+推荐算法+计算机课设系统+网站开发
|
4天前
|
机器学习/深度学习 算法 数据挖掘
决策树算法大揭秘:Python让你秒懂分支逻辑,精准分类不再难
【9月更文挑战第12天】决策树算法作为机器学习领域的一颗明珠,凭借其直观易懂和强大的解释能力,在分类与回归任务中表现出色。相比传统统计方法,决策树通过简单的分支逻辑实现了数据的精准分类。本文将借助Python和scikit-learn库,以鸢尾花数据集为例,展示如何使用决策树进行分类,并探讨其优势与局限。通过构建一系列条件判断,决策树不仅模拟了人类决策过程,还确保了结果的可追溯性和可解释性。无论您是新手还是专家,都能轻松上手,享受机器学习的乐趣。
18 9
|
5天前
|
存储 算法 测试技术
预见未来?Python线性回归算法:数据中的秘密预言家
【9月更文挑战第11天】在数据的海洋中,线性回归算法犹如智慧的预言家,助我们揭示未知。本案例通过收集房屋面积、距市中心距离等数据,利用Python的pandas和scikit-learn库构建房价预测模型。经过训练与测试,模型展现出较好的预测能力,均方根误差(RMSE)低,帮助房地产投资者做出更明智决策。尽管现实关系复杂多变,线性回归仍提供了有效工具,引领我们在数据世界中自信前行。
18 5
|
10天前
|
机器学习/深度学习 数据采集 人工智能
使用Python实现简单的机器学习分类器
【8月更文挑战第37天】本文将引导读者了解如何利用Python编程语言构建一个简单的机器学习分类器。我们将从基础概念出发,通过代码示例逐步深入,探索数据预处理、模型选择、训练和评估过程。文章旨在为初学者提供一条清晰的学习路径,帮助他们理解并实现基本的机器学习任务。
|
7天前
|
机器学习/深度学习 算法 Python
从菜鸟到大师:一棵决策树如何引领你的Python机器学习之旅
【9月更文挑战第9天】在数据科学领域,机器学习如同璀璨明珠,吸引无数探索者。尤其对于新手而言,纷繁复杂的算法常让人感到迷茫。本文将以决策树为切入点,带您从Python机器学习的新手逐步成长为高手。决策树以其直观易懂的特点成为入门利器。通过构建决策树分类器并应用到鸢尾花数据集上,我们展示了其基本用法及效果。掌握决策树后,还需深入理解其工作原理,调整参数,并探索集成学习方法,最终将所学应用于实际问题解决中,不断提升技能。愿这棵智慧之树助您成为独当一面的大师。
17 3
|
10天前
|
机器学习/深度学习 数据采集 算法
数据挖掘和机器学习算法
数据挖掘和机器学习算法
|
9天前
|
机器学习/深度学习 算法 Python
决策树下的智慧果实:Python机器学习实战,轻松摘取数据洞察的果实
【9月更文挑战第7天】当我们身处数据海洋,如何提炼出有价值的洞察?决策树作为一种直观且强大的机器学习算法,宛如智慧之树,引领我们在繁复的数据中找到答案。通过Python的scikit-learn库,我们可以轻松实现决策树模型,对数据进行分类或回归分析。本教程将带领大家从零开始,通过实际案例掌握决策树的原理与应用,探索数据中的秘密。
21 1
|
13天前
|
机器学习/深度学习 数据采集 存储
一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析
蒙特卡洛方法起源于1945年科学家斯坦尼斯劳·乌拉姆对纸牌游戏中概率问题的思考,与约翰·冯·诺依曼共同奠定了该方法的理论基础。该方法通过模拟大量随机场景来近似复杂问题的解,因命名灵感源自蒙特卡洛赌场。如今,蒙特卡洛方法广泛应用于机器学习领域,尤其在超参数调优、贝叶斯滤波等方面表现出色。通过随机采样超参数空间,蒙特卡洛方法能够高效地找到优质组合,适用于处理高维度、非线性问题。本文通过实例展示了蒙特卡洛方法在估算圆周率π和优化机器学习模型中的应用,并对比了其与网格搜索方法的性能。
89 1
|
14天前
|
机器学习/深度学习 算法 数据挖掘
|
6天前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络入门到精通:Python带你搭建AI思维,解锁机器学习的无限可能
【9月更文挑战第10天】神经网络是开启人工智能大门的钥匙,不仅是一种技术,更是模仿人脑思考的奇迹。本文从基础概念入手,通过Python和TensorFlow搭建手写数字识别的神经网络,逐步解析数据加载、模型定义、训练及评估的全过程。随着学习深入,我们将探索深度神经网络、卷积神经网络等高级话题,并掌握优化模型性能的方法。通过不断实践,你将能构建自己的AI系统,解锁机器学习的无限潜能。
11 0