HAR-RV-J与递归神经网络(RNN)混合模型预测和交易大型股票指数的高频波动率

简介: HAR-RV-J与递归神经网络(RNN)混合模型预测和交易大型股票指数的高频波动率

本文分析了S&P500指数和SPY ETF,VIX指数和VXX ETN的波动率的可预测性和可交易性。尽管已有大量关于预测高频波动的文献,但大多数仅根据统计误差评估预测。实际上,这种分析只是对预测的实际经济意义的一个小的指示。因此,在我们的方法中,我们还通过交易适当的波动率衍生品来测试我们的预测。

简介

波动性在资产定价和分配以及风险管理中起着核心作用,例如风险价值(_VaR_)与期望损失(_ES_)。对计量经济学家,统计学家和从业者来说,建模和预测波动性非常重要。然而,传统的广义自回归条件异方差(GARCH)和随机波动率(SV)模型的应用并不适合用于使用高频数据的应用。

本文将HAR-RV-J与递归神经网络(RNN)和混合 HAR-RV-J- RNN模型进行比较,以预测波动性,从而分析预测性。

循环神经网络

人工神经网络是一种功能强大的非参数工具,用于信号滤波,模式识别和插值,也可以容忍有误差的数据,并找到模型参数之间的非线性关联 。大多数计量经济模型是通过捕获时间序列的特定特征(例如长记忆)或假设变量之间的函数关系而开发的,人工神经网络的主要优点是它们包含非线性并包含所有变量。

具有一个隐藏层的单输出RNN模型

混合模型

混合模型也被设计为RNN。但是,作为附加输入,我们将线性模型的预测提供给RNN。我们还保留了四个基本输入。因此,在混合模型的情况下,输入的总数增加到5。

所有其他模型参数保持不变。具体地,如上确定隐藏神经元的数量。此外,模型架构保持相同。

使用混合模型的动机源于希望利用每个模型。通过将线性预测提供给RNN,我们可以从预测任务中删除任何线性分量。这应该为更好地匹配线性预测误差的非线性残差留出更多空间。

数据

我们的基础数据集包括来自于1996年1月2日至2016年6月2日开始的标准普尔500指数。

结果

每日S&P500 RV。注意:顶部面板分别显示每日实现的波动率及其对数变换, 。下面的图表显示了跳转成分,

结论

本文分析了异质自回归模型的潜力,包括跳跃预测实现波动率(RV)。对于这种方法,我们根据标准普尔500指数的5年日内数据的20年历史计算RV。我们的结果表明,基础HAR-RV-J模型确实能够提供令人满意的RV预测。

有问题欢迎联系我们!

相关文章
|
机器学习/深度学习 数据采集 存储
时间序列预测新突破:深入解析循环神经网络(RNN)在金融数据分析中的应用
【10月更文挑战第7天】时间序列预测是数据科学领域的一个重要课题,特别是在金融行业中。准确的时间序列预测能够帮助投资者做出更明智的决策,比如股票价格预测、汇率变动预测等。近年来,随着深度学习技术的发展,尤其是循环神经网络(Recurrent Neural Networks, RNNs)及其变体如长短期记忆网络(LSTM)和门控循环单元(GRU),在处理时间序列数据方面展现出了巨大的潜力。本文将探讨RNN的基本概念,并通过具体的代码示例展示如何使用这些模型来进行金融数据分析。
1230 2
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
1697 1
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
自然语言处理 C# 开发者
Uno Platform多语言开发秘籍大公开:轻松驾驭全球用户,一键切换语言,让你的应用成为跨文化交流的桥梁!
【8月更文挑战第31天】Uno Platform 是一个强大的开源框架,允许使用 C# 和 XAML 构建跨平台的原生移动、Web 和桌面应用程序。本文详细介绍如何通过 Uno Platform 创建多语言应用,包括准备工作、设置多语言资源、XAML 中引用资源、C# 中加载资源以及处理语言更改。通过简单的步骤和示例代码,帮助开发者轻松实现应用的国际化。
208 1
|
机器学习/深度学习 自然语言处理 算法
【NPL自然语言处理】带你迅速了解传统RNN模型
【NPL自然语言处理】带你迅速了解传统RNN模型
|
机器学习/深度学习 自然语言处理
彻底改变语言模型:全新架构TTT超越Transformer,ML模型代替RNN隐藏状态
【7月更文挑战第25天】近年来,NLP领域取得显著进展但也面临挑战,如长上下文建模与计算效率的平衡。为此,研究人员提出Test-Time Training (TTT) 模型架构。TTT由多机构合作开发,旨在解决长上下文建模难题及提高计算效率。通过将隐藏状态视为可学习更新的模型,TTT能随输入增长提升表示能力;采用自监督学习更新规则确保线性计算复杂度的同时保持高性能。实验显示TTT在多种NLP任务中表现优秀,尤其在长上下文处理方面超越Transformer。尽管如此,TTT仍面临训练资源需求高及自监督学习鲁棒性等挑战。[论文](https://arxiv.org/abs/2407.04620)
448 5
|
机器学习/深度学习 人工智能 自然语言处理
算法金 | 秒懂 AI - 深度学习五大模型:RNN、CNN、Transformer、BERT、GPT 简介
**RNN**,1986年提出,用于序列数据,如语言模型和语音识别,但原始模型有梯度消失问题。**LSTM**和**GRU**通过门控解决了此问题。 **CNN**,1989年引入,擅长图像处理,卷积层和池化层提取特征,经典应用包括图像分类和物体检测,如LeNet-5。 **Transformer**,2017年由Google推出,自注意力机制实现并行计算,优化了NLP效率,如机器翻译。 **BERT**,2018年Google的双向预训练模型,通过掩码语言模型改进上下文理解,适用于问答和文本分类。
756 9
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
机器学习/深度学习 人工智能 自然语言处理
TensorFlow 中的循环神经网络超厉害!从理论到实践详解,带你领略 RNN 的强大魅力!
【8月更文挑战第31天】循环神经网络(RNN)在人工智能领域扮演着重要角色,尤其在TensorFlow框架下处理序列数据时展现出强大功能。RNN具有记忆能力,能捕捉序列中的长期依赖关系,适用于自然语言处理、机器翻译和语音识别等多个领域。尽管存在长期依赖和梯度消失等问题,但通过LSTM和GRU等改进结构可以有效解决。在TensorFlow中实现RNN十分简便,为处理复杂序列数据提供了有力支持。
122 0
|
机器学习/深度学习 人工智能 自然语言处理
7.1 NLP经典神经网络 RNN LSTM
该文章介绍了自然语言处理中的情感分析任务,探讨了如何使用深度神经网络,特别是循环神经网络(RNN)和长短时记忆网络(LSTM),来处理和分析文本数据中的复杂情感倾向。