MATLAB用GARCH-EVT-Copula极值理论模型VaR预测分析股票投资组合

简介: MATLAB用GARCH-EVT-Copula极值理论模型VaR预测分析股票投资组合

全文链接:http://tecdat.cn/?p=30426


对VaR计算方法的改进,以更好的度量开放式基金的风险。本项目把基金所持股票看成是一个投资组合,引入Copula来描述多只股票间的非线性相关性,构建多元GARCH-EVT-Copula模型来度量开放式基金的风险,并与其他VaR估计方法的预测结果进行比较点击文末“阅读原文”获取完整代码数据


其次是将VaR引入到基金业绩评价中,构造RAROC指标来评价基金业绩,检验该评价指标的可行性。


GARCH-EVT-Copula 模型


首先用GARCH族模型拟合单项资产收益率,并提取标准化残差以满足极值理论的假设前提,接着对标准化残差的上下尾部分采用EVT理论中的广义帕累托分布GPD拟合,中间部分采用高斯核函数来估计其经验累积分布函数,从而得到标准化残差的边缘分布函数 。然后选取适当的Copula 函数,构造多元标准化残差间的相关结构和联合分布函数。


Copula 函数参数估计


本项目中,采用 伪极大似然估计(CML) 方法来估计 Copula 函数的参数 第一步,将金融资产对数收益率数据x通过经验分布函数转化为均匀变量(uniform variates) 第二步,利用密度似然函数估计Copula函数的参数:

GARCH-EVT-Copula 模型计算 VaR


项目将开放式基金看做是一个资产组合,以每只基金所持有的股票收益率为研究对象,从投资组合的角度利用多元GARCH-EVT-Copula模型来计算基金的VaR值。

读取数据


[NUM,TXT,RAW]=xlsread('data')
Data=NUM
function [ output_args ] = GEC( input_args )


建立 GARCH 模型


nIndices = size(Data,2); % # 基金数量
spec(1:nIndices) = garchset('Distribution' , 'T' , 'Display', 'off', ...
'VarianceModel', 'GJR', 'P', 1, 'Q', 1, 'R', 1);%对每只基金设置garch模型的

残差自相关性检验

%残差自相关性检验
figure, subplot(2,1,1)
plot(residuals(:,1))
xlabel('时间'), ylabel('残差'), title ('N225收益率残差')

根据 FHS 提取标准化残差


title('N225标准化残差自相关图')
subplot(2,1,2)
autocorr(residuals(:,1).^2)

点击标题查阅往期内容


R语言用GARCH模型波动率建模和预测、回测风险价值 (VaR)分析股市收益率时间序列


01

02

03

04


GDAXI

%残差自相关性检验
figure, subplot(2,1,1)
plot(residuals(:,2))

GSPC


FCHI


%残差自相关性检验
figure, subplot(2,1,1)
plot(residuals(:,4))

根据 FHS 提取标准化残差

采用 EVT 理论对标准残差估计累计分布函数


% Estimate the Semi-Parametric CDFs
nPoints= 200; % # of sampled points of kernel-smoothed CDF需要拟合的样本点
tailFraction = 0.1; % Decimal fraction of residuals allocated to each tail 小数保存位数
plot(y, (OBJ{index}.cdf(y + Q(2)) - P(2))/P(1))
[F,x] = ecdf(y); % empirical CDF
hold('on'); stairs(x, F, 'r'); grid('on')
legend('拟合的广义 Pareto 累计分布函数','经验累积分布函数','Location','SouthEast');
xlabel('Exceedance'); ylabel('Probability');
title(['标准化残差序列',num2str(index),'的上尾']);

for i=1:242
VaRp(i,:)=pPrice(i+T-242)*exp(VaR(i,:));
end
%%
figure
plot(1:242,pPrice(T-242+2:end),'r-',1:242,VaRp(1:242,1),'g-',1:242,VaRp(1:242,2),'b-',1:242,VaRp(1:242,3),'y-');
title('基金持股收盘价实际与 VaR 预测下限走势图')

plot(1:242, b(:,s),'go-',x,d,'ro',1:0.25:250,0,'b');
legend('未突破 VaR 预测下限','突破 VaR 预测下限','Location','Best' )
title('基金实际持股收盘价与 VaR 预测下限差额')
xlabel('时间日期')
ylabel('差额');

收益率t分布%QQ图


N225收益率平方自相关图和偏相关图



相关文章
|
4天前
|
数据可视化 数据挖掘 BI
MATLAB学习之旅:数据统计与分析
在MATLAB中,我们掌握了数据导入、处理及插值拟合等基础技能。接下来,我们将深入数据统计与分析领域,学习描述性统计量(如均值、标准差)、数据分布分析(如直方图、正态概率图)、数据排序与排名、数据匹配查找以及数据可视化(如箱线图、散点图)。这些工具帮助我们挖掘数据中的有价值信息,揭示数据的奥秘,为后续数据分析打下坚实基础。
|
4天前
|
算法
MATLAB在风险管理中的应用:从VaR计算到压力测试
本文介绍如何使用MATLAB进行风险管理,涵盖风险度量(如VaR)、压力测试和风险分解。通过历史模拟法、参数法和蒙特卡洛模拟法计算VaR,评估投资组合在极端市场条件下的表现,并通过边际VaR和成分VaR识别风险来源。结合具体案例和代码实现,帮助读者掌握MATLAB在风险管理中的应用,确保投资组合的稳健性。
|
3月前
|
机器学习/深度学习 算法 数据安全/隐私保护
数据链中常见电磁干扰matlab仿真,对比噪声调频,线性调频,噪声,扫频,灵巧五种干扰模型
本项目展示了用于分析和模拟电磁干扰对数据链系统影响的算法。通过Matlab 2022a运行,提供无水印效果图预览。完整代码包含详细中文注释及操作视频。理论部分涵盖五种常见干扰模型:噪声调频、线性调频、噪声、扫频和灵巧干扰,详细介绍其原理并进行对比分析。灵巧干扰采用智能技术如认知无线电和机器学习,自适应调整干扰策略以优化效果。
|
2月前
|
算法 人机交互 数据安全/隐私保护
基于图像形态学处理和凸包分析法的指尖检测matlab仿真
本项目基于Matlab2022a实现手势识别中的指尖检测算法。测试样本展示无水印运行效果,完整代码含中文注释及操作视频。算法通过图像形态学处理和凸包检测(如Graham扫描法)来确定指尖位置,但对背景复杂度敏感,需调整参数PARA1和PARA2以优化不同手型的检测精度。
空心电抗器的matlab建模与性能仿真分析
空心电抗器是一种无铁芯的电感元件,通过多层并联导线绕制而成。其主要作用是限制电流、滤波、吸收谐波和提高功率因数。电抗器的损耗包括涡流损耗、电阻损耗和环流损耗。涡流损耗由交变磁场引起,电阻损耗与电抗器半径有关,环流损耗与各层电流相关。系统仿真使用MATLAB2022a进行。
|
3月前
|
算法
基于Adaboost模型的数据预测和分类matlab仿真
AdaBoost(Adaptive Boosting)是一种由Yoav Freund和Robert Schapire于1995年提出的集成学习方法,旨在通过迭代训练多个弱分类器并赋予分类效果好的弱分类器更高权重,最终构建一个强分类器。该方法通过逐步调整样本权重,使算法更关注前一轮中被误分类的样本,从而逐步优化模型。示例代码在MATLAB 2022A版本中运行,展示了随着弱分类器数量增加,分类错误率的变化及测试数据的分类结果。
236 13
|
3月前
|
编解码 算法 数据安全/隐私保护
基于BP译码的LDPC误码率matlab仿真,分析不同码长,码率,迭代次数以及信道类型对译码性能的影响
本内容介绍基于MATLAB 2022a的低密度奇偶校验码(LDPC)仿真,展示了完整的无水印仿真结果。LDPC是一种逼近香农限的信道编码技术,广泛应用于现代通信系统。BP译码算法通过Tanner图上的消息传递实现高效译码。仿真程序涵盖了不同Eb/N0下的误码率计算,并分析了码长、码率、迭代次数和信道类型对译码性能的影响。核心代码实现了LDPC编码、BPSK调制、高斯信道传输及BP译码过程,最终绘制误码率曲线并保存数据。 字符数:239
89 5
|
3月前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
4月前
|
算法
基于HASM模型的高精度建模matlab仿真
本课题使用HASM进行高精度建模,介绍HASM模型及其简化实现方法。HASM模型基于层次化与自适应统计思想,通过多层结构捕捉不同尺度特征,自适应调整参数,适用于大规模、高维度数据的分析与预测。MATLAB2022A版本运行测试,展示运行结果。
|
3月前
|
算法 数据安全/隐私保护
数字通信中不同信道类型对通信系统性能影响matlab仿真分析,对比AWGN,BEC,BSC以及多径信道
本项目展示了数字通信系统中几种典型信道模型(AWGN、BEC、BSC及多径信道)的算法实现与分析。使用Matlab2022a开发,提供无水印运行效果预览图、部分核心代码及完整版带中文注释的源码和操作视频。通过数学公式深入解析各信道特性及其对系统性能的影响。