【MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)

简介: 【MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)

MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)


一、效果展示


1.FMRVR


2. # of iterations = 10
2. # of iterations = 10
历时 0.590399 秒。
**************************
下列是输出1
**************************
训练集数据的R2为:0.91476
测试集数据的R2为:0.90012
训练集数据的MAE为:107.4164
测试集数据的MAE为:118.6531
训练集数据的MBE为:-5.1681
测试集数据的MBE为:4.579
**************************
下列是输出2
**************************
训练集数据的R2为:0.97846
测试集数据的R2为:0.96061
训练集数据的MAE为:54.173
测试集数据的MAE为:75.3314
训练集数据的MBE为:-0.95966
测试集数据的MBE为:3.0532
**************************
下列是输出3
**************************
训练集数据的R2为:0.88799
测试集数据的R2为:0.91031
训练集数据的MAE为:107.6909
测试集数据的MAE为:122.2654
训练集数据的MBE为:-20.9333
测试集数据的MBE为:-26.701
=================
训练集运行结果
第1个因变量
回归误差 (RMS): 83.4517
估计噪声水平: 0.1827 (true: 0.1622)
第2个因变量
回归误差 (RMS): 95.0044
估计噪声水平: 0.0539 (true: 0.0157)
第3个因变量
回归误差 (RMS): 35.9521
估计噪声水平: 0.4115 (true: 0.4167)
=================
测试集运行结果
第1个因变量
回归误差 (RMS): 69.2293
估计噪声水平: 0.1970 (true: 0.1622)
第2个因变量
回归误差 (RMS): 24.5793
估计噪声水平: 0.0826 (true: 0.0157)
第3个因变量
回归误差 (RMS): 330.102
估计噪声水平: 0.4296 (true: 0.4167)
训练集熵损失 = 15.4545
训练集二次损失 = 335.4603
测试集熵损失 = 40.0038
测试集二次损失 = 1897.5659


2.MRVR

1. # of iterations = 10
1. # of iterations = 10
历时 34.937888 秒。
**************************
下列是输出1
**************************
训练集数据的R2为:0.78223
测试集数据的R2为:0.32016
训练集数据的MAE为:173.4356
测试集数据的MAE为:328.7633
训练集数据的MBE为:-32.7339
测试集数据的MBE为:200.1722
**************************
下列是输出2
**************************
训练集数据的R2为:0.94909
测试集数据的R2为:0.66437
训练集数据的MAE为:85.6813
测试集数据的MAE为:210.3887
训练集数据的MBE为:-22.3859
测试集数据的MBE为:94.008
**************************
下列是输出3
**************************
训练集数据的R2为:0.94538
测试集数据的R2为:0.92513
训练集数据的MAE为:88.4047
测试集数据的MAE为:96.8574
训练集数据的MBE为:0.51131
测试集数据的MBE为:-26.8483
=================
训练集运行结果
第1个因变量
回归误差 (RMS): 111.282
估计噪声水平: 0.9684 (true: 0.9488)
第2个因变量
回归误差 (RMS): 144.32
估计噪声水平: 0.7537 (true: 0.7541)
第3个因变量
回归误差 (RMS): 101.934
估计噪声水平: 0.1996 (true: 0.1938)
=================
测试集运行结果
第1个因变量
回归误差 (RMS): 240.296
估计噪声水平: 1.0334 (true: 0.9488)
第2个因变量
回归误差 (RMS): 48.7849
估计噪声水平: 0.6868 (true: 0.7541)
第3个因变量
回归误差 (RMS): 180.328
估计噪声水平: 0.2048 (true: 0.1938)
训练集熵损失 = 0.015592
训练集二次损失 = 0.032023
测试集熵损失 = 0.13245
测试集二次损失 = 0.30277


二、代码展示


数据为28输入,3输出。共600样本,训练集样本数为500,测试集样本数为100。

%该程序演示了多元相关向量回归(MRVR)和快速fMRVR算法
%=========================================================================
clear, clc, close all;
%% 参数设置
isFast      = true; % true(快速fMRVR)或false(原始MRVR)
maxIts      = 10; % EM算法的最大迭代次数
tolerance   = .1;   % 检验EM算法收敛性的容差值
%%  导入数据
res = xlsread('数据集.xlsx');
%%  划分训练集和测试集
temp = randperm(600);
P_train = res(temp(1: 500), 1 : 28)';
T_train = res(temp(1: 500), 29: 31)';
M = size(P_train, 2);
P_test = res(temp(501: end), 1 : 28)';
T_test = res(temp(501: end), 29: 31)';
N = size(P_test, 2);
%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
% kernel
kernelType  = '+gauss';
kernelWidth = 1.6;
%% RMS和估计噪声水平
disp('=================')
disp('训练集运行结果')
for j = 1:size(Y,2)
  text = '第';
   fprintf([text '%d'  '个因变量\n'],j)
    fprintf('回归误差 (RMS): %g\n', ...
  sqrt(mean((T_train(:,j)-T_sim1(:,j)).^2)))
    fprintf('估计噪声水平: %.4f (true: %.4f)\n\n', ...
        sqrt(OmegaHat(j,j)), noise(j))
        disp('=================')
        disp('测试集运行结果')
        for j = 1:size(Y,2)
        end
            text = '第';
    fprintf([text '%d'  '个因变量\n'],j)
    fprintf('回归误差 (RMS): %g\n', ...
  sqrt(mean((T_test(:,j)-T_sim2(:,j)).^2)))
    fprintf('估计噪声水平: %.4f (true: %.4f)\n\n', ...
        sqrt(OmegaHat1(j,j)), noise(j))
        end
%% 度量协方差矩阵估计的性能
V = size(Y,2); % V是输出维度
temp = (Omega\OmegaHat)'; %Omega是真的,OmegaHat是估计的
temp1 = (Omega\OmegaHat1)'; %Omega是真的,OmegaHat是估计的
loss1 = trace(temp) - log(det(temp)) - V; % %熵损失
loss2 = trace((temp - eye(V))^2); % 二次损失
loss1_1 = trace(temp1) - log(det(temp1)) - V; % %熵损失
loss2_1 = trace((temp1 - eye(V))^2); % 二次损失
disp(['训练集熵损失 = ' num2str(loss1)])
disp(['训练集二次损失 = ' num2str(loss2)])
disp(['测试集熵损失 = ' num2str(loss1_1)])
disp(['测试集二次损失 = ' num2str(loss2_1)])


三、代码获取


后台私信回复“第39期”即可获取下载链接

相关文章
|
4天前
|
存储 监控 NoSQL
Redis处理大量数据主要依赖于其内存存储结构、高效的数据结构和算法,以及一系列的优化策略
【5月更文挑战第15天】Redis处理大量数据依赖内存存储、高效数据结构和优化策略。选择合适的数据结构、利用批量操作减少网络开销、控制批量大小、使用Redis Cluster进行分布式存储、优化内存使用及监控调优是关键。通过这些方法,Redis能有效处理大量数据并保持高性能。
22 0
|
2天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
3天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】聚类算法中,如何判断数据是否被“充分”地聚类,以便算法产生有意义的结果?
【5月更文挑战第14天】【机器学习】聚类算法中,如何判断数据是否被“充分”地聚类,以便算法产生有意义的结果?
|
3天前
|
机器学习/深度学习 运维 算法
【机器学习】可以利用K-means算法找到数据中的离群值吗?
【5月更文挑战第14天】【机器学习】可以利用K-means算法找到数据中的离群值吗?
|
4天前
|
数据采集 机器学习/深度学习 人工智能
【机器学习】在使用K-means算法之前,如何预处理数据?
【5月更文挑战第12天】【机器学习】在使用K-means算法之前,如何预处理数据?
|
4天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。
|
4天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
9 1
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
4天前
|
存储 算法 数据可视化
基于harris角点和RANSAC算法的图像拼接matlab仿真
本文介绍了使用MATLAB2022a进行图像拼接的流程,涉及Harris角点检测和RANSAC算法。Harris角点检测寻找图像中局部曲率变化显著的点,RANSAC则用于排除噪声和异常点,找到最佳匹配。核心程序包括自定义的Harris角点计算函数,RANSAC参数设置,以及匹配点的可视化和仿射变换矩阵计算,最终生成全景图像。
|
4天前
|
算法 Serverless
m基于遗传优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB 2022a仿真实现了遗传优化的归一化最小和(NMS)译码算法,应用于低密度奇偶校验(LDPC)码。结果显示了遗传优化的迭代过程和误码率对比。遗传算法通过选择、交叉和变异操作寻找最佳归一化因子,以提升NMS译码性能。核心程序包括迭代优化、目标函数计算及性能绘图。最终,展示了SNR与误码率的关系,并保存了关键数据。
16 1