【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数

【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数


1. 介绍


1.1. 描述


多输出回归旨在学习从多变量输入特征空间到多变量输出空间的映射。尽管最小二乘支持向量回归机(LSSVR)的标准公式具有潜在的实用性,但它不能处理多输出情况。通常的程序是训练多个独立的LSSVR,从而忽略不同输出之间潜在的(潜在的非线性)交叉相关。


为了解决这个问题,在多任务学习方法的启发下,提出多输出LSSVR,具有更有效的训练算法。


2. 如何使用LSSVR


2.1. 命令行输入参数(&I)


[apha,b]=lssvrtrain(training_matrix,training_label,gamma,lambda,p)


  • -training_matrix:具有d个特征的d个训练实例的n乘d矩阵。
    -training_label:一个n乘1的训练标签向量。
    -gamma:正则化参数
    -lambda:另一个正则化参数
    -p:径向基函数(RBF)核参数

2.2. 主程序代码


clear all
clear
close all
load plo.mat
% trnX训练输入 trnY训练输出
gamma=0.5;%正则化参数
lambda=4;%第二个正则化参数
p=2;%径向基函数(RBF)核参数2 
[alpha, b] = lssvrtrain(trnX, trnY, gamma, lambda, p);
[predict_label, total_squared_error, squared_correlation_coefficient] = lssvrpre(tstX, tstY, trnX, alpha, b, lambda, p); 
%predict_label 预测结果
%total_squared_error 总平方误差
%squared_correlation_coefficient 平方相关系数
figure()
 for i=1:4
  subplot(2,2,i)
  plot(1:20,tstY(:,i),'-*','linewidth',2)
  hold on
  plot(1:20,predict_label(:,i),'-s','linewidth',2)
  legend('实际值','预测值')
  grid on
  xlabel('测试样本')
  ylabel(['因变量' num2str(i) ])    
  end


2.3. 绘图效果



3. 参数选择


% 为了选择具有10倍交叉验证的正确参数,可以使用以下实用程序:

[gamma1, lambda1, p1, MSE1] = gridlssvr(trnX, trnY, 10);

>> [gamma1, lambda1, p1, MSE1] = gridlssvr(trnX, trnY, 10)
>>运行结果:
gamma1 =  0.1250
lambda1 =  9.7656e-04
p1 =  0.1250
MSE1 =  0.0066
部分运行过程结果:
 - gamma = -5, lambda = 2, p = -15, mean_MSE = 0.0297534 (-5, -8, -1,
   0.00731226)
   gamma = 1, lambda = 2, p = -15, mean_MSE = 0.0296894 (-3, -10, -3,
   0.00662206)
   gamma = 3, lambda = -2, p = -1, mean_MSE = 0.00866048 (-3, -10, -3,
   0.00662206)   
   gamma = 5, lambda = -8, p = 1, mean_MSE = 0.0133859 (-3, -10, -3,
   0.00662206)   
   gamma = 7, lambda = 0, p = -3, mean_MSE = 0.00769552 (-3, -10, -3,
   0.00662206)   
   gamma = 9, lambda = 4, p = -1, mean_MSE = 0.0131262 (-3, -10, -3,
   0.00662206)   
   gamma = 11, lambda = 0, p = -13, mean_MSE = 0.0123533 (-3, -10, -3,
   0.00662206)
   gamma = 13, lambda = 4, p = -15, mean_MSE = 0.0130121 (-3, -10, -3,
   0.00662206)
   gamma = 15, lambda = -2, p = -9, mean_MSE = 0.00710635 (-3, -10, -3,
   0.00662206)


4. 总结


本次给大家分享了一种多输入多输出回归方法,可以用来丰富论文内容,作为对比模型。其旨在学习从多变量输入特征空间到多变量输出空间的映射,具有潜在的实用性。


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
4月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
4月前
|
算法 数据安全/隐私保护
基于GARCH-Copula-CVaR模型的金融系统性风险溢出效应matlab模拟仿真
本程序基于GARCH-Copula-CVaR模型,使用MATLAB2022A仿真金融系统性风险溢出效应。核心功能包括计算违约点、资产价值波动率、信用溢价及其直方图等指标。GARCH模型用于描述资产收益波动性,Copula捕捉依赖结构,CVaR度量极端风险。完整代码无水印输出。 具体步骤:首先通过GARCH模型估计单个资产的波动性,再利用Copula方法构建多资产联合分布,最后应用CVaR评估系统性风险。程序展示了详细的运行结果和图表分析,适用于金融市场风险量化研究。
|
5月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
|
4月前
|
算法 数据挖掘 数据安全/隐私保护
基于CS模型和CV模型的多目标协同滤波跟踪算法matlab仿真
本项目基于CS模型和CV模型的多目标协同滤波跟踪算法,旨在提高复杂场景下多个移动目标的跟踪精度和鲁棒性。通过融合目标间的关系和数据关联性,优化跟踪结果。程序在MATLAB2022A上运行,展示了真实轨迹与滤波轨迹的对比、位置及速度误差均值和均方误差等关键指标。核心代码包括对目标轨迹、速度及误差的详细绘图分析,验证了算法的有效性。该算法结合CS模型的初步聚类和CV模型的投票机制,增强了目标状态估计的准确性,尤其适用于遮挡、重叠和快速运动等复杂场景。
|
5月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
4月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本内容介绍了一种基于CNN-LSTM-SAM网络与鲸鱼优化算法(WOA)的时间序列预测方法。算法运行于Matlab2022a,完整程序无水印并附带中文注释及操作视频。核心流程包括数据归一化、种群初始化、适应度计算及参数更新,最终输出最优网络参数完成预测。CNN层提取局部特征,LSTM层捕捉长期依赖关系,自注意力机制聚焦全局特性,全连接层整合特征输出结果,适用于复杂非线性时间序列预测任务。
|
5月前
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。
|
4月前
|
算法 数据处理 数据安全/隐私保护
分别通过LS和RML进行模型参数辨识matlab仿真
本程序通过最小二乘法(LS)和递归最大似然估计(RML)进行模型参数辨识,并在MATLAB2022A中仿真。仿真输出包括参数辨识误差及收敛值。程序展示了两种方法的参数估计值及其误差收敛情况,适用于控制系统设计与分析。最小二乘法适合离线批量处理,而RML则适用于实时在线处理。核心代码实现了LS辨识,并绘制了参数估计值和误差变化图。
|
11月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
435 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
|
11月前
|
存储 算法 搜索推荐
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
本文提供了2022年华为杯数学建模竞赛B题的详细方案和MATLAB代码实现,包括方形件组批优化问题和排样优化问题,以及相关数学模型的建立和求解方法。
263 3
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现

热门文章

最新文章