【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数

【MATLAB第15期】基于matlab的多输入多输出最小二乘支持向量回归法LSSVR回归预测模型#十次交叉验证选择最优参数


1. 介绍


1.1. 描述


多输出回归旨在学习从多变量输入特征空间到多变量输出空间的映射。尽管最小二乘支持向量回归机(LSSVR)的标准公式具有潜在的实用性,但它不能处理多输出情况。通常的程序是训练多个独立的LSSVR,从而忽略不同输出之间潜在的(潜在的非线性)交叉相关。


为了解决这个问题,在多任务学习方法的启发下,提出多输出LSSVR,具有更有效的训练算法。


2. 如何使用LSSVR


2.1. 命令行输入参数(&I)


[apha,b]=lssvrtrain(training_matrix,training_label,gamma,lambda,p)


  • -training_matrix:具有d个特征的d个训练实例的n乘d矩阵。
    -training_label:一个n乘1的训练标签向量。
    -gamma:正则化参数
    -lambda:另一个正则化参数
    -p:径向基函数(RBF)核参数

2.2. 主程序代码


clear all
clear
close all
load plo.mat
% trnX训练输入 trnY训练输出
gamma=0.5;%正则化参数
lambda=4;%第二个正则化参数
p=2;%径向基函数(RBF)核参数2 
[alpha, b] = lssvrtrain(trnX, trnY, gamma, lambda, p);
[predict_label, total_squared_error, squared_correlation_coefficient] = lssvrpre(tstX, tstY, trnX, alpha, b, lambda, p); 
%predict_label 预测结果
%total_squared_error 总平方误差
%squared_correlation_coefficient 平方相关系数
figure()
 for i=1:4
  subplot(2,2,i)
  plot(1:20,tstY(:,i),'-*','linewidth',2)
  hold on
  plot(1:20,predict_label(:,i),'-s','linewidth',2)
  legend('实际值','预测值')
  grid on
  xlabel('测试样本')
  ylabel(['因变量' num2str(i) ])    
  end


2.3. 绘图效果



3. 参数选择


% 为了选择具有10倍交叉验证的正确参数,可以使用以下实用程序:

[gamma1, lambda1, p1, MSE1] = gridlssvr(trnX, trnY, 10);

>> [gamma1, lambda1, p1, MSE1] = gridlssvr(trnX, trnY, 10)
>>运行结果:
gamma1 =  0.1250
lambda1 =  9.7656e-04
p1 =  0.1250
MSE1 =  0.0066
部分运行过程结果:
 - gamma = -5, lambda = 2, p = -15, mean_MSE = 0.0297534 (-5, -8, -1,
   0.00731226)
   gamma = 1, lambda = 2, p = -15, mean_MSE = 0.0296894 (-3, -10, -3,
   0.00662206)
   gamma = 3, lambda = -2, p = -1, mean_MSE = 0.00866048 (-3, -10, -3,
   0.00662206)   
   gamma = 5, lambda = -8, p = 1, mean_MSE = 0.0133859 (-3, -10, -3,
   0.00662206)   
   gamma = 7, lambda = 0, p = -3, mean_MSE = 0.00769552 (-3, -10, -3,
   0.00662206)   
   gamma = 9, lambda = 4, p = -1, mean_MSE = 0.0131262 (-3, -10, -3,
   0.00662206)   
   gamma = 11, lambda = 0, p = -13, mean_MSE = 0.0123533 (-3, -10, -3,
   0.00662206)
   gamma = 13, lambda = 4, p = -15, mean_MSE = 0.0130121 (-3, -10, -3,
   0.00662206)
   gamma = 15, lambda = -2, p = -9, mean_MSE = 0.00710635 (-3, -10, -3,
   0.00662206)


4. 总结


本次给大家分享了一种多输入多输出回归方法,可以用来丰富论文内容,作为对比模型。其旨在学习从多变量输入特征空间到多变量输出空间的映射,具有潜在的实用性。


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
8天前
|
资源调度 监控 算法
基于扩频解扩+LDPC编译码的QPSK图传通信系统matlab误码率仿真,扩频参数可设置
该通信系统主要用于高质量图像传输,如无人机、视频监控等场景。系统采用QPSK调制解调、扩频技术和LDPC译码,确保复杂电磁环境下的稳定性和清晰度。MATLAB仿真(2022a)验证了算法效果,核心程序包括信道编码、调制、扩频及解调等步骤,通过AWGN信道测试不同SNR下的性能表现。
34 6
基于扩频解扩+LDPC编译码的QPSK图传通信系统matlab误码率仿真,扩频参数可设置
|
4天前
|
监控 算法 数据安全/隐私保护
基于扩频解扩+LDPC编译码的16QAM图传通信系统matlab误码率仿真,扩频参数可设置
该通信系统主要用于高质量图像传输,适用于无人机、视频监控等场景。系统采用16QAM调制解调、扩频技术和LDPC译码,确保复杂电磁环境下的稳定性和清晰度。MATLAB 2022a仿真结果显示图像传输效果良好,附带的操作视频详细介绍了仿真步骤。核心代码实现了图像的二进制转换、矩阵重组及RGB合并,确保图像正确显示并保存为.mat文件。
31 20
|
11天前
|
机器学习/深度学习 算法 数据安全/隐私保护
数据链中常见电磁干扰matlab仿真,对比噪声调频,线性调频,噪声,扫频,灵巧五种干扰模型
本项目展示了用于分析和模拟电磁干扰对数据链系统影响的算法。通过Matlab 2022a运行,提供无水印效果图预览。完整代码包含详细中文注释及操作视频。理论部分涵盖五种常见干扰模型:噪声调频、线性调频、噪声、扫频和灵巧干扰,详细介绍其原理并进行对比分析。灵巧干扰采用智能技术如认知无线电和机器学习,自适应调整干扰策略以优化效果。
|
13天前
|
监控 算法 数据安全/隐私保护
基于扩频解扩+turbo译码的64QAM图传通信系统matlab误码率仿真,扩频参数可设置
该通信系统基于MATLAB 2022a仿真,适用于高要求的图像传输场景(如无人机、视频监控等),采用64QAM调制解调、扩频技术和Turbo译码提高抗干扰能力。发射端包括图像源、64QAM调制器、扩频器等;接收端则有解扩器、64QAM解调器和Turbo译码器等。核心程序实现图像传输的编码、调制、信道传输及解码,确保图像质量和传输可靠性。
47 16
|
1月前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
19天前
|
算法
基于Adaboost模型的数据预测和分类matlab仿真
AdaBoost(Adaptive Boosting)是一种由Yoav Freund和Robert Schapire于1995年提出的集成学习方法,旨在通过迭代训练多个弱分类器并赋予分类效果好的弱分类器更高权重,最终构建一个强分类器。该方法通过逐步调整样本权重,使算法更关注前一轮中被误分类的样本,从而逐步优化模型。示例代码在MATLAB 2022A版本中运行,展示了随着弱分类器数量增加,分类错误率的变化及测试数据的分类结果。
|
25天前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
1月前
|
算法
基于GA遗传算法的PID控制器参数优化matlab建模与仿真
本项目基于遗传算法(GA)优化PID控制器参数,通过空间状态方程构建控制对象,自定义GA的选择、交叉、变异过程,以提高PID控制性能。与使用通用GA工具箱相比,此方法更灵活、针对性强。MATLAB2022A环境下测试,展示了GA优化前后PID控制效果的显著差异。核心代码实现了遗传算法的迭代优化过程,最终通过适应度函数评估并选择了最优PID参数,显著提升了系统响应速度和稳定性。
156 15
|
5月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
247 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
|
5月前
|
存储 算法 搜索推荐
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
本文提供了2022年华为杯数学建模竞赛B题的详细方案和MATLAB代码实现,包括方形件组批优化问题和排样优化问题,以及相关数学模型的建立和求解方法。
147 3
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现