ML之回归预测:利用八(9-1)种机器学习算法对无人驾驶汽车参数(2017年的data,18+2)进行回归预测值VS真实值(二)

简介: ML之回归预测:利用八(9-1)种机器学习算法对无人驾驶汽车参数(2017年的data,18+2)进行回归预测值VS真实值

1.2、模型性能评估及输出预测值


各个模型结果


LiR LiR:The value of default measurement of LiR is 0.4125342966025278

LiR:R-squared value of DecisionTreeRegressor: 0.41253429660252783

LiR:The mean squared error of DecisionTreeRegressor: 5.687204916076843

LiR:The mean absoluate error of DecisionTreeRegressor: 1.688779184910588

LiR:测试1131~1138行数据,

[[0.39260249]

[0.56158086]

[0.66445704]

[0.75795626]

[0.83294215]

[0.84325901]]  

SVM

linear_SVR:The value of default measurement of linear_SVR is 0.5024128304336872

linear_SVR:R-squared value of DecisionTreeRegressor: 0.5024128304336872

linear_SVR:The mean squared error of DecisionTreeRegressor: 4.817098565189997

linear_SVR:The mean absoluate error of DecisionTreeRegressor: 1.4822824851546261

linear_SVR:测试1131~1138行数据,

[0.68489265 0.8230609  0.88380302 0.95656835 0.98611563 1.02264102]


poly_SVR:The value of default measurement of poly_SVR is 0.5371358572097877

poly_SVR:R-squared value of DecisionTreeRegressor: 0.5371358572097877

poly_SVR:The mean squared error of DecisionTreeRegressor: 4.4809479313061065

poly_SVR:The mean absoluate error of DecisionTreeRegressor: 1.1042932962440708

poly_SVR:测试1131~1138行数据,

[0.74006387 0.99232855 1.02709907 1.04999397 1.01658734 0.99276056]


rbf_SVR:The value of default measurement of rbf_SVR is 0.7419598320911289

rbf_SVR:R-squared value of DecisionTreeRegressor: 0.7419598320911289

rbf_SVR:The mean squared error of DecisionTreeRegressor: 2.4980646580549646

rbf_SVR:The mean absoluate error of DecisionTreeRegressor: 1.0023906945802386

rbf_SVR:测试1131~1138行数据,

[0.87034053 0.94602667 0.9724284  1.01138968 1.00514582 1.03902654]

DT DTR:The value of default measurement of DTR is -0.034791814149233824

DTR:R-squared value of DecisionTreeRegressor: -0.034791814149233824

DTR:The mean squared error of DecisionTreeRegressor: 10.0177304964539

DTR:The mean absoluate error of DecisionTreeRegressor: 1.4078014184397163

DTR:测试1131~1138行数据,

[1.44129906 1.1913833  1.1913833  1.1913833  1.1913833  0.94146754]  

RF RFR:The value of default measurement of RFR is 0.7143901333350653

RFR:R-squared value of DecisionTreeRegressor: 0.7143901333350653

RFR:The mean squared error of DecisionTreeRegressor: 2.7649645390070923

RFR:The mean absoluate error of DecisionTreeRegressor: 1.0191489361702128

RFR:测试1131~1138行数据,  

ETR ETR:The value of default measurement of ETR is 0.7895434913913477

ETR:R-squared value of DecisionTreeRegressor: 0.7895434913913478

ETR:The mean squared error of DecisionTreeRegressor: 2.0374113475177302

ETR:The mean absoluate error of DecisionTreeRegressor: 0.9790780141843972

ETR:测试1131~1138行数据,

[1.29134961 1.01644227 1.04143384 1.16639172 1.14140015 1.09141699]  

GB/GD

SGDR:The value of default measurement of SGDR is 0.28663918777885733

SGDR:R-squared value of DecisionTreeRegressor: 0.28663918777885733

SGDR:The mean squared error of DecisionTreeRegressor: 6.905984629805215

SGDR:The mean absoluate error of DecisionTreeRegressor: 1.8298880068703798

SGDR:测试1131~1138行数据,

[0.72109893 0.74773439 0.75200051 0.74284389 0.74950052 0.71633365]


GBR:The value of default measurement of GBR is 0.33837779185765615

GBR:R-squared value of DecisionTreeRegressor: 0.33837779185765615

GBR:The mean squared error of DecisionTreeRegressor: 6.405107656449695

GBR:The mean absoluate error of DecisionTreeRegressor: 1.0884549292443049

GBR:测试1131~1138行数据,

[1.26085339 1.24070607 1.17201814 1.20110767 1.23182112 1.24516423]

LGB

[LightGBM] [Warning] feature_fraction is set=0.6, colsample_bytree=1.0 will be ignored. Current value: feature_fraction=0.6

[LightGBM] [Warning] min_data_in_leaf is set=18, min_child_samples=20 will be ignored. Current value: min_data_in_leaf=18

[LightGBM] [Warning] min_sum_hessian_in_leaf is set=0.001, min_child_weight=0.001 will be ignored. Current value: min_sum_hessian_in_leaf=0.001

[LightGBM] [Warning] bagging_fraction is set=0.7, subsample=1.0 will be ignored. Current value: bagging_fraction=0.7


LGB:The value of default measurement of LGB is 0.7889733551704177

LGB:R-squared value of DecisionTreeRegressor: 0.7889733551704177

LGB:The mean squared error of DecisionTreeRegressor: 2.042930787205453

LGB:The mean absoluate error of DecisionTreeRegressor: 1.0168020659984283

LGB:测试1131~1138行数据,

[1.3993656  0.91062936 1.22062928 1.34866033 1.06943559 1.11018125]


2、在【12.9,13.0】环境下


2.1、 输出预测值

image.png

image.png

image.png

3、在【12.8,13.0】环境下


3.1、 输出预测值

image.png

image.png

image.png




相关文章
|
4月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
|
10月前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
976 6
|
5月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
202 6
|
7月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
8月前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
1336 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
8月前
|
机器学习/深度学习 算法 网络安全
CCS 2024:如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
在2024年CCS会议上,苏黎世联邦理工学院的研究人员提出,当前对机器学习隐私保护措施的评估可能存在严重误导。研究通过LiRA攻击评估了五种经验性隐私保护措施(HAMP、RelaxLoss、SELENA、DFKD和SSL),发现现有方法忽视最脆弱数据点、使用较弱攻击且未与实际差分隐私基线比较。结果表明这些措施在更强攻击下表现不佳,而强大的差分隐私基线则提供了更好的隐私-效用权衡。
204 14
|
7月前
|
人工智能 编解码 算法
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
115 0
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
解锁机器学习的新维度:元学习的算法与应用探秘
元学习作为一个重要的研究领域,正逐渐在多个应用领域展现其潜力。通过理解和应用元学习的基本算法,研究者可以更好地解决在样本不足或任务快速变化的情况下的学习问题。随着研究的深入,元学习有望在人工智能的未来发展中发挥更大的作用。
|
9月前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
234 2

热门文章

最新文章