ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)来比较各模型性能

简介: ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)来比较各模型性能

输出结

image.png

image.png

image.png

数据的初步查验:输出回归目标值的差异

The max target value is 50.0

The min target value is 5.0

The average target value is 22.532806324110677

LiR:The value of default measurement of LiR is 0.6763403830998702

LiR:R-squared value of DecisionTreeRegressor: 0.6763403830998702

LiR:The mean squared error of DecisionTreeRegressor: 25.096985692067726

LiR:The mean absoluate error of DecisionTreeRegressor: 3.5261239963985433

kNNR_uni:The value of default measurement of kNNR_uni is 0.6903454564606561

kNNR_uni:R-squared value of DecisionTreeRegressor: 0.6903454564606561

kNNR_uni:The mean squared error of DecisionTreeRegressor: 24.01101417322835

kNNR_uni:The mean absoluate error of DecisionTreeRegressor: 2.9680314960629928

kNNR_dis:The value of default measurement of kNNR_dis is 0.7197589970156353

kNNR_dis:R-squared value of DecisionTreeRegressor: 0.7197589970156353

kNNR_dis:The mean squared error of DecisionTreeRegressor: 21.730250160926044

kNNR_dis:The mean absoluate error of DecisionTreeRegressor: 2.8050568785108005

linear_SVR:The value of default measurement of linear_SVR is 0.651717097429608

linear_SVR:R-squared value of DecisionTreeRegressor: 0.651717097429608

linear_SVR:The mean squared error of DecisionTreeRegressor: 27.0063071393243

linear_SVR:The mean absoluate error of DecisionTreeRegressor: 3.426672916872753

poly_SVR:The value of default measurement of poly_SVR is 0.40445405800289286

poly_SVR:R-squared value of DecisionTreeRegressor: 0.4044540580028929

poly_SVR:The mean squared error of DecisionTreeRegressor: 46.1794033139523

poly_SVR:The mean absoluate error of DecisionTreeRegressor: 3.75205926674149

rbf_SVR:The value of default measurement of rbf_SVR is 0.7564068912273935

rbf_SVR:R-squared value of DecisionTreeRegressor: 0.7564068912273935

rbf_SVR:The mean squared error of DecisionTreeRegressor: 18.888525000753493

rbf_SVR:The mean absoluate error of DecisionTreeRegressor: 2.6075632979823276

DTR:The value of default measurement of DTR is 0.699313885811367

DTR:R-squared value of DecisionTreeRegressor: 0.699313885811367

DTR:The mean squared error of DecisionTreeRegressor: 23.31559055118111

DTR:The mean absoluate error of DecisionTreeRegressor: 3.1716535433070865

RFR:The value of default measurement of RFR is 0.8320900865862684

RFR:R-squared value of DecisionTreeRegressor: 0.8320900865862684

RFR:The mean squared error of DecisionTreeRegressor: 13.019952055992995

RFR:The mean absoluate error of DecisionTreeRegressor: 2.3392650918635174

ETR:The value of default measurement of ETR is 0.7595247600325825

ETR:R-squared value of DecisionTreeRegressor: 0.7595247600325824

ETR:The mean squared error of DecisionTreeRegressor: 18.646761417322832

ETR:The mean absoluate error of DecisionTreeRegressor: 2.5487401574803146

SGDR:The value of default measurement of SGDR is 0.6525677025033261

SGDR:R-squared value of DecisionTreeRegressor: 0.6525677025033261

SGDR:The mean squared error of DecisionTreeRegressor: 26.940350120746693

SGDR:The mean absoluate error of DecisionTreeRegressor: 3.524049659554681

GBR:The value of default measurement of GBR is 0.8442966156976921

GBR:R-squared value of DecisionTreeRegressor: 0.8442966156976921

GBR:The mean squared error of DecisionTreeRegressor: 12.07344198657727

GBR:The mean absoluate error of DecisionTreeRegressor: 2.2692783233003326

[LightGBM] [Warning] feature_fraction is set=0.6, colsample_bytree=1.0 will be ignored. Current value: feature_fraction=0.6

[LightGBM] [Warning] min_data_in_leaf is set=18, min_child_samples=20 will be ignored. Current value: min_data_in_leaf=18

[LightGBM] [Warning] min_sum_hessian_in_leaf is set=0.001, min_child_weight=0.001 will be ignored. Current value: min_sum_hessian_in_leaf=0.001

[LightGBM] [Warning] bagging_fraction is set=0.7, subsample=1.0 will be ignored. Current value: bagging_fraction=0.7

LGBR:The value of default measurement of LGBR is 0.824979251097139

LGBR:R-squared value of DecisionTreeRegressor: 0.824979251097139

LGBR:The mean squared error of DecisionTreeRegressor: 13.5713354452417

LGBR:The mean absoluate error of DecisionTreeRegressor: 2.3653297699911455

[0.6763403830998702, 0.6903454564606561, 0.7197589970156353, 0.651717097429608, 0.40445405800289286, 0.7564068912273935, 0.699313885811367, 0.8320900865862684, 0.7595247600325825, 0.6525677025033261, 0.8442966156976921, 0.824979251097139]

{'learning_rate': 0.09, 'max_depth': 4, 'n_estimators': 200}

rmse: 0.37116076328428194

XGBR_grid:The value of default measurement of XGBR_grid is -0.1355992935386311

XGBR_grid:R-squared value of DecisionTreeRegressor: 0.8494067182200448

XGBR_grid:The mean squared error of DecisionTreeRegressor: 11.67719810423491

XGBR_grid:The mean absoluate error of DecisionTreeRegressor: 2.156086404304805


 

设计思

image.png

image.png

 


相关文章
|
3天前
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。
|
1月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
1月前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
266 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
1月前
|
机器学习/深度学习 算法 网络安全
CCS 2024:如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
在2024年CCS会议上,苏黎世联邦理工学院的研究人员提出,当前对机器学习隐私保护措施的评估可能存在严重误导。研究通过LiRA攻击评估了五种经验性隐私保护措施(HAMP、RelaxLoss、SELENA、DFKD和SSL),发现现有方法忽视最脆弱数据点、使用较弱攻击且未与实际差分隐私基线比较。结果表明这些措施在更强攻击下表现不佳,而强大的差分隐私基线则提供了更好的隐私-效用权衡。
52 14
|
2月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
2月前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
91 2
|
2天前
|
算法 数据安全/隐私保护 计算机视觉
基于FPGA的图像双线性插值算法verilog实现,包括tb测试文件和MATLAB辅助验证
本项目展示了256×256图像通过双线性插值放大至512×512的效果,无水印展示。使用Matlab 2022a和Vivado 2019.2开发,提供完整代码及详细中文注释、操作视频。核心程序实现图像缩放,并在Matlab中验证效果。双线性插值算法通过FPGA高效实现图像缩放,确保质量。
|
1月前
|
算法 数据安全/隐私保护 计算机视觉
基于Retinex算法的图像去雾matlab仿真
本项目展示了基于Retinex算法的图像去雾技术。完整程序运行效果无水印,使用Matlab2022a开发。核心代码包含详细中文注释和操作步骤视频。Retinex理论由Edwin Land提出,旨在分离图像的光照和反射分量,增强图像对比度、颜色和细节,尤其在雾天条件下表现优异,有效解决图像去雾问题。
|
1月前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
147 68
|
1月前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。

热门文章

最新文章