ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

本文涉及的产品
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

目录

利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

设计思路

输出结果

核心代码


 

 

 

相关文章

ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测实现

 

利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

设计思路

 

 

 

输出结果

1. train_boston_data.shape (1460, 81)
2.    Id  MSSubClass MSZoning  ...  SaleType  SaleCondition SalePrice
3. 0   1          60       RL  ...        WD         Normal    208500
4. 1   2          20       RL  ...        WD         Normal    181500
5. 2   3          60       RL  ...        WD         Normal    223500
6. 3   4          70       RL  ...        WD        Abnorml    140000
7. 4   5          60       RL  ...        WD         Normal    250000
8. 
9. [5 rows x 81 columns]
10. train_t.head()    LotFrontage  GarageArea  SalePrice
11. 0         65.0         548     208500
12. 1         80.0         460     181500
13. 2         68.0         608     223500
14. 3         60.0         642     140000
15. 4         84.0         836     250000
16. after scale,train_t.head()    LotFrontage  GarageArea  SalePrice
17. 0     0.207668    0.386460   0.276159
18. 1     0.255591    0.324401   0.240397
19. 2     0.217252    0.428773   0.296026
20. 3     0.191693    0.452750   0.185430
21. 4     0.268371    0.589563   0.331126
22.    LotFrontage  GarageArea
23. 0     0.207668    0.386460
24. 1     0.255591    0.324401
25. 2     0.217252    0.428773
26. 3     0.191693    0.452750
27. 4     0.268371    0.589563
28.                      Id  MSSubClass  LotFrontage  ...    MoSold    YrSold  SalePrice
29. Id             1.000000    0.011156    -0.010601  ...  0.021172  0.000712  -0.021917
30. MSSubClass     0.011156    1.000000    -0.386347  ... -0.013585 -0.021407  -0.084284
31. LotFrontage   -0.010601   -0.386347     1.000000  ...  0.011200  0.007450   0.351799
32. LotArea       -0.033226   -0.139781     0.426095  ...  0.001205 -0.014261   0.263843
33. OverallQual   -0.028365    0.032628     0.251646  ...  0.070815 -0.027347   0.790982
34. OverallCond    0.012609   -0.059316    -0.059213  ... -0.003511  0.043950  -0.077856
35. YearBuilt     -0.012713    0.027850     0.123349  ...  0.012398 -0.013618   0.522897
36. YearRemodAdd  -0.021998    0.040581     0.088866  ...  0.021490  0.035743   0.507101
37. MasVnrArea    -0.050298    0.022936     0.193458  ... -0.005965 -0.008201   0.477493
38. BsmtFinSF1    -0.005024   -0.069836     0.233633  ... -0.015727  0.014359   0.386420
39. BsmtFinSF2    -0.005968   -0.065649     0.049900  ... -0.015211  0.031706  -0.011378
40. BsmtUnfSF     -0.007940   -0.140759     0.132644  ...  0.034888 -0.041258   0.214479
41. TotalBsmtSF   -0.015415   -0.238518     0.392075  ...  0.013196 -0.014969   0.613581
42. 1stFlrSF       0.010496   -0.251758     0.457181  ...  0.031372 -0.013604   0.605852
43. 2ndFlrSF       0.005590    0.307886     0.080177  ...  0.035164 -0.028700   0.319334
44. LowQualFinSF  -0.044230    0.046474     0.038469  ... -0.022174 -0.028921  -0.025606
45. GrLivArea      0.008273    0.074853     0.402797  ...  0.050240 -0.036526   0.708624
46. BsmtFullBath   0.002289    0.003491     0.100949  ... -0.025361  0.067049   0.227122
47. BsmtHalfBath  -0.020155   -0.002333    -0.007234  ...  0.032873 -0.046524  -0.016844
48. FullBath       0.005587    0.131608     0.198769  ...  0.055872 -0.019669   0.560664
49. HalfBath       0.006784    0.177354     0.053532  ... -0.009050 -0.010269   0.284108
50. BedroomAbvGr   0.037719   -0.023438     0.263170  ...  0.046544 -0.036014   0.168213
51. KitchenAbvGr   0.002951    0.281721    -0.006069  ...  0.026589  0.031687  -0.135907
52. TotRmsAbvGrd   0.027239    0.040380     0.352096  ...  0.036907 -0.034516   0.533723
53. Fireplaces    -0.019772   -0.045569     0.266639  ...  0.046357 -0.024096   0.466929
54. GarageYrBlt    0.000072    0.085072     0.070250  ...  0.005337 -0.001014   0.486362
55. GarageCars     0.016570   -0.040110     0.285691  ...  0.040522 -0.039117   0.640409
56. GarageArea     0.017634   -0.098672     0.344997  ...  0.027974 -0.027378   0.623431
57. WoodDeckSF    -0.029643   -0.012579     0.088521  ...  0.021011  0.022270   0.324413
58. OpenPorchSF   -0.000477   -0.006100     0.151972  ...  0.071255 -0.057619   0.315856
59. EnclosedPorch  0.002889   -0.012037     0.010700  ... -0.028887 -0.009916  -0.128578
60. 3SsnPorch     -0.046635   -0.043825     0.070029  ...  0.029474  0.018645   0.044584
61. ScreenPorch    0.001330   -0.026030     0.041383  ...  0.023217  0.010694   0.111447
62. PoolArea       0.057044    0.008283     0.206167  ... -0.033737 -0.059689   0.092404
63. MiscVal       -0.006242   -0.007683     0.003368  ... -0.006495  0.004906  -0.021190
64. MoSold         0.021172   -0.013585     0.011200  ...  1.000000 -0.145721   0.046432
65. YrSold         0.000712   -0.021407     0.007450  ... -0.145721  1.000000  -0.028923
66. SalePrice     -0.021917   -0.084284     0.351799  ...  0.046432 -0.028923   1.000000
67. 
68. [38 rows x 38 columns]
69. coef and intercept:  [0.21627565 0.41024884] 0.0543428481373919
70. cost after log: -3.850369422061899 -4.52343070892457
71. best w1 and w2 after GD: 0.10003438525600654 0.30004957896248946

 

 

 

核心代码

1. LiR = linear_model.LinearRegression()
2. LiR.fit(X_train, y_train)
3. print('coef and intercept: ',LiR.coef_,LiR.intercept_)
4. 
5. def CalCostByW(train_df,slope):
6.     w1_lists=[];w2_lists=[];cost_lists=[]
7. for i in range (30):
8. for j in range(30):
9.             w1= slope*i+0.1
10.             w2= slope*j+0.3
11.             w1_lists.append(w1); w2_lists.append(w2)
12.             cost_lists.append(cost(train_df,train_df.LotFrontage,train_df.GarageArea,w1,w2))
13. # print (cost(train_df))
14. return w1_lists,w2_lists,cost_lists
15. w1_lists,w2_lists,cost_lists=CalCostByW(train_t,0.01)

 


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
7月前
|
算法 Shell
通信系统中ZF,ML,MRC以及MMSE四种信号检测算法误码率matlab对比仿真
通信系统中ZF,ML,MRC以及MMSE四种信号检测算法误码率matlab对比仿真
|
机器学习/深度学习 传感器 算法
基于ML算法、Schmidl & Cox算法、Minn算法、Park 算法实现OFDM系统的时间同步附matlab代码
基于ML算法、Schmidl & Cox算法、Minn算法、Park 算法实现OFDM系统的时间同步附matlab代码
|
算法 5G Windows
m基于MIMO通信系统的半盲信道估计算法matlab仿真,包括QPSK,ML检测,Turbo编译码等
m基于MIMO通信系统的半盲信道估计算法matlab仿真,包括QPSK,ML检测,Turbo编译码等
145 0
|
机器学习/深度学习 传感器 算法
【智能优化算法-灰狼算法】基于内存、进化算子和局部搜索的改进灰狼优化器附matlab代码
【智能优化算法-灰狼算法】基于内存、进化算子和局部搜索的改进灰狼优化器附matlab代码
|
机器学习/深度学习 存储 移动开发
【ML】matlab和python实现SVD(奇异值分解)算法
matlab和python实现SVD(奇异值分解)算法
【ML】matlab和python实现SVD(奇异值分解)算法
|
机器学习/深度学习 算法 数据可视化
|
1天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
102 80
|
20天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
26天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
6天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。