ML之LiR&DNN&EL:基于skflow的LiR、DNN、sklearn的RF对Boston(波士顿房价)数据集进行回归预测(房价)

简介: ML之LiR&DNN&EL:基于skflow的LiR、DNN、sklearn的RF对Boston(波士顿房价)数据集进行回归预测(房价)

输出结

image.png

 

设计思

image.png

 

核心代

tf_lr = skflow.TensorFlowLinearRegressor(steps=10000, learning_rate=0.01, batch_size=50)

tf_lr.fit(X_train, y_train)  

tf_lr_y_predict = tf_lr.predict(X_test)

tf_dnn_regressor = skflow.TensorFlowDNNRegressor(hidden_units=[100, 40],

   steps=10000, learning_rate=0.01, batch_size=50)

tf_dnn_regressor.fit(X_train, y_train)

tf_dnn_regressor_y_predict = tf_dnn_regressor.predict(X_test)

rfr = RandomForestRegressor()

rfr.fit(X_train, y_train)

rfr_y_predict = rfr.predict(X_test)



class TensorFlowLinearRegressor(TensorFlowEstimator, RegressorMixin):

   """TensorFlow Linear Regression model."""

   def __init__(self, n_classes=0, tf_master="", batch_size=32, steps=200, optimizer="SGD",

       learning_rate=0.1, tf_random_seed=42, continue_training=False,

       num_cores=4, verbose=1, early_stopping_rounds=None,

       max_to_keep=5, keep_checkpoint_every_n_hours=10000):

       super(TensorFlowLinearRegressor, self).__init__(model_fn=models.linear_regression,

        n_classes=n_classes, tf_master=tf_master, batch_size=batch_size, steps=steps,

        optimizer=optimizer, learning_rate=learning_rate, tf_random_seed=tf_random_seed,

        continue_training=continue_training, num_cores=num_cores, verbose=verbose,

        early_stopping_rounds=early_stopping_rounds, max_to_keep=max_to_keep,

        keep_checkpoint_every_n_hours=keep_checkpoint_every_n_hours)

 

   @property

   def weights_(self):

       """Returns weights of the linear regression."""

       return self.get_tensor_value('linear_regression/weights:0')

 

   @property

   def bias_(self):

       """Returns bias of the linear regression."""

       return self.get_tensor_value('linear_regression/bias:0')


相关文章
|
机器学习/深度学习 算法 数据可视化
基于PaddlePaddle框架对CIFAR-100数据集在简易CNN(LeNet-5修改)和简易DNN的效果对比
基于PaddlePaddle框架对CIFAR-100数据集在简易CNN(LeNet-5修改)和简易DNN的效果对比
318 0
基于PaddlePaddle框架对CIFAR-100数据集在简易CNN(LeNet-5修改)和简易DNN的效果对比
|
机器学习/深度学习 存储 数据采集
使用ML 和 DNN 建模的技巧总结
使用ML 和 DNN 建模的技巧总结
157 0
使用ML 和 DNN 建模的技巧总结
|
机器学习/深度学习 算法
DL之DNN:基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)
DL之DNN:基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)
|
机器学习/深度学习
DL之DNN:自定义MultiLayerNet【6*100+ReLU,SGD】对MNIST数据集训练进而比较【多个超参数组合最优化】性能
DL之DNN:自定义MultiLayerNet【6*100+ReLU,SGD】对MNIST数据集训练进而比较【多个超参数组合最优化】性能
DL之DNN:自定义MultiLayerNet【6*100+ReLU,SGD】对MNIST数据集训练进而比较【多个超参数组合最优化】性能
|
机器学习/深度学习
DL之DNN:利用MultiLayerNetExtend模型【6*100+ReLU+SGD,dropout】对Mnist数据集训练来抑制过拟合
DL之DNN:利用MultiLayerNetExtend模型【6*100+ReLU+SGD,dropout】对Mnist数据集训练来抑制过拟合
DL之DNN:利用MultiLayerNetExtend模型【6*100+ReLU+SGD,dropout】对Mnist数据集训练来抑制过拟合
|
机器学习/深度学习
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD,weight_decay】对Mnist数据集训练来抑制过拟合
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD,weight_decay】对Mnist数据集训练来抑制过拟合
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD,weight_decay】对Mnist数据集训练来抑制过拟合
|
机器学习/深度学习
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD】对Mnist数据集训练来理解过拟合现象
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD】对Mnist数据集训练来理解过拟合现象
DL之DNN:利用MultiLayerNet模型【6*100+ReLU+SGD】对Mnist数据集训练来理解过拟合现象
|
机器学习/深度学习 算法
DL之DNN优化技术:自定义MultiLayerNetExtend算法(BN层使用/不使用+权重初始值不同)对Mnist数据集训练评估学习过程
DL之DNN优化技术:自定义MultiLayerNetExtend算法(BN层使用/不使用+权重初始值不同)对Mnist数据集训练评估学习过程
DL之DNN优化技术:自定义MultiLayerNetExtend算法(BN层使用/不使用+权重初始值不同)对Mnist数据集训练评估学习过程
|
机器学习/深度学习
DL之DNN优化技术:自定义MultiLayerNet【5*100+ReLU】对MNIST数据集训练进而比较三种权重初始值(Xavier参数初始化、He参数初始化)性能差异
DL之DNN优化技术:自定义MultiLayerNet【5*100+ReLU】对MNIST数据集训练进而比较三种权重初始值(Xavier参数初始化、He参数初始化)性能差异
DL之DNN优化技术:自定义MultiLayerNet【5*100+ReLU】对MNIST数据集训练进而比较三种权重初始值(Xavier参数初始化、He参数初始化)性能差异
|
机器学习/深度学习 算法 Python
DL之DNN:自定义MultiLayerNet(5*100+ReLU+SGD/Momentum/AdaGrad/Adam四种最优化)对MNIST数据集训练进而比较不同方法的性能
DL之DNN:自定义MultiLayerNet(5*100+ReLU+SGD/Momentum/AdaGrad/Adam四种最优化)对MNIST数据集训练进而比较不同方法的性能
DL之DNN:自定义MultiLayerNet(5*100+ReLU+SGD/Momentum/AdaGrad/Adam四种最优化)对MNIST数据集训练进而比较不同方法的性能

热门文章

最新文章

下一篇
无影云桌面