DL之LSTM:基于tensorflow框架利用LSTM算法对气温数据集训练并回归预测

简介: DL之LSTM:基于tensorflow框架利用LSTM算法对气温数据集训练并回归预测


目录

输出结果

核心代码


 

 

 

输出结果

数据集

 

tensorboard可视化

 

1. iter: 0 loss: 0.010328549
2. iter: 500 loss: 0.0044991444
3. iter: 1000 loss: 0.003714567
4. iter: 1500 loss: 0.0033356838
5. iter: 2000 loss: 0.003116763
6. iter: 2500 loss: 0.0029606873
7. iter: 3000 loss: 0.0028696475
8. iter: 3500 loss: 0.0026985144
9. iter: 4000 loss: 0.0025833827
10. iter: 4500 loss: 0.0024938423
11. iter: 5000 loss: 0.0024183288
12. iter: 5500 loss: 0.0023511213
13. iter: 6000 loss: 0.0022882319
14. iter: 6500 loss: 0.0022265154
15. iter: 7000 loss: 0.002163515
16. iter: 7500 loss: 0.0020974649
17. iter: 8000 loss: 0.0020275544
18. iter: 8500 loss: 0.0019528335
19. iter: 9000 loss: 0.0018700107
20. iter: 9500 loss: 0.0017752206
21. iter: 10000 loss: 0.0016714178
22. iter: 10500 loss: 0.0015757289
23. iter: 11000 loss: 0.0015021019
24. iter: 11500 loss: 0.0014435991
25. iter: 12000 loss: 0.0013950231
26. iter: 12500 loss: 0.0013551206
27. iter: 13000 loss: 0.0013215576
28. iter: 13500 loss: 0.0012917771
29. iter: 14000 loss: 0.0012640483
30. iter: 14500 loss: 0.0012376485
31. iter: 15000 loss: 0.0012124979
32. iter: 15500 loss: 0.0011886061
33. iter: 16000 loss: 0.0011660281
34. iter: 16500 loss: 0.0011447266
35. iter: 17000 loss: 0.0011244208
36. iter: 17500 loss: 0.001104528
37. iter: 18000 loss: 0.0010844271
38. iter: 18500 loss: 0.0010633252
39. iter: 19000 loss: 0.0010399523
40. iter: 19500 loss: 0.001011961
41. iter: 20000 loss: 0.00097585854
42. iter: 20500 loss: 0.00093142985
43. iter: 21000 loss: 0.00089110696
44. iter: 21500 loss: 0.00086476567
45. iter: 22000 loss: 0.00084816053
46. iter: 22500 loss: 0.0008364689
47. iter: 23000 loss: 0.00082719745
48. iter: 23500 loss: 0.000819149
49. iter: 24000 loss: 0.00081174297
50. iter: 24500 loss: 0.00080478605
51. iter: 25000 loss: 0.0007982892
52. iter: 25500 loss: 0.00079225213
53. iter: 26000 loss: 0.0007866463
54. iter: 26500 loss: 0.0007813923
55. iter: 27000 loss: 0.00077644055
56. iter: 27500 loss: 0.00077167765
57. iter: 28000 loss: 0.00076701824
58. iter: 28500 loss: 0.0007624052
59. iter: 29000 loss: 0.00075781584
60. iter: 29500 loss: 0.00075323426
61. iter: 30000 loss: 0.0007487352
62. iter: 30500 loss: 0.00074437447
63. iter: 31000 loss: 0.000740188
64. iter: 31500 loss: 0.00073620223
65. iter: 32000 loss: 0.0007323837
66. iter: 32500 loss: 0.00072883896
67. iter: 33000 loss: 0.0007253971
68. iter: 33500 loss: 0.0007672859
69. iter: 34000 loss: 0.00074850733
70. iter: 34500 loss: 0.0007547441
71. iter: 35000 loss: 0.00075676554
72. iter: 35500 loss: 0.00075801736
73. iter: 36000 loss: 0.00075870997
74. iter: 36500 loss: 0.0007588421
75. iter: 37000 loss: 0.0007584684
76. iter: 37500 loss: 0.00075732305
77. iter: 38000 loss: 0.0007555771
78. iter: 38500 loss: 0.00075331994
79. iter: 39000 loss: 0.0007502647
80. iter: 39500 loss: 0.00074706867

 

 

核心代码

DL之LSTM:基于tensorflow框架利用LSTM算法对气温数据集训练并预测

1. def LSTM(X):  
2.     batch_size=tf.shape(X)[0]
3.     time_step=tf.shape(X)[1]
4.     w_in=weights['in']
5.     b_in=biases['in']  
6. input=tf.reshape(X,[-1,input_size])  
7. 
8.     input_rnn=tf.matmul(input,w_in)+b_in
9.     input_rnn=tf.reshape(input_rnn,[-1,time_step,rnn_unit])  
10. 
11.     cell=tf.contrib.rnn.BasicLSTMCell(rnn_unit)
12. #cell=tf.contrib.rnn.core_rnn_cell.BasicLSTMCell(rnn_unit)
13.     init_state=cell.zero_state(batch_size,dtype=tf.float32)
14.     output_rnn,final_states=tf.nn.dynamic_rnn(cell, input_rnn,initial_state=init_state, dtype=tf.float32)  
15. 
16.     output=tf.reshape(output_rnn,[-1,rnn_unit]) 
17.     w_out=weights['out']
18.     b_out=biases['out']
19.     pred=tf.matmul(output,w_out)+b_out
20. return pred,final_states

 


相关文章
|
6天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
12天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
20天前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
|
21天前
|
机器学习/深度学习 PyTorch TensorFlow
深度学习工具和框架详细指南:PyTorch、TensorFlow、Keras
在深度学习的世界中,PyTorch、TensorFlow和Keras是最受欢迎的工具和框架,它们为研究者和开发者提供了强大且易于使用的接口。在本文中,我们将深入探索这三个框架,涵盖如何用它们实现经典深度学习模型,并通过代码实例详细讲解这些工具的使用方法。
|
25天前
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。
|
2月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
3月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
5月前
|
数据采集 TensorFlow 算法框架/工具
【大作业-03】手把手教你用tensorflow2.3训练自己的分类数据集
本教程详细介绍了如何使用TensorFlow 2.3训练自定义图像分类数据集,涵盖数据集收集、整理、划分及模型训练与测试全过程。提供完整代码示例及图形界面应用开发指导,适合初学者快速上手。[教程链接](https://www.bilibili.com/video/BV1rX4y1A7N8/),配套视频更易理解。
114 0
【大作业-03】手把手教你用tensorflow2.3训练自己的分类数据集
|
5月前
|
并行计算 Shell TensorFlow
Tensorflow-GPU训练MTCNN出现错误-Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
在使用TensorFlow-GPU训练MTCNN时,如果遇到“Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED”错误,通常是由于TensorFlow、CUDA和cuDNN版本不兼容或显存分配问题导致的,可以通过安装匹配的版本或在代码中设置动态显存分配来解决。
94 1
Tensorflow-GPU训练MTCNN出现错误-Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
|
7月前
|
测试技术 数据库
探索JSF单元测试秘籍!如何让您的应用更稳固、更高效?揭秘成功背后的测试之道!
【8月更文挑战第31天】在 JavaServer Faces(JSF)应用开发中,确保代码质量和可维护性至关重要。本文详细介绍了如何通过单元测试实现这一目标。首先,阐述了单元测试的重要性及其对应用稳定性的影响;其次,提出了提高 JSF 应用可测试性的设计建议,如避免直接访问外部资源和使用依赖注入;最后,通过一个具体的 `UserBean` 示例,展示了如何利用 JUnit 和 Mockito 框架编写有效的单元测试。通过这些方法,不仅能够确保代码质量,还能提高开发效率和降低维护成本。
78 0

热门文章

最新文章