TF之LSTM:利用基于顺序的LSTM回归算法对DIY数据集sin曲线(蓝虚)预测cos(红实)(matplotlib动态演示)—daiding

简介: TF之LSTM:利用基于顺序的LSTM回归算法对DIY数据集sin曲线(蓝虚)预测cos(红实)(matplotlib动态演示)—daiding


目录

输出结果

代码设计


 

 

 

 

输出结果

 

 

代码设计

1. import tensorflow as tf
2. import numpy as np
3. import matplotlib.pyplot as plt
4. 
5. BATCH_START = 0
6. TIME_STEPS = 20
7. BATCH_SIZE = 50
8. INPUT_SIZE = 1
9. OUTPUT_SIZE = 1
10. CELL_SIZE = 10
11. LR = 0.006
12. BATCH_START_TEST = 0
13. 
14. def get_batch():    
15. global BATCH_START, TIME_STEPS
16. # xs shape (50batch, 20steps)
17.     xs = np.arange(BATCH_START, BATCH_START+TIME_STEPS*BATCH_SIZE).reshape((BATCH_SIZE, TIME_STEPS)) / (10*np.pi)
18.     seq = np.sin(xs)
19.     res = np.cos(xs)
20.     BATCH_START += TIME_STEPS
21. return [seq[:, :, np.newaxis], res[:, :, np.newaxis], xs]
22. 
23. 
24. class LSTMRNN(object):  
25. def __init__(self, n_steps, input_size, output_size, cell_size, batch_size):
26.         self.n_steps = n_steps
27.         self.input_size = input_size
28.         self.output_size = output_size
29.         self.cell_size = cell_size
30.         self.batch_size = batch_size
31. with tf.name_scope('inputs'):
32.             self.xs = tf.placeholder(tf.float32, [None, n_steps, input_size], name='xs')
33.             self.ys = tf.placeholder(tf.float32, [None, n_steps, output_size], name='ys')
34. with tf.variable_scope('in_hidden'):
35.             self.add_input_layer()
36. with tf.variable_scope('LSTM_cell'):
37.             self.add_cell()
38. with tf.variable_scope('out_hidden'):
39.             self.add_output_layer()
40. with tf.name_scope('cost'):
41.             self.compute_cost()       
42. with tf.name_scope('train'):
43.             self.train_op = tf.train.AdamOptimizer(LR).minimize(self.cost)
44. 
45. def add_input_layer(self,):  
46.         l_in_x = tf.reshape(self.xs, [-1, self.input_size], name='2_2D') 
47.         Ws_in = self._weight_variable([self.input_size, self.cell_size])
48.         bs_in = self._bias_variable([self.cell_size,])
49. with tf.name_scope('Wx_plus_b'):
50.             l_in_y = tf.matmul(l_in_x, Ws_in) + bs_in
51.         self.l_in_y = tf.reshape(l_in_y, [-1, self.n_steps, self.cell_size], name='2_3D')
52. 
53. def add_cell(self):       
54.         lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(self.cell_size, forget_bias=1.0, state_is_tuple=True)
55. with tf.name_scope('initial_state'): 
56.             self.cell_init_state = lstm_cell.zero_state(self.batch_size, dtype=tf.float32) 
57.         self.cell_outputs, self.cell_final_state = tf.nn.dynamic_rnn( 
58.             lstm_cell, self.l_in_y, initial_state=self.cell_init_state, time_major=False)  
59. 
60. def add_output_layer(self):  
61.         l_out_x = tf.reshape(self.cell_outputs, [-1, self.cell_size], name='2_2D')
62.         Ws_out = self._weight_variable([self.cell_size, self.output_size])
63.         bs_out = self._bias_variable([self.output_size, ])
64. with tf.name_scope('Wx_plus_b'):
65.             self.pred = tf.matmul(l_out_x, Ws_out) + bs_out
66. 
67. def compute_cost(self):
68.         losses = tf.contrib.legacy_seq2seq.sequence_loss_by_example(
69.             [tf.reshape(self.pred, [-1], name='reshape_pred')],
70.             [tf.reshape(self.ys, [-1], name='reshape_target')],
71.             [tf.ones([self.batch_size * self.n_steps], dtype=tf.float32)],
72.             average_across_timesteps=True,
73.             softmax_loss_function=self.ms_error,
74.             name='losses'
75.         )
76. with tf.name_scope('average_cost'):
77.             self.cost = tf.div(
78.                 tf.reduce_sum(losses, name='losses_sum'),
79.                 self.batch_size,
80.                 name='average_cost')
81.             tf.summary.scalar('cost', self.cost)
82. 
83. def ms_error(self, y_target, y_pre):  
84. return tf.square(tf.sub(y_target, y_pre)) 
85. 
86. def _weight_variable(self, shape, name='weights'):
87.         initializer = tf.random_normal_initializer(mean=0., stddev=1.,)
88. return tf.get_variable(shape=shape, initializer=initializer, name=name)
89. 
90. def _bias_variable(self, shape, name='biases'):
91.         initializer = tf.constant_initializer(0.1)
92. return tf.get_variable(name=name, shape=shape, initializer=initializer)
93. 
94. if __name__ == '__main__':  
95.     model = LSTMRNN(TIME_STEPS, INPUT_SIZE, OUTPUT_SIZE, CELL_SIZE, BATCH_SIZE)
96.     sess = tf.Session()
97.     merged=tf.summary.merge_all()
98.     writer=tf.summary.FileWriter("niu0127/logs0127",sess.graph)
99.     sess.run(tf.initialize_all_variables())
100. 
101. plt.ion()  
102. plt.show() 
103. 
104. for i in range(200):
105.       seq, res, xs = get_batch() 
106. if i == 0:
107.           feed_dict = {
108.                   model.xs: seq,
109.                   model.ys: res,
110.           }
111. else:
112.           feed_dict = {
113.               model.xs: seq,
114.               model.ys: res,
115.               model.cell_init_state: state  
116.           }
117.       _, cost, state, pred = sess.run(
118.           [model.train_op, model.cost, model.cell_final_state, model.pred],
119.           feed_dict=feed_dict)
120. 
121.       plt.plot(xs[0,:],res[0].flatten(),'r',xs[0,:],pred.flatten()[:TIME_STEPS],'g--')
122.       plt.title('Matplotlib,RNN,Efficient learning,Approach,Cosx --Jason Niu')
123.       plt.ylim((-1.2,1.2))
124.       plt.draw()
125.       plt.pause(0.1)

 


相关文章
|
存储 安全 算法
|
5月前
|
机器学习/深度学习 算法 数据挖掘
基于WOA鲸鱼优化的BiLSTM双向长短期记忆网络序列预测算法matlab仿真,对比BiLSTM和LSTM
本项目基于MATLAB 2022a/2024b实现,采用WOA优化的BiLSTM算法进行序列预测。核心代码包含完整中文注释与操作视频,展示从参数优化到模型训练、预测的全流程。BiLSTM通过前向与后向LSTM结合,有效捕捉序列前后文信息,解决传统RNN梯度消失问题。WOA优化超参数(如学习率、隐藏层神经元数),提升模型性能,避免局部最优解。附有运行效果图预览,最终输出预测值与实际值对比,RMSE评估精度。适合研究时序数据分析与深度学习优化的开发者参考。
|
5月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GA遗传优化的BiLSTM双向长短期记忆网络序列预测算法matlab仿真,对比BiLSTM和LSTM
本内容包含基于BiLSTM与遗传算法(GA)的算法介绍及实现。算法通过MATLAB2022a/2024b运行,核心为优化BiLSTM超参数(如学习率、神经元数量),提升预测性能。LSTM解决传统RNN梯度问题,捕捉长期依赖;BiLSTM双向处理序列,融合前文后文信息,适合全局信息任务。附完整代码(含注释)、操作视频及无水印运行效果预览,适用于股票预测等场景,精度优于单向LSTM。
|
2月前
|
机器学习/深度学习 数据采集 资源调度
基于长短期记忆网络定向改进预测的动态多目标进化算法(LSTM-DIP-DMOEA)求解CEC2018(DF1-DF14)研究(Matlab代码实现)
基于长短期记忆网络定向改进预测的动态多目标进化算法(LSTM-DIP-DMOEA)求解CEC2018(DF1-DF14)研究(Matlab代码实现)
|
5月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本内容展示了一种基于粒子群优化(PSO)与时间卷积神经网络(TCN)的时间序列预测方法。通过 MATLAB2022a 实现,完整程序运行无水印,核心代码附详细中文注释及操作视频。算法利用 PSO 优化 TCN 的超参数(如卷积核大小、层数等),提升非线性时间序列预测性能。TCN 结构包含因果卷积层与残差连接,结合 LSTM 构建混合模型,经多次迭代选择最优超参数,最终实现更准确可靠的预测效果,适用于金融、气象等领域。
|
5月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化的BiLSTM双向长短期记忆网络序列预测算法matlab仿真,对比BiLSTM和LSTM
本项目基于MATLAB2022a/2024b开发,结合粒子群优化(PSO)算法与双向长短期记忆网络(BiLSTM),用于优化序列预测任务中的模型参数。核心代码包含详细中文注释及操作视频,涵盖遗传算法优化过程、BiLSTM网络构建、训练及预测分析。通过PSO优化BiLSTM的超参数(如学习率、隐藏层神经元数等),显著提升模型捕捉长期依赖关系和上下文信息的能力,适用于气象、交通流量等场景。附有运行效果图预览,展示适应度值、RMSE变化及预测结果对比,验证方法有效性。
|
9月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GRU网络的MQAM调制信号检测算法matlab仿真,对比LSTM
本研究基于MATLAB 2022a,使用GRU网络对QAM调制信号进行检测。QAM是一种高效调制技术,广泛应用于现代通信系统。传统方法在复杂环境下性能下降,而GRU通过门控机制有效提取时间序列特征,实现16QAM、32QAM、64QAM、128QAM的准确检测。仿真结果显示,GRU在低SNR下表现优异,且训练速度快,参数少。核心程序包括模型预测、误检率和漏检率计算,并绘制准确率图。
278 65
基于GRU网络的MQAM调制信号检测算法matlab仿真,对比LSTM
|
5月前
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的BiLSTM双向长短期记忆网络序列预测算法matlab仿真,对比BiLSTM和LSTM
本项目基于Matlab 2022a/2024b实现,结合灰狼优化(GWO)算法与双向长短期记忆网络(BiLSTM),用于序列预测任务。核心代码包含数据预处理、种群初始化、适应度计算及参数优化等步骤,完整版附带中文注释与操作视频。BiLSTM通过前向与后向处理捕捉序列上下文信息,GWO优化其参数以提升预测性能。效果图展示训练过程与预测结果,适用于气象、交通等领域。LSTM结构含输入门、遗忘门与输出门,解决传统RNN梯度问题,而BiLSTM进一步增强上下文理解能力。
|
8月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
9月前
|
算法 图形学 数据安全/隐私保护
基于NURBS曲线的数据拟合算法matlab仿真
本程序基于NURBS曲线实现数据拟合,适用于计算机图形学、CAD/CAM等领域。通过控制顶点和权重,精确表示复杂形状,特别适合真实对象建模和数据点光滑拟合。程序在MATLAB2022A上运行,展示了T1至T7的测试结果,无水印输出。核心算法采用梯度下降等优化技术调整参数,最小化误差函数E,确保迭代收敛,提供高质量的拟合效果。