【博士每天一篇文献-算法】Memory augmented echo state network for time series prediction

简介: 本文介绍了一种记忆增强的回声状态网络(MA-ESN),它通过在储层中引入线性记忆模块和非线性映射模块来平衡ESN的记忆能力和非线性映射能力,提高了时间序列预测的性能,并在多个基准数据集上展示了其优越的记忆能力和预测精度。

阅读时间:2023-11-24

1 介绍

年份:2023
作者:济南大学,刘千文、李范俊
期刊: Neural Computing and Applications
引用量:0
这篇论文介绍了记忆增强的回声状态网络(MA-ESN),旨在平衡ESN的记忆能力和非线性映射能力,以提高时间序列预测的性能。传统的ESNs具有较高的记忆能力,但其非线性映射能力有限,导致在复杂时间序列上的预测表现较差。MA-ESN通过在储层中引入线性记忆模块和非线性映射模块的新组合方式来实现这种平衡。线性记忆模块改善了记忆能力,而非线性映射模块保持了网络的非线性映射。该文章还提供了MA-ESN的训练算法、理论稳定性分析以及计算复杂性分析。实验证明,MA-ESN在基准时间序列数据集上的记忆能力和预测性能方面优于传统的ESNs和一些类似的ESN变体。此研究的贡献包括提出了储层的特殊设计方法、在理论上分析了MA-ESN的稳定性,并通过设计两个独立模块实现了记忆-非线性的分离机制。文章最后提出了未来的研究方向。

2 创新点

(1)提出了称为记忆增强回声状态网络(MA-ESN)的改进版本,旨在平衡ESNs的记忆能力和非线性映射能力,从而提高时间序列预测性能。
(2)通过在储层中引入线性记忆模块和非线性映射模块的新方式组合,实现了MA-ESN的这种平衡。引入记忆-非线性分离机制。线性记忆模块提高了记忆能力,而非线性映射模块保留了网络的非线性映射。
(3)提供了MA-ESN的训练算法、理论上的稳定性分析以及计算复杂性分析。
(4)实验结果表明,MA-ESN在基准时间序列数据集上的记忆容量和预测性能方面优于典型的ESNs和一些类似的ESN变种。

3 相关研究

(1)(2010) Echo state networks with filter neurons and a delay & sum readout.
ESN引入了延迟和读数以获得更大的MC,其主要思想是在储层和输出层之间添加可训练的延迟。
(2)2016) A new echo state network with variable memory length
改进MC,Shuxian Lun等人提出了一种可变内存长度回声状态网络(VML-ESN),其内存长度由输入信号的自相关自动确定
(3)Crowd counting by using Top-k relations: a mixed ground-truth CNN framework.
马千利等人提出了一种回声记忆增强网络(EMAN),通过引入稀疏可学习权重的注意力机制来提高ESN的长期记忆能力。
(4)(2007) Optimization and applications of echo state networks with leaky integrator neurons.
为了改善ESN的MC,泄漏的积分器单元于设计储层。
(4) (2020)Long-short term echo state network for time series prediction
提出了长短时回波状态网络(LS-ESNs)来提高ESN的存储能力,其中不同的跳跃连接被引入不同的储库。虽然上面提到的这些方法提高了ESN的内存能力,但它们不可避免地增加了额外的可训练参数。
(5)2017) Difference between memory and prediction in linear recurrent networks
仅增加RNN的MC并不能带来更好的复杂时间序列预测性能,需要保持一定的非线性映射能力[15]。
(6) (2010) Memory versus non-linearity in reservoirs
ESNs库中内存和非线性之间的权衡存在问题。
(7)(2019) Linear memory networks. ICANN 2019: Theoretical Neural Computation.
为了提高RNN学习顺序数据中长期依赖关系的能力,提出了一种线性记忆网络(LMN),将循环层显式地分为功能和记忆分量,这可以通过具有特殊初始化的标准反向传播算法进行优化。
(8)2013) Reservoir computing and extreme learning machines for non-linear time-series data analysis.
为了有效地平衡ESN的记忆-非线性权衡问题,Butcher等人提出了一种新的架构,通过结合一个储层和两个前馈层,将一个储层与两个前馈层相结合,命名为具有随机静态投影(RSP)的储层。
(9)(2017) Reservoir computing beyond memory-nonlinearity trade-off
从理论上分析了储层计算的内存-非线性权衡,并通过在混合储层(混合储层)中同时引入线性和非线性激活函数来提高信息处理能力。

4 算法

图2显示了所提出的内存-非线性分离机制,其中V、VHidden、VMemory、VMemory、VOutput分别表示输入空间、隐藏空间、最后一时刻的内存空间、当前时刻的内存空间和输出空间,VMemory和Vemory之间的连接处的黑色小方块表示时间延迟。两个模块独立工作并相互服务。线性存储模块M作为自编码器,用于记忆非线性映射模块H的输出序列,同时,非线性映射模块通过非线性激活函数将线性存储模块的输入信号和编码输出组合在一起,形成新的特征。只有线性存储模块的输出用于形成网络的输出。

  • 非线性映射模块是一种前馈神经网络,可从输入信号生成新特征。
  • 线性存储模块的输出通过非线性激活函数,同时线性存储模块负责以线性循环方式记忆非线性映射模块的输出序列。

截屏2024-02-28 下午1.29.29.png

5 实验分析

5.1 稳定性分析

(1)确保MA-ESN具有回声状态特性(Echo State Property,ESP),以确保网络的动态稳定性。
(2)引入利普希茨条件的定义,以确保激活函数满足Lipschitz条件,其中Lipschitz系数L大于等于1。
(3)确保线性记忆模块的记忆状态之间的距离随时间收缩,以保持MA-ESN的ESP。
(4)给出保证MA-ESN具有ESP的充分条件,包括最大奇异值和满足一定条件的激活函数利普希茨系数。

5.2 计算复杂度

(1)MA-ESN中的储层的计算复杂度包括两个方面:

  • 储层的计算复杂度可表示为Cres = Ch + Cm = O( TNxNh + 2TNhNm + SDTN^2m )

其中,T、Nx、Nh、Nm和SD分别代表信号的长度,输入神经元的数量,非线性映射模块的大小,线性存储器模块的大小和稀疏度。

  • MA-ESN的输出权重的计算复杂度可表示为Creg = O( TNyP + (T + P + Ny)P^2 )

(2)比较A-ESN和ESNs的计算复杂度,可以得出MA-ESN的计算复杂度比ESNs小。其中MA-ESN的复杂度可以表示为:CMA-ESN = O( 3TN^2m + N^3m ),而CESNs = O( TN^2m + N^3m )。由此可见,MA-ESN的复杂度大将近3倍。

5.3 数据集验证

数据集:10阶NARMA系统(10-order NARMA )、Lorenz系统(the Lorenz system)、太阳黑子时间序列(the Sunspot time series)、每日最低温度(daily minimum temperatures)和NCAA2022数据集(the NCAA2022 data set )。

5.3.1 记忆能力

  • 对典型的ESNs和一些具有特殊记忆机制的ESN变种进行比较。与典型ESN、LSTM、RSP、VML-ESN、LS-ESNs、混合储层和CESN相比,MA-ESN的MC分别提高了49.8%、74.6%、7.7%、48.1%、12.5%、7.2%和23.0%。
  • 通过创建无结构序列来测试MA-ESN的记忆能力,评估其在1维随机序列上的表现。
  • 评估各个模型从k=1到k=200的k-delay记忆能力。
  • 通过比较各模型的记忆能力,得出MA-ESN将储存器分成非线性映射模块和线性存储模块的方式可以显著提高网络的记忆容量。

6 思考

文中用到了很多数据集,可是只对比了多个数据集的记忆容量MC。预测误差上都没有对比,有可能通过引入非线性模块,提高了非线性能力和记忆容量,但是牺牲了预测精度。在后面的实验结果中,都只是绘制了单个模型的预测误差,没有对比多个模型的。
说明计算记忆容量的方式参考论文【short term memory in echo state networks】。

目录
相关文章
|
4月前
|
机器学习/深度学习 算法 物联网
【博士每天一篇论文-算法】Overview of Echo State Networks using Different Reservoirs and Activation Functions
本文研究了在物联网网络中应用回声状态网络(ESN)进行交通预测的不同拓扑结构,通过与SARIMA、CNN和LSTM等传统算法的比较,发现特定配置的ESN在数据速率和数据包速率预测方面表现更佳,证明了ESN在网络流量预测中的有效性。
36 4
|
4月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
49 3
|
4月前
|
机器学习/深度学习 算法 网络架构
【博士每天一篇文献-算法】CircuitNet:A Generic Neural Network to Realize Universal Circuit Motif Modeling
本文介绍了CircuitNet,这是一种新型神经网络,它受到神经回路结构的启发,通过使用电路基元单元(CMUs)来模拟通用电路基元,并通过调整CMU内部权重来实现建模,在多种机器学习任务中展现出优于传统前馈网络的性能。
59 3
|
16天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
22天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
2天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。
|
10天前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
18天前
|
算法
基于GA遗传算法的PID控制器参数优化matlab建模与仿真
本项目基于遗传算法(GA)优化PID控制器参数,通过空间状态方程构建控制对象,自定义GA的选择、交叉、变异过程,以提高PID控制性能。与使用通用GA工具箱相比,此方法更灵活、针对性强。MATLAB2022A环境下测试,展示了GA优化前后PID控制效果的显著差异。核心代码实现了遗传算法的迭代优化过程,最终通过适应度函数评估并选择了最优PID参数,显著提升了系统响应速度和稳定性。
|
10天前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
16天前
|
算法
基于WOA鲸鱼优化的购售电收益与风险评估算法matlab仿真
本研究提出了一种基于鲸鱼优化算法(WOA)的购售电收益与风险评估算法。通过将售电公司购售电收益风险计算公式作为WOA的目标函数,经过迭代优化计算出最优购电策略。实验结果表明,在迭代次数超过10次后,风险价值收益优化值达到1715.1万元的最大值。WOA还确定了中长期市场、现货市场及可再生能源等不同市场的最优购电量,验证了算法的有效性。核心程序使用MATLAB2022a实现,通过多次迭代优化,实现了售电公司收益最大化和风险最小化的目标。
下一篇
DataWorks