【博士每天一篇文献-算法】Modular state space of echo state network

简介: 本文提出了一种改进的回声状态网络(ESN)方法,名为模块化状态空间的ESN(MSSESN),通过将状态空间分解为多个子空间(模块)并使用分段输出函数映射每个模块的状态到输出,实现了直接预测,提高了预测性能,并在Mackey-Glass和Lorenz时间序列预测中展示了其优越性。

阅读时间:2023-11-2

1 介绍

年份:2013
作者:陈卫彪,华南理工大学计算机科学与工程学院,
期刊:Neurocomputing
引用量:17
本文介绍了一种改进回声状态网络(ESN)预测性能的新方法。该方法将ESN的状态空间分解为多个子空间,并将每个子空间定义为一个模块。这种方法称为回声状态网络的模块化状态空间(MSSESN),它使用分段输出函数将每个模块的状态分别映射到输出。MSSESN通过将存储器嵌入到网络输入中,并消除输出神经元到储层的反馈连接,从而将迭代式预测替换为直接预测。将由储层重建的状态空间划分为几个模块,并为每个模块的输出神经元分配独立的权重向量。MSSESN利用储层的模块性和机制,采用“分而治之”的策略。该方法已在Mackey-Glass和Lorenz时间序列的基准预测上进行了测试,结果显示其预测准确性高于以前的技术。

2 创新点

(1)将Echo State Network (ESN)的状态空间分解为多个子空间,每个子空间被定义为一个模块。这种方法被称为模块化状态空间的Echo State Network (MSSESN)。
(2)MSSESN使用分段输出函数,将每个模块的状态分别映射到输出。通过将记忆嵌入到网络输入中,以及消除输出神经元到储层的反馈连接,MSSESN实现了直接预测,取代了迭代预测。
(3)MSSESN利用储层的模块化和机制,采用“分而治之”的策略。这种方法在Mackey-Glass和Lorenz时间序列的基准预测中进行了验证,并且显示出比之前的技术更高的预测准确性。
(4)MSSESN通过使用随机连接的储层和易于调整的线性读出输出,可以在高维状态空间中重构输入信号,类似于核机器方法中核函数的功能。

3 相关研究

(1)Making Sense of a Complex World
该论文提出,在具有噪声的时间序列上迭代预测ESN是低效的,因为存在不稳定性和误差累积的问题。同时,成功训练的一步预测器通常在自主系统的应用中失败,因为很难保证模型的稳定性,甚至无法保证模型和系统吸引子的等价性。
(2)Support Vector Echo-State Machine for Chaotic Time
该论文提出了一种基于支持向量机的支持向量回声状态机(SVESM)作为改进ESN的直接方法。然而,正则化系数的参数很难确定,并且其交叉验证过程非常耗时。
(3)Optimization and Applications of Echo State Networks with Leaky Integrator Neurons
该论文介绍了一种扩展ESN的方法,即漏积分器储层单元。
(4)Decoupled Echo State Networks with Lateral Inhibition
该论文介绍了一种扩展ESN的方法,即解耦ESN。
(5)Collective Behavior of a Small-World Recurrent Neural System with Scale-Free Distribution
该论文介绍了一种扩展ESN的方法,即小世界储层。
(6)Echo State Networks with Filter Neurons and a Delay & Sum Readout
该论文介绍了一种扩展ESN的方法,即具有延迟和求和读出的滤波神经元。
(7)Effects of Connectivity Structure of Complex Echo State Network on Its Prediction Performance for Nonlinear Time Series
该论文介绍了一种扩展ESN的方法,即在储层计算中的复杂ESN。
(8)Pruning and Regularization in Reservoir Computing
该论文介绍了一种对储层计算中的修剪和正则化。
(9)Echo State Gaussian Process
该论文介绍了一种回声状态高斯过程作为一种新型的非线性回归模型。

4 算法

(1)将Echo State Network (ESN)的状态空间分解为多个子空间,每个子空间被定义为一个模块。
(2)使用分段输出函数将每个模块的状态分别映射到输出。
(3)将记忆嵌入网络输入并消除输出神经元与储层之间的反馈连接,用直接预测取代迭代预测。

image.png

5 实验分析

评价指标NMSE、ERMSE
image.png
(1)Mackey-Glass时间序列预测数据集的效果
MSSESN的预测效果优于基于Evolino的长短期记忆(LSTM)方法和Echo State Gaussian Process(ESGP)方法。
(2)神经元数量的影响
神经元数量N对MSSESN的性能有显著影响。在Mackey-Glass问题的预测中,随着N的增加,预测误差逐渐减小。然而,在Lorenz问题的预测中,当N从100增加到200时,预测误差逐渐减小,但当N从200增加到500时,预测误差快速增加。因此,在Lorenz问题的预测中,MSSESN使用相对较小的N(N = 200)获得最佳结果。
(3)模块数量的影响
模块数量M对MSSESN的性能也有重要影响。在Mackey-Glass问题的预测中,当M从2增加到14时,预测误差逐渐减小,但当M从14增加到20时,预测误差快速增加。在Lorenz问题的预测中,当M从2增加到6时,预测误差逐渐减小,但当M继续增加时,预测误差变化较缓慢。因此,在MSSESN中,模块数量的选择需要在模型复杂性和准确性之间进行权衡。

6 思考

他这个模型图,似乎没有画到合理,作者说“将由储层重建的状态空间划分为几个模块,并为每个模块的输出神经元分配独立的权重向量”。那在储层中,应该是应该将神经元分类。每一个模块包含几个神经元。每个模块之间的神经元应该是不共享的。
和其他几篇论文是高度相关的,具体实现上稍微有些许不同。
【Echo State Network with Hub Property】
【Extending stability through hierarchical clusters in Echo State Networks】
【A Versatile Hub Model For Efficient Information Propagation And Feature Selection】

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
49 12
|
2月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
99 9
|
2月前
|
机器学习/深度学习 算法 机器人
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
45 9
|
2月前
|
机器学习/深度学习 算法 文件存储
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
39 9
|
2月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
34 4
|
2月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
39 4
|
2月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
74 3
|
3天前
|
传感器 算法 C语言
基于无线传感器网络的节点分簇算法matlab仿真
该程序对传感器网络进行分簇,考虑节点能量状态、拓扑位置及孤立节点等因素。相较于LEACH算法,本程序评估网络持续时间、节点死亡趋势及能量消耗。使用MATLAB 2022a版本运行,展示了节点能量管理优化及网络生命周期延长的效果。通过簇头管理和数据融合,实现了能量高效和网络可扩展性。
|
1月前
|
算法 BI Serverless
基于鱼群算法的散热片形状优化matlab仿真
本研究利用浴盆曲线模拟空隙外形,并通过鱼群算法(FSA)优化浴盆曲线参数,以获得最佳孔隙度值及对应的R值。FSA通过模拟鱼群的聚群、避障和觅食行为,实现高效全局搜索。具体步骤包括初始化鱼群、计算适应度值、更新位置及判断终止条件。最终确定散热片的最佳形状参数。仿真结果显示该方法能显著提高优化效率。相关代码使用MATLAB 2022a实现。
|
1月前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
下一篇
无影云桌面