【博士每天一篇文献-算法】Modular state space of echo state network

简介: 本文提出了一种改进的回声状态网络(ESN)方法,名为模块化状态空间的ESN(MSSESN),通过将状态空间分解为多个子空间(模块)并使用分段输出函数映射每个模块的状态到输出,实现了直接预测,提高了预测性能,并在Mackey-Glass和Lorenz时间序列预测中展示了其优越性。

阅读时间:2023-11-2

1 介绍

年份:2013
作者:陈卫彪,华南理工大学计算机科学与工程学院,
期刊:Neurocomputing
引用量:17
本文介绍了一种改进回声状态网络(ESN)预测性能的新方法。该方法将ESN的状态空间分解为多个子空间,并将每个子空间定义为一个模块。这种方法称为回声状态网络的模块化状态空间(MSSESN),它使用分段输出函数将每个模块的状态分别映射到输出。MSSESN通过将存储器嵌入到网络输入中,并消除输出神经元到储层的反馈连接,从而将迭代式预测替换为直接预测。将由储层重建的状态空间划分为几个模块,并为每个模块的输出神经元分配独立的权重向量。MSSESN利用储层的模块性和机制,采用“分而治之”的策略。该方法已在Mackey-Glass和Lorenz时间序列的基准预测上进行了测试,结果显示其预测准确性高于以前的技术。

2 创新点

(1)将Echo State Network (ESN)的状态空间分解为多个子空间,每个子空间被定义为一个模块。这种方法被称为模块化状态空间的Echo State Network (MSSESN)。
(2)MSSESN使用分段输出函数,将每个模块的状态分别映射到输出。通过将记忆嵌入到网络输入中,以及消除输出神经元到储层的反馈连接,MSSESN实现了直接预测,取代了迭代预测。
(3)MSSESN利用储层的模块化和机制,采用“分而治之”的策略。这种方法在Mackey-Glass和Lorenz时间序列的基准预测中进行了验证,并且显示出比之前的技术更高的预测准确性。
(4)MSSESN通过使用随机连接的储层和易于调整的线性读出输出,可以在高维状态空间中重构输入信号,类似于核机器方法中核函数的功能。

3 相关研究

(1)Making Sense of a Complex World
该论文提出,在具有噪声的时间序列上迭代预测ESN是低效的,因为存在不稳定性和误差累积的问题。同时,成功训练的一步预测器通常在自主系统的应用中失败,因为很难保证模型的稳定性,甚至无法保证模型和系统吸引子的等价性。
(2)Support Vector Echo-State Machine for Chaotic Time
该论文提出了一种基于支持向量机的支持向量回声状态机(SVESM)作为改进ESN的直接方法。然而,正则化系数的参数很难确定,并且其交叉验证过程非常耗时。
(3)Optimization and Applications of Echo State Networks with Leaky Integrator Neurons
该论文介绍了一种扩展ESN的方法,即漏积分器储层单元。
(4)Decoupled Echo State Networks with Lateral Inhibition
该论文介绍了一种扩展ESN的方法,即解耦ESN。
(5)Collective Behavior of a Small-World Recurrent Neural System with Scale-Free Distribution
该论文介绍了一种扩展ESN的方法,即小世界储层。
(6)Echo State Networks with Filter Neurons and a Delay & Sum Readout
该论文介绍了一种扩展ESN的方法,即具有延迟和求和读出的滤波神经元。
(7)Effects of Connectivity Structure of Complex Echo State Network on Its Prediction Performance for Nonlinear Time Series
该论文介绍了一种扩展ESN的方法,即在储层计算中的复杂ESN。
(8)Pruning and Regularization in Reservoir Computing
该论文介绍了一种对储层计算中的修剪和正则化。
(9)Echo State Gaussian Process
该论文介绍了一种回声状态高斯过程作为一种新型的非线性回归模型。

4 算法

(1)将Echo State Network (ESN)的状态空间分解为多个子空间,每个子空间被定义为一个模块。
(2)使用分段输出函数将每个模块的状态分别映射到输出。
(3)将记忆嵌入网络输入并消除输出神经元与储层之间的反馈连接,用直接预测取代迭代预测。

image.png

5 实验分析

评价指标NMSE、ERMSE
image.png
(1)Mackey-Glass时间序列预测数据集的效果
MSSESN的预测效果优于基于Evolino的长短期记忆(LSTM)方法和Echo State Gaussian Process(ESGP)方法。
(2)神经元数量的影响
神经元数量N对MSSESN的性能有显著影响。在Mackey-Glass问题的预测中,随着N的增加,预测误差逐渐减小。然而,在Lorenz问题的预测中,当N从100增加到200时,预测误差逐渐减小,但当N从200增加到500时,预测误差快速增加。因此,在Lorenz问题的预测中,MSSESN使用相对较小的N(N = 200)获得最佳结果。
(3)模块数量的影响
模块数量M对MSSESN的性能也有重要影响。在Mackey-Glass问题的预测中,当M从2增加到14时,预测误差逐渐减小,但当M从14增加到20时,预测误差快速增加。在Lorenz问题的预测中,当M从2增加到6时,预测误差逐渐减小,但当M继续增加时,预测误差变化较缓慢。因此,在MSSESN中,模块数量的选择需要在模型复杂性和准确性之间进行权衡。

6 思考

他这个模型图,似乎没有画到合理,作者说“将由储层重建的状态空间划分为几个模块,并为每个模块的输出神经元分配独立的权重向量”。那在储层中,应该是应该将神经元分类。每一个模块包含几个神经元。每个模块之间的神经元应该是不共享的。
和其他几篇论文是高度相关的,具体实现上稍微有些许不同。
【Echo State Network with Hub Property】
【Extending stability through hierarchical clusters in Echo State Networks】
【A Versatile Hub Model For Efficient Information Propagation And Feature Selection】

目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
87 12
|
4月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
292 9
|
4月前
|
机器学习/深度学习 算法 机器人
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
65 9
|
4月前
|
机器学习/深度学习 算法 文件存储
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
66 9
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
55 4
|
4月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
90 4
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
103 3
|
2天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
103 80
|
21天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
7天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。