【博士每天一篇文献-模型】Self-organizing deep belief modular echo state network for time series

简介: 本文提出了一种自组织深度置信模块式回声状态网络(SDBMESN),通过结合深度置信网络和模块化回声状态网络,利用自组织机制动态调整网络结构,以提高时间序列预测的泛化能力。

阅读时间:2023-11-8

1 介绍

年份:2021
作者:张慧艳,胡伯 ,北京工商大学人工智能学院,
期刊:
引用量:20

2 创新点

提出一个新的深度学习框架,名为自组织深度置信模块式回声状态网络(SDBMESN),用于时间序列预测问题。该框架将深度置信网络(DBN)用于深度特征提取,并与具有子储层的模块化回声状态网络(ESN)结合用于预测。所提出的框架使用自组织机制来动态调整隐藏层神经元和子储层,提高了其泛化能力。
论文启发于【 self-organizing deep belief network for nonlinear system modeling】

3 相关研究

ESN中确定其输出权重的方法包括增长修剪法和正则化方法
(1)原始法
ESN(OESN)【2004-Harnessing nonlinearity: predicting chaotic systems and saving energy in wireless communication】
(2)增长修剪法
GESN【 2017-Growing echo-state network with multiple subreservoirs, 】
(3)正则化法
正则化ESN (RESN)【2009-Pruning and regularization in reservoir computing】
(4)动态调整储层
DRESN【2018- Dynamical regularized echo state network for time series predictio】
(5)组合模型
DBESN【2017-Deep belief echo-state network and its application to time series prediction】

4 模型结构

(1)模型结构
image.png

深度信念网络(DBN)中隐藏层神经元的自组织过程,基于神经元的重要性定义了神经元重要性(NSDBN(j))。根据神经元的重要性进行神经元的分裂和剪枝阶段。具体的自组织机制如下:

  • 隐藏神经元的分裂阶段:当神经元的重要性(NSDBN(j))较高时,说明神经元在信息处理中更活跃。因此,根据给定的阈值,选择隐藏层中最活跃的神经元进行分裂。
  • 子储层的增长阶段:在选择过程之后,可以直接进行子储层的增长过程。子储层的增长可以看作是两个子储层的合并。通过计算更新输出权重(Woutg)的公式,可以实现子储层的增长。

(2)训练
image.png

5 实验分析

采用的数据集三种
(1)二阶非线性系统建模【,A TSK-type recurrent fuzzy network for dynamic systems processing by neural network and genetic algorithms】
(2)太阳黑子时间序列数据集【 National Geophysical Data Center】
(3)West Falmouth Harbor的水质数据[30]

6 思考

本质就是一个将DBN+ESN的一个模型结构,创新点太low。并没有做其他的任何改进。

目录
相关文章
|
4月前
|
算法 数据挖掘 数据处理
【博士每天一篇文献-综述】A Modified Echo State Network Model Using Non-Random Topology
本文介绍了一篇博士论文,提出了一种基于非随机拓扑结构的改进型Echo State Networks (ESN)模型,用于处理时间序列数据,通过在储层中使用复杂网络和聚类模型的拓扑结构,提高了模型性能并降低了计算成本,论文还展示了该模型在信号预测和图像分类中的应用。
46 3
【博士每天一篇文献-综述】A Modified Echo State Network Model Using Non-Random Topology
|
4月前
|
机器学习/深度学习 存储 算法
【博士每天一篇文献-算法】Memory augmented echo state network for time series prediction
本文介绍了一种记忆增强的回声状态网络(MA-ESN),它通过在储层中引入线性记忆模块和非线性映射模块来平衡ESN的记忆能力和非线性映射能力,提高了时间序列预测的性能,并在多个基准数据集上展示了其优越的记忆能力和预测精度。
34 3
【博士每天一篇文献-算法】Memory augmented echo state network for time series prediction
|
4月前
|
算法 IDE 开发工具
【博士每天一篇文献-实验】Impact of modular organization on dynamical richness_in cortical networks
本文研究了大脑模块化组织对其动态特性的影响,发现不同耦合强度下的模块化网络展现出不同的活动模式,并通过实验揭示了单键模式在动态丰富性方面的优势,为理解大脑皮层网络的复杂动态提供了新的视角。
21 2
【博士每天一篇文献-实验】Impact of modular organization on dynamical richness_in cortical networks
|
4月前
|
机器学习/深度学习 人工智能 算法
【博士每天一篇论文-算法】Collective Behavior of a Small-World Recurrent Neural System With Scale-Free Distrib
本文介绍了一种新型的尺度无标度高聚类回声状态网络(SHESN)模型,该模型通过模拟生物神经系统的特性,如小世界现象和无标度分布,显著提高了逼近复杂非线性动力学系统的能力,并在Mackey-Glass动态系统和激光时间序列预测等问题上展示了其优越的性能。
39 1
【博士每天一篇论文-算法】Collective Behavior of a Small-World Recurrent Neural System With Scale-Free Distrib
|
4月前
|
算法 数据挖掘
【博士每天一篇文献-算法】A pseudo-inverse decomposition-based self-organizing modular echo
本文提出了一种基于伪逆分解的自组织模块化回声状态网络(PDSM-ESN),通过增长-修剪方法和伪逆分解提高学习速度,有效解决了ESN中的不适定问题,并在多个数据集上展示了其优越的预测性能和鲁棒性。
27 1
|
4月前
|
机器学习/深度学习 算法
【博士每天一篇文献-算法】Modular state space of echo state network
本文提出了一种改进的回声状态网络(ESN)方法,名为模块化状态空间的ESN(MSSESN),通过将状态空间分解为多个子空间(模块)并使用分段输出函数映射每个模块的状态到输出,实现了直接预测,提高了预测性能,并在Mackey-Glass和Lorenz时间序列预测中展示了其优越性。
27 0
【博士每天一篇文献-算法】Modular state space of echo state network
|
4月前
|
机器学习/深度学习 存储 算法
【博士每天一篇文献-算法】Evolutionary multi-task learning for modular knowledge representation in neuralnetworks
本文提出了一种进化式多任务学习方法(EMTL),用于在神经网络中通过模块化网络拓扑实现模块化知识表示,模仿人脑的模块化结构存储知识,提高了网络的鲁棒性和灵活性,并在奇偶校验问题和基准模式分类任务上验证了其有效性。
37 1
|
4月前
|
机器学习/深度学习 算法
【博士每天一篇文献-算法】Adult neurogenesis acts as a neural regularizer
本文研究了成人神经发生(adult neurogenesis)在大脑学习过程中的作用,发现其作为一种神经调节器能提高学习泛化能力,并通过在卷积神经网络(CNN)中模拟神经发生,证明了其作为正则化手段与传统技术一样有效,甚至在某些方面更优。
31 6
|
4月前
|
机器学习/深度学习 算法 物联网
【博士每天一篇论文-算法】Overview of Echo State Networks using Different Reservoirs and Activation Functions
本文研究了在物联网网络中应用回声状态网络(ESN)进行交通预测的不同拓扑结构,通过与SARIMA、CNN和LSTM等传统算法的比较,发现特定配置的ESN在数据速率和数据包速率预测方面表现更佳,证明了ESN在网络流量预测中的有效性。
37 4
|
4月前
|
机器学习/深度学习 人工智能 算法
【博士每天一篇文献-算法】Seeing is believing_ Brain-inspired modular training for mechanistic interpretability
这篇文章提出了一种模仿大脑结构和功能的训练正则化方法,称为大脑启发的模块化训练(BIMT),通过在几何空间中嵌入神经元并增加与连接长度成比例的正则化项来促进神经网络的模块化和稀疏化,增强了网络的可解释性,并在多种任务和数据集上验证了其有效性。
45 2

热门文章

最新文章