【博士每天一篇文献-算法】Imposing Connectome-Derived Topology on an Echo State Network

简介: 本文研究了将果蝇连接图的拓扑结构应用于回声状态网络(ESN)中,提出了一种新型的“果蝇ESN”(FFESN),通过替换传统ESN的储层层为基于果蝇神经连接结构的连接矩阵,发现FFESN在混沌时间序列预测任务中表现出较传统ESN更低的方差或更高的性能。

阅读时间:2023-11-5

1 介绍

年份:2022
作者:Jacob Morra, Mark Daley 西部大学
期刊:2022 International Joint Conference on Neural Networks (IJCNN)
引用量:3
研究了果蝇连接图的拓扑结构对混沌时间序列预测中回声状态网络(Echo State Network,ESN)性能的影响。论文讨论了一类模型的开发,称为“果蝇ESN”(FFESN),它用果蝇连接图派生的连接矩阵替换了经典ESN的储层层。作者训练并验证了FFESN在混沌时间序列预测任务中的性能,并将其与控制模型ESN进行了比较。结果表明,FFESN要么明显优于ESN,要么具有较低的方差。
该算法将经典ESN的储层层替换为果蝇连接组得到的连接矩阵。通过强制具有特定连接结构的连接图来对ESN储层施加拓扑约束。
idea启发于论文【A Connectome of the Adult Drosophila Central Brain】

2 创新点

(1)引入了基于果蝇的神经连接结构(Fruit Fly Connectome)作为Echo State Network(ESN)的网络拓扑结构。通过将经典ESN的储层层替换为基于果蝇神经连接结构的连接矩阵,提出了一种名为"Fruit Fly ESNs"(FFESNs)的模型类别。
(2)在混沌时间序列预测任务上对FFESNs进行了训练和验证,并与控制模型ESN进行了性能对比。结果显示,FFESN要么显著优于ESN,要么具有更低的方差。
(3)通过基于果蝇神经连接结构生成连接矩阵的方法进行了详细描述,并给出了ESN网络动力学的正式描述。

3 算法

通过强制具有特定连接结构的连接图来对ESN储层施加拓扑约束,连接图采用Janelia’s hemibrain连接图矩阵,此矩阵中的单元格值对应于神经元之间的突触-突触连接数量(权重)。权重矩阵的对角线被填充为1,归一化后如下图。
image.png

4 实验分析

(1)调参
Leakying reate α确定了前一个和当前储层激活对当前储层激活的影响。正则化系数λ确定了岭回归惩罚项的大小。没有选择其他的超参数,例如谱半径,因为这些会改变的实验和对比储层拓扑结构。
image.png
(2)多次迭代的MSE分布
image.png
50次迭代预测的均方误差
显示了在训练输入大小为900时,FFESN的均方误差(MSE)明显低于ESN,并且误差分布更为集中。
(2)预测MSE方差
image.png
Variant A和Variant B的情况下,预测性能和误差方差的比较结果
对于特定的训练输入大小A,Variant A需要预测更远未来的值,相比之下,Variant B需要更短期的预测。在时间序列预测任务中,FFESN模型要么明显优于ESN模型且具有更低的误差方差,要么在保持显著减少误差方差的同时与ESN模型的性能相当。

5 思考

这篇的论文和【Investigating Echo State Network Performance with Biologically-Inspired Hierarchical Network Structure】是一样的思想,Idea是一样的。就是论文的Idea来源不一样。这篇来源于【A Connectome of the Adult Drosophila Central Brain】,另一篇来源于【 Community detection and classification in hierarchical stochastic blockmodels. 】。具体的区别是什么,还没有搞明白,我认知大致是相同的。

目录
打赏
0
1
1
0
150
分享
相关文章
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
120 12
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
403 9
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
98 9
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
106 9
【博士每天一篇文献-算法】Adult neurogenesis acts as a neural regularizer
本文研究了成人神经发生(adult neurogenesis)在大脑学习过程中的作用,发现其作为一种神经调节器能提高学习泛化能力,并通过在卷积神经网络(CNN)中模拟神经发生,证明了其作为正则化手段与传统技术一样有效,甚至在某些方面更优。
37 6
【博士每天一篇文献-算法】NICE Neurogenesis Inspired Contextual Encoding for Replay-free Class Incremental Learn
NICE(Neurogenesis Inspired Contextual Encoding)是一种新型深度神经网络架构,旨在通过模拟生物神经系统的成熟过程来解决类别增量学习中的灾难性遗忘问题,无需重放旧样本即可实现有效的增量学习。
85 5
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
79 4
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
163 4
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
163 3
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
78 3

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等