【博士每天一篇文-算法】Spatially embedded recurrent neural networks reveal widespread links between

简介: 本文介绍了空间嵌入循环神经网络(seRNNs)的研究,揭示了结构和功能神经科学发现之间的联系,并展示了seRNNs如何在面临资源限制的同时,通过优化其结构拓扑来解决任务并表现出生物大脑类似的模块化和小世界特性。

阅读时间:2023-11-14

1 介绍

题目:Spatially embedded recurrent neural networks reveal widespread links between structural and functional neuroscience findings
年份:2023
作者: 雅沙·阿赫特伯格,英国剑桥大学 MRC 认知和脑科学单位
期刊:Nature Machine Intelligence, 2023: 1-13.
引用量:6

介绍了空间嵌入循环神经网络(seRNNs)的研究,以及它们如何揭示神经科学中结构和功能发现之间的联系。论文讨论了大脑网络如何发展以实现目标并优化信息处理,在其生命周期中面临权衡和解决挑战的同时。这些过程塑造了大脑网络的组织和功能,导致了稀疏和小世界结构以及特征性的神经元调谐。

论文介绍了seRNNs作为一个计算模型,结合了大脑的解剖和功能,实时地在不同结构、功能和行为目标之间进行权衡和优化。seRNNs被训练来解决任务并优化其性能,同时面临有限的资源,根据它们在三维欧氏空间中的空间距离平衡连接的增长和修剪。网络还优化了网络内部的通信,以实现有效的信号传播。通过这个优化过程,seRNNs在结构拓扑中自然地呈现出类似于生物大脑的模块化和小世界性质。该研究进一步使用生成网络模型验证了seRNNs与真实神经连接的结构相似性。此外,该文档还揭示了seRNNs中功能相关的单元的空间组织,表明结构与功能在这些网络中存在紧密关系。

2 创新点

  1. 提出了空间嵌入的经常性神经网络(seRNNs)作为一个计算模型,结合了大脑的解剖学和功能学,可以动态地在真实时间内权衡不同的结构、功能和行为目标。
  2. 通过在3D欧几里得空间中基于空间距离平衡连接增长和修剪,以及网络内部通信的优化,seRNNs可以在面临资源限制的情况下解决任务并优化性能。
  3. seRNNs在结构拓扑上表现出与生物大脑类似的特征,如模块化和小世界性。通过使用生成网络模型验证了seRNNs与真实神经连接的结构相似性。
  4. 论文还揭示了seRNNs中功能相关的单元在空间上的组织,表明结构和功能之间存在密切关系。

3 代码

https://github.com/8erberg/spatially-embedded-RNN
https://codeocean.com/capsule/2879348/tree/v2

4 算法

理论 :通过在三维欧几里得空间中的连接情况和神经元之间的通信进行动态平衡,达到了不同结构、功能和行为目标的优化。训练seRNNs解决任务并优化性能,同时面临有限资源的限制。网络根据在三维欧几里得空间中的空间距离进行连接的生长和修剪的平衡。网络还优化网络内部的通信,以实现信号传播的高效。通过这个优化过程,seRNNs自然地表现出类似生物大脑的特征,比如模块化和小世界结构。
实现:在损失函数上使用L1正则化,加入网络的两个约束:欧氏距离和网络通信。为了实现这一点,首先将神经元嵌入到一个三维空间中,使得每个神经元都有相应的x、y和z坐标。利用这些坐标,可以生成一个欧氏距离矩阵,描述每对节点之间的物理距离。这样,可以通过将权重 $ w_{i,j}$​乘以它们之间的欧氏距离 $ d_{i,j} ​$,从而激励网络最小化(昂贵的)长距离连接。得到的损失函数如下:
image.png

5 实验分析

(1)
截屏2023-12-05 下午2.10.40.png
绿色代表目标信息偏好,棕色代表选择信息偏好。说明了空间上的神经元集群对于特定的感觉和认知功能有着相似的解码偏好。神经元对于定向或颜色信息的解码偏好可能在空间上聚集形成集群
(2)对比seRNNs和L1 RNNs
截屏2023-12-05 下午2.24.37.png
在seRNNs中,权重和欧氏距离之间呈现负相关关系,但在L1网络中,权重和欧氏距离之间没有关系。
(3)
截屏2023-12-05 下午3.45.46.png
矩阵分别代表了准确率、权重总和、模块性和小世界性这四个特征。从左到右是训练时间越长,从下到上正则化程度越大,只有在合适的训练时间和正则化程度下,四个特征都是黄色区域,代表特征最佳。
截屏2023-12-05 下午3.48.19.png
这张图进一步说明,训练时间太长,会失去小世界性。正则化太强会没有模块化结构。

6 思考

(1)模块化和小世界的区别
截屏2023-12-05 下午2.35.06.png截屏2023-12-05 下午2.35.22.png
模块化和小世界性都是关于网络结构的特征。模块化表示模块内部具有密集的连接,但模块之间的连接相对稀疏;而小世界性表示节点之间的平均路径长度较短,同时高度局部聚集。区别在于,模块化注重网络内部的连接密度和模块间的稀疏连接,以实现功能的分工和专业化;而小世界性则关注节点之间的短路径和强连接的聚集,以促进信息传播的效率和网络的整体连通性。

我认为小世界更强调模块之间的连接通信效率,网络中即使存在很好的模块化结构,模块化之间没有足够近,距离非常远的话,就是没有小世界性。
(2)用什么来衡量模块化程度和小世界性
使用大脑连接性工具箱(Brain Connectivity Toolbox)计算图论网络统计量,使用Q统计量来衡量模块化。
image.png
其中a是连接数量, l 是节点总数, δ表示节点i和j之间的连接状态,若连接则为1,否则为0, $\delta_{m_im_j} $为模块m中包含的节点i、j(若mi​=mj​,则$ \delta_{m_im_j}$​​ = 1,否则为0)。默认的分辨率参数1来测试模块度。
小世界性是指一个图的属性,大多数节点之间不是相邻节点,但节点的邻居很可能是彼此的邻居。
image.png

(2)疑惑
没有看明白图3c在表达什么,图注说的“model fit”是什么意思?如何得到的中间图,和右侧的图。为什么要用“one-way ANOVA”和“Tukey’s test”。
截屏2023-12-05 下午3.27.31.png
(3)疑惑
没有分析这张图
截屏2023-12-05 下午3.40.33.png
(4)疑惑
没有解释这张图
截屏2023-12-05 下午3.41.39.png
(5)结论
这篇论文都没有图4,直接从图3跳到了图5。可视化非常多,但是没有讲明白为什么要去做这样的可视化,如何分析可视化结果,没有讲的很清楚,大多数一笔带过好几张图。这篇论文的创新性我认为是不足够的,我觉得突出贡献是深入探讨了正则化和模型拟合训练对模块化的影响。算法并不是很难。
本文没有related work部分,可能也是因为他提出的算法没有创新性,很早就已经提出了模块化结构在RNN中的应用。
(6)吐槽
篇论文只是将另一篇工作的SNN换为了RNN,增加了更多的实验分析过程。居然可以发这么高质量的期刊。
https://github.com/andrewsiyoon/spiking-seRNN

目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
92 12
|
5月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
312 9
|
5月前
|
机器学习/深度学习 算法 机器人
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
73 9
|
5月前
|
机器学习/深度学习 算法 文件存储
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
72 9
|
5月前
|
机器学习/深度学习 算法
【博士每天一篇文献-算法】Adult neurogenesis acts as a neural regularizer
本文研究了成人神经发生(adult neurogenesis)在大脑学习过程中的作用,发现其作为一种神经调节器能提高学习泛化能力,并通过在卷积神经网络(CNN)中模拟神经发生,证明了其作为正则化手段与传统技术一样有效,甚至在某些方面更优。
32 6
|
5月前
|
机器学习/深度学习 存储 开发框架
【博士每天一篇文献-算法】NICE Neurogenesis Inspired Contextual Encoding for Replay-free Class Incremental Learn
NICE(Neurogenesis Inspired Contextual Encoding)是一种新型深度神经网络架构,旨在通过模拟生物神经系统的成熟过程来解决类别增量学习中的灾难性遗忘问题,无需重放旧样本即可实现有效的增量学习。
66 5
|
5月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
62 4
|
5月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
101 4
|
5月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
115 3
|
5月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
61 3

热门文章

最新文章