【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex

简介: 本文通过储层计算框架模拟前额叶皮层的信息处理和表示,验证了其在理解大脑皮层神经活动方面的相关性,并展示了储层模型在复杂认知任务中的高效信息表达能力。

阅读时间:2023-11-7

1 介绍

年份:2016
作者:Pierre Enel ,Emmanuel Procyk,
期刊: PLoS computational biology
引用量:174
提出更接近大脑拓扑结构的储存器具备更好的性能。

2 创新点

  1. 针对大脑皮层的高度递归连接的特性,作者提出了采用储层计算(reservoir computing)框架来模拟前额叶皮层的信息处理和表示。
  2. 通过在复杂的认知任务中比较储层模型和行为任务时猴子体内背部前扣带回区(dorsal anterior cingulate cortex,dACC)神经元的活动,论文验证了储层计算框架在理解前额叶皮层信息处理和表示方面的相关性。
  3. 论文还展示了储层模型的信息表达能力,在复杂的认知任务中与dACC神经元的活动进行了对比,从而验证了储层计算框架在前额叶皮层中理解信息处理和表示的相关性。
  4. 通过储层计算框架可以生成混合选择性表示,这对于前额叶皮层的任务学习和适应性行为具有重要意义。

4 实验策划

(1)数据采集
两只恒河猴参与了这项任务,在这项任务中,它们必须找出在触摸屏上显示的四个目标中,哪一个可以得到果汁奖励。
猴子们盯着一个中心点,把手放在屏幕上显示的杠杆上。经过一段时间的延迟,目标出现了,猴子们向一个目标扫视,并盯着它看,直到杠杆消失。
给出奖励或不奖励的反馈,猴子必须在随后的试验中重复奖励选择。
这项研究测量了猴子在执行任务时大脑皮层的神经活动。
经过训练后,猴子以近乎最佳的方式完成任务,避开了之前探索过的和没有奖励的目标,并正确地重复了奖励的选择。
在搜索阶段,第一只猴子的平均试验次数约为2.4次,第二只猴子为2.65次,在重复阶段,第一只猴子的平均试验次数约为3.14次,第二只猴子为3.4次。
(2)实验设计
采用一种基于储层的循环神经网络模型,使用储层计算来执行认知任务并生成预测。
image.png
采用递推最小二乘算法结合FORCE学习原理对读出权值进行修改。

5 实验分析

image.png

  • 该模型几乎完美地完成了所有训练协议的任务。它在随机搜索中学习困难,但在循环搜索、有序搜索和训练后从Monkey 1的表现中获得的时间表方面表现得几乎完美。
  • 大多数储层单单元对选择和阶段表现出显著的主效应,表明它们编码了与任务相关的变量。

image.png
图10 在一个问题中前后连续试验的储备池和dACC神经群体的PCA投影轨迹,呈现出吸引子样的动力学
图10说明了通过模型训练,在动态复杂的混合活动中,可以从储层网络中稳定地提取到任务相关的信号,例如系统处于搜索阶段还是重复阶段。 储层网络可以产生这种复杂的动态活动,而线性读取单元可以准确地从中提取出任务的状态。

6 思考

说明了储层具备神经科学的属性。在图10中用attractor去做的可视化,很新颖,并解释了可视化的结果,用方差去评价效果。
之前还在另一篇论文中看到了有用到这种可视化方法,但是那篇论文的作者并没有解释可视化的作用。【A pseudo-inverse decomposition-based self-organizing modular echo】
这篇论文的可视化是非常漂亮的,丰富多样,配色好看。

目录
相关文章
|
3月前
|
存储
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
本文是2016年Paul Miller在《F1000Research》上发表的论文,深入探讨了神经回路中的动力系统和吸引子,强调了使用基于动力系统的数学模型对神经回路进行准确建模的重要性,并分析了点吸引子、多稳态、记忆、抑制稳定网络等不同动力学系统在神经回路中的作用及对认知功能的影响。
25 7
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
|
3月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
45 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
3月前
|
机器学习/深度学习 移动开发 算法
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。
21 1
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
|
3月前
|
存储 算法
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
本文研究了在连续学习环境中使用小型情节记忆来解决灾难性遗忘问题,通过实证分析发现经验重播(ER)方法在连续学习中的表现优于现有最先进方法,并且重复训练对过去任务的小型记忆可以提升泛化性能。
22 1
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
|
3月前
|
机器学习/深度学习 数据采集 运维
【博士每天一篇文献-综述】2024机器遗忘最新综述之一:A Survey on Machine Unlearning Techniques and New Emerged Privacy Risks
本文综述了机器遗忘技术及其面临的新兴隐私风险,提出了面向数据和模型的分类法,分析了信息窃取和模型破坏攻击手段,探讨了相应的防御策略,并讨论了机器遗忘技术在大型语言模型、联邦学习和异常检测等领域的应用。
54 5
|
3月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
43 3
|
3月前
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】Machine Unlearning Taxonomy, Metrics, Applications, Challenges, and Prospects
本文综述了机器遗忘的分类、评价指标、应用场景、挑战和未来研究方向,提出了精确遗忘和近似遗忘的概念,并探讨了机器遗忘在模型优化和防御攻击中的应用,同时讨论了分布式学习环境下的遗忘挑战和解决方案。
96 5
|
3月前
|
机器学习/深度学习 存储 缓存
【博士每天一篇文献-综述】Machine Unlearning Solutions and Challenges
本文综述了机器遗忘的解决方案和挑战,全面分类并分析了精确遗忘和近似遗忘方法,探讨了它们在隐私保护、安全性增强、模型适应性提升中的应用,并提出了评价指标和未来研究方向。
90 2
|
3月前
|
机器学习/深度学习 存储 算法
【博士每天一篇论文-技术综述】Machine Learning With Echo State Networks 一篇系统讲解ESN知识的五星文章
本文是一篇技术报告,全面介绍了回声状态网络(ESNs)的数学模型、属性、意义、训练方法、深度ESN的发展、应用和局限性,并探讨了未来的研究方向,为理解ESNs在机器学习中的应用提供了系统性的综述。
65 3
|
3月前
|
机器学习/深度学习 算法 网络架构
【博士每天一篇文献-算法】CircuitNet:A Generic Neural Network to Realize Universal Circuit Motif Modeling
本文介绍了CircuitNet,这是一种新型神经网络,它受到神经回路结构的启发,通过使用电路基元单元(CMUs)来模拟通用电路基元,并通过调整CMU内部权重来实现建模,在多种机器学习任务中展现出优于传统前馈网络的性能。
55 3