【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex

简介: 本文通过储层计算框架模拟前额叶皮层的信息处理和表示,验证了其在理解大脑皮层神经活动方面的相关性,并展示了储层模型在复杂认知任务中的高效信息表达能力。

阅读时间:2023-11-7

1 介绍

年份:2016
作者:Pierre Enel ,Emmanuel Procyk,
期刊: PLoS computational biology
引用量:174
提出更接近大脑拓扑结构的储存器具备更好的性能。

2 创新点

  1. 针对大脑皮层的高度递归连接的特性,作者提出了采用储层计算(reservoir computing)框架来模拟前额叶皮层的信息处理和表示。
  2. 通过在复杂的认知任务中比较储层模型和行为任务时猴子体内背部前扣带回区(dorsal anterior cingulate cortex,dACC)神经元的活动,论文验证了储层计算框架在理解前额叶皮层信息处理和表示方面的相关性。
  3. 论文还展示了储层模型的信息表达能力,在复杂的认知任务中与dACC神经元的活动进行了对比,从而验证了储层计算框架在前额叶皮层中理解信息处理和表示的相关性。
  4. 通过储层计算框架可以生成混合选择性表示,这对于前额叶皮层的任务学习和适应性行为具有重要意义。

4 实验策划

(1)数据采集
两只恒河猴参与了这项任务,在这项任务中,它们必须找出在触摸屏上显示的四个目标中,哪一个可以得到果汁奖励。
猴子们盯着一个中心点,把手放在屏幕上显示的杠杆上。经过一段时间的延迟,目标出现了,猴子们向一个目标扫视,并盯着它看,直到杠杆消失。
给出奖励或不奖励的反馈,猴子必须在随后的试验中重复奖励选择。
这项研究测量了猴子在执行任务时大脑皮层的神经活动。
经过训练后,猴子以近乎最佳的方式完成任务,避开了之前探索过的和没有奖励的目标,并正确地重复了奖励的选择。
在搜索阶段,第一只猴子的平均试验次数约为2.4次,第二只猴子为2.65次,在重复阶段,第一只猴子的平均试验次数约为3.14次,第二只猴子为3.4次。
(2)实验设计
采用一种基于储层的循环神经网络模型,使用储层计算来执行认知任务并生成预测。
image.png
采用递推最小二乘算法结合FORCE学习原理对读出权值进行修改。

5 实验分析

image.png

  • 该模型几乎完美地完成了所有训练协议的任务。它在随机搜索中学习困难,但在循环搜索、有序搜索和训练后从Monkey 1的表现中获得的时间表方面表现得几乎完美。
  • 大多数储层单单元对选择和阶段表现出显著的主效应,表明它们编码了与任务相关的变量。

image.png
图10 在一个问题中前后连续试验的储备池和dACC神经群体的PCA投影轨迹,呈现出吸引子样的动力学
图10说明了通过模型训练,在动态复杂的混合活动中,可以从储层网络中稳定地提取到任务相关的信号,例如系统处于搜索阶段还是重复阶段。 储层网络可以产生这种复杂的动态活动,而线性读取单元可以准确地从中提取出任务的状态。

6 思考

说明了储层具备神经科学的属性。在图10中用attractor去做的可视化,很新颖,并解释了可视化的结果,用方差去评价效果。
之前还在另一篇论文中看到了有用到这种可视化方法,但是那篇论文的作者并没有解释可视化的作用。【A pseudo-inverse decomposition-based self-organizing modular echo】
这篇论文的可视化是非常漂亮的,丰富多样,配色好看。

目录
相关文章
|
3月前
|
机器学习/深度学习 编解码 数据挖掘
【博士每天一篇文献-综述】Network hubs in the human brain
本文综述了人类大脑网络连接的研究,探讨了网络枢纽在认知功能和大脑疾病中的关键作用,并介绍了网络枢纽的检测方法以及网络模型在大脑功能研究中的应用。
38 1
|
3月前
|
存储
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
本文是2016年Paul Miller在《F1000Research》上发表的论文,深入探讨了神经回路中的动力系统和吸引子,强调了使用基于动力系统的数学模型对神经回路进行准确建模的重要性,并分析了点吸引子、多稳态、记忆、抑制稳定网络等不同动力学系统在神经回路中的作用及对认知功能的影响。
24 7
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
|
3月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
43 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
3月前
|
机器学习/深度学习 移动开发 算法
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。
19 1
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
|
3月前
|
算法 前端开发 数据可视化
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
本文综述了脑网络通信的概念、模型和应用,将脑网络通信模型分为扩散过程、参数模型和路由协议三大类,并探讨了这些模型在理解大脑功能、健康和疾病方面的应用,同时提出了未来研究方向和使用Brain Connectivity Toolbox等工具箱进行实际研究的指导。
38 1
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
|
3月前
|
存储 开发框架 .NET
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
本文综述了持续学习的理论基础、方法论和应用实践,探讨了五种主要的解决策略,包括基于回放、架构、表示、优化和正则化的方法,并深入分析了持续学习的不同场景、分类、评价指标以及面临的挑战和解决方案。
43 1
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
|
3月前
|
存储 算法
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
本文研究了在连续学习环境中使用小型情节记忆来解决灾难性遗忘问题,通过实证分析发现经验重播(ER)方法在连续学习中的表现优于现有最先进方法,并且重复训练对过去任务的小型记忆可以提升泛化性能。
21 1
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
|
3月前
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】Machine Unlearning Taxonomy, Metrics, Applications, Challenges, and Prospects
本文综述了机器遗忘的分类、评价指标、应用场景、挑战和未来研究方向,提出了精确遗忘和近似遗忘的概念,并探讨了机器遗忘在模型优化和防御攻击中的应用,同时讨论了分布式学习环境下的遗忘挑战和解决方案。
89 5
|
3月前
|
机器学习/深度学习 数据采集 运维
【博士每天一篇文献-综述】2024机器遗忘最新综述之一:A Survey on Machine Unlearning Techniques and New Emerged Privacy Risks
本文综述了机器遗忘技术及其面临的新兴隐私风险,提出了面向数据和模型的分类法,分析了信息窃取和模型破坏攻击手段,探讨了相应的防御策略,并讨论了机器遗忘技术在大型语言模型、联邦学习和异常检测等领域的应用。
51 5
|
3月前
|
机器学习/深度学习 存储 缓存
【博士每天一篇文献-综述】Machine Unlearning Solutions and Challenges
本文综述了机器遗忘的解决方案和挑战,全面分类并分析了精确遗忘和近似遗忘方法,探讨了它们在隐私保护、安全性增强、模型适应性提升中的应用,并提出了评价指标和未来研究方向。
84 2