【博士每天一篇论文-综述】An overview of brain-like computing Architecture, applications, and future trends

简介: 本文提供了对脑科学计算的介绍,包括神经元模型、神经信息编码方式、类脑芯片技术、脑科学计算的应用领域以及面临的挑战,展望了脑科学计算的未来发展趋势。

阅读时间:2023-11-16

1 介绍

年份:2022
作者:欧嵬,肖世涛,海南大学
期刊: Frontiers in Neurorobotics
引用量:3
这篇论文是关于脑科学计算的概述,介绍了常用的神经元模型包括Hodgkin-Huxley模型、积分-火灾模型、漏电积分-火灾模型、Izhikevich模型和AdEx IF模型,它们模拟和建模了人脑神经系统的基本结构和功能单元。编码神经系统信息的两种常用方法是速率编码和时间编码。脑科学计算在机器学习、模式识别等领域具有重要应用。

2 相关研究

在这里插入图片描述

2.1 类脑计算

大脑类计算机使用脉冲神经网络(SNN)代替经典计算机的冯·诺伊曼架构,并使用微观和纳米光电子器件模拟生物神经元和突触的信息处理特性。
脑样计算模型可以分为三个主要方面:神经元的模拟、神经系统的信息编码和神经网络的学习算法。
1)Hodgkin-Huxley (HH)模型是最接近生物实际的神经元模型,被广泛应用于计算神经科学领域。它可以模拟多种神经元功能,例如激活、失活、动作电位和离子通道。HH模型以离子活动来描述神经元的电活动。细胞膜包含钠、钾和漏电通道,每种离子通道都有不同的门控蛋白质,可以限制离子的通过,因此膜内外每种离子的渗透性不同,导致神经元具有丰富的电活动。在数学层面上,门控蛋白质的结合效应等效于离子通道的电导。离子通道的电导作为一个依赖变量,随着离子通道的激活和失活变量而变化。离子通道的电流由离子通道的电导、离子通道的反向电位和膜电位决定。总电流由漏电流、钠电流、钾电流和由于膜电位变化而产生的电流组成。因此,HH模型也将细胞膜等效于电路图。
2)Integrate-and-fire (IF)和leaky integrate-and-fire (LIF)模型描述了神经元膜电位随时间变化的模型。1907年,Lapicque提出了积分-火模型。其中,IF模型根据模型中神经元膜电位随输入电流的变化来描述神经元的膜电位。LIF模型在IF模型的基础上增加了神经元电压泄漏的模拟。当一段时间内没有电流输入时,膜电压会逐渐泄漏至静息电位。与IF模型相比,LIF模型更接近生物实际,模拟了神经元的膜电位泄漏特性。
3)Izhikevich模型是在非线性动力系统的角度上提出的,能够展示多种生物神经元的放电行为。Izhikevich模型的算法复杂度接近LIF模型,它通过调整参数a、b、c和d来调节辅助变量U,从而展示类似HH模型的放电行为。不同于HH模型,Izhikevich模型的参数没有明确的生理意义。
4)AdExIF模型是对Izhikevich模型的改进。它减慢了膜电压的响应速度,导致神经元在恒定电压刺激条件下脉冲传递的频率逐渐降低。可以把这看作是神经元的响应逐渐减慢,在发送脉冲后逐渐“累积疲劳”的过程。AdExIF模型的这一特征更接近HH模型的放电行为结果。
五种模型对比如下:

神经元模型 电路形式 优点 缺陷
HH 电容电阻电路 接近生物神经元,高准确性 表达复杂,操作复杂
LF 电容 操作简单 简单模型带有记忆效应
LIF 电容电阻电路 模拟静息状态,操作简单 模型简单,忽略许多神经动力学性质
Izhikevich 模拟多种放电模式 计算效率低
AdEx lF 模拟多种放电模式 在恒定电压刺激下降低脉冲射频率

2.2 神经信息编码

(1)频率编码(Rate coding)
频率编码主要利用随机过程方法生成脉冲序列。适用于泊松编码的神经元响应函数由一系列脉冲函数组成。
(2)时序编码(Temporal coding)
时序编码通常使用首次脉冲发射的时刻作为时序编码的机制。脉冲发射时间与图像像素的强度值相关。时序编码是一种将刺激表示为多个神经元联合活动的方法。常用的模型是高斯群编码模型。
(3)种群编码(population code)
种群编码是使用多个神经元的联合活动来表示刺激的方法。高斯种群编码是最常用的群集编码模型。

2.3 类脑芯片

(1)Darwin芯片
Darwin芯片是基于脉冲神经网络的神经形态计算处理器,采用事件驱动的工作方式。它使用Addressevent表示法(AER)来编码输入和输出的脉冲信息。AER包含产生脉冲的神经元ID和脉冲生成的时间戳。Darwin芯片根据输入的AER包进行事件驱动的处理。脉冲路由器将脉冲转换为带权重的延迟信息,通过访问存储器和SDRAM进行存储和传输。
(2)Tianjic芯片
Tianjic芯片是一种用于Spiking Neural Networks (SNNs)和Artificial Neural Networks (ANNs)的神经形态计算芯片。它可以在SNN模式和ANN模式之间切换,并使用相同的计算器进行信息处理。该芯片具有多核架构,支持大规模网络或多个网络的并行处理。它具有可重构的路由表,可以实现任意的连接拓扑结构。
(3)TrueNorth芯片
TrueNorth芯片是IBM开发的一种仿脑结构的计算芯片,它通过模拟脑结构和进行神经仿真来构建脑样计算芯片。TrueNorth芯片以神经元作为主要计算单元,通过脉冲信号的传导过程进行神经仿真。它采用基本的神经形态计算单元——神经元核作为整个网络的基本构建单元,通过突触连接实现神经元之间的信息传递。TrueNorth芯片具有多核架构,使用核块之间的水平和竖直线路传输数据。
(4)Neurogrid芯片
Neurogrid芯片是一种神经元芯片,它由轴突、突触、树突和细胞质部分组成。Neurogrid芯片有四种结构可供选择:完全专用(FD)、共享轴突(SA)、共享突触(SS)和共享树突(SD)。该芯片可根据其架构和实现方式对轴突、突触、树突和细胞进行分类。它可以通过模拟实现或完全数字实现。Neurogrid芯片可用于神经元网络的模拟和处理。
(5)BrainScaleS-2芯片
BrainScaleS-2芯片是另一种神经元芯片,其架构集成了模拟和数字电路块。该芯片的数字处理器核心被称为可塑性处理单元(PPU),模拟核心则包括突触和神经元电路、PPU接口、模拟参数存储器和所有与事件相关的接口组件。BrainScaleS-2芯片还具有数字可塑性处理器,该处理器专用于高度并行的单指令多数据(SIMD)操作,并具备建模能力。该芯片的架构经过优化,使得神经元电路位于模拟核心的中心,以实现最高效的排列。

项目和机构 制造工艺 神经元数量 突触数量 神经元模型 学习算法 优势 缺陷
Darwin,浙江大学 180纳米CMOS 2,048 4,194,304 LIF \ 高度可配置 单芯片,规模较小
Tianjic,清华大学 28纳米CMOS 40,000 100,000,000 LIF STDP 异构融合 \
TrueNorth 28纳米CMOS 1,000,000 256,000,000 LIF \ 高度可配置 仅支持离片学习
Neurogrid 180纳米CMOS 1,048,576 数亿 QIF \ 高吞吐量 无可塑性
BrainScaleS-2 65纳米CMOS 196,608 50,331,648 AdEx IF STDP 混合可塑性规则 未展示处理实际任务的能力

2.4 应用

(1)医疗健康
脑类计算的主要应用是基于脑-计算机接口技术。这一技术可以在以下四个方面发挥作用:监测、改善、替代和增强。
(2)智能教育
脑类计算研究希望通过直接观察相应的脑电波和脑活动解码来研究儿童的发育和心理问题。
(3)智能交通
类脑研究可以用于自动驾驶汽车的感知和决策能力提升。比如,采用类脑芯片的视觉传感器可以实现自动驾驶汽车对图像中亮度变化的快速检测。此外,类脑芯片也能用于自动驾驶车辆的声音识别和定位,使自动驾驶更加安全可靠。
(4)军事应用
类脑研究具有超低功耗、大规模并行计算和实时信息处理的技术优势。类脑芯片可用于军事目标的实时高速动态视觉识别和追踪。它还可以用于构建认知超级计算机,实现对大规模数据的快速处理。特别是在高速动态识别领域,超低延迟实时高速动态视觉识别技术非常重要。

2.5 面临的挑战

(1)大脑与机器之间的差异
由于大脑的复杂性以及与机器的巨大差异,导致了大脑信号获取的困难、脑机互动的低效、缺乏大脑智能干预手段、对大脑区域干预目标的高要求以及融合系统构建的难度。
(2)传统计算机架构的限制
传统计算机结构在发展中遇到了两个主要瓶颈,即冯·诺依曼结构引起的存储墙效应和摩尔定律的失效。传统处理器架构在处理实时智能问题时效率低下、能耗高,无法构建适合处理非结构化信息的算法,并且程序或数据传输的速率与中央处理器处理信息的速率不匹配,造成了存储墙效应。此外,随着芯片尺寸逐渐逼近单个原子的尺寸,设备逐渐接近各自物理微型化的极限,性能提升的成本将变得更高,技术实现将变得更加困难。因此,研究人员寄希望于脑型计算以突破当前的技术瓶颈。
(3)硬件模拟大脑计算过程的挑战
使用硬件模拟大脑计算过程仍然面临着架构、器件和芯片方面的重要挑战。一方面,传统CMOS等传统技术在芯片存储密度和功耗方面已经遇到了瓶颈,而新型纳米器件仍存在着工艺稳定性差、难以扩展等问题。脑型材料和器件需要新的技术突破当前瓶颈。另一方面,脑型系统需要数百亿个神经元共同工作,然而现有的脑型芯片在有限的硬件资源和能耗的约束下,难以实现大规模互连的神经元和高效的神经脉冲信息实时传输。
(3)大脑思考效率的提升
目前人脑思考的效率需要紧急提高。大脑芯片的超低功耗、超低延迟、实时高速动态视觉识别、跟踪技术以及传感器信息处理技术是国家国防科技战略水平的关键技术。特别是超低延迟实时高速动态视觉识别技术在高速动态识别领域具有极其重要的作用。

目录
相关文章
|
4月前
|
机器学习/深度学习 数据采集 数据可视化
【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex
本文通过储层计算框架模拟前额叶皮层的信息处理和表示,验证了其在理解大脑皮层神经活动方面的相关性,并展示了储层模型在复杂认知任务中的高效信息表达能力。
39 1
【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex
|
4月前
|
移动开发 算法 数据挖掘
【博士每天一篇文献-算法】Extending stability through hierarchical clusters in Echo State Networks
本文研究了在回声状态网络(ESN)中引入分层聚类结构对网络稳定性的影响,发现通过调整簇内和簇间的连接性及每个簇的主干单元数量,可以扩展谱半径的稳定范围,从而提高网络的稳定性和性能。
42 2
|
4月前
|
机器学习/深度学习 传感器 人工智能
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
本文提供了对脑启发计算(BIC)领域的系统性综述,深入探讨了BIC的理论模型、硬件架构、软件工具、基准数据集,并分析了该领域在人工智能中的重要性、最新进展、主要挑战和未来发展趋势。
88 2
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
|
4月前
|
算法 前端开发 数据可视化
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
本文综述了脑网络通信的概念、模型和应用,将脑网络通信模型分为扩散过程、参数模型和路由协议三大类,并探讨了这些模型在理解大脑功能、健康和疾病方面的应用,同时提出了未来研究方向和使用Brain Connectivity Toolbox等工具箱进行实际研究的指导。
46 1
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
|
4月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
50 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
4月前
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】Machine Unlearning Taxonomy, Metrics, Applications, Challenges, and Prospects
本文综述了机器遗忘的分类、评价指标、应用场景、挑战和未来研究方向,提出了精确遗忘和近似遗忘的概念,并探讨了机器遗忘在模型优化和防御攻击中的应用,同时讨论了分布式学习环境下的遗忘挑战和解决方案。
111 5
|
4月前
|
机器学习/深度学习 存储 缓存
【博士每天一篇文献-综述】Machine Unlearning Solutions and Challenges
本文综述了机器遗忘的解决方案和挑战,全面分类并分析了精确遗忘和近似遗忘方法,探讨了它们在隐私保护、安全性增强、模型适应性提升中的应用,并提出了评价指标和未来研究方向。
105 2
|
4月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
53 3
|
4月前
|
机器学习/深度学习 算法 网络架构
【博士每天一篇文献-算法】CircuitNet:A Generic Neural Network to Realize Universal Circuit Motif Modeling
本文介绍了CircuitNet,这是一种新型神经网络,它受到神经回路结构的启发,通过使用电路基元单元(CMUs)来模拟通用电路基元,并通过调整CMU内部权重来实现建模,在多种机器学习任务中展现出优于传统前馈网络的性能。
59 3
|
7月前
|
编解码 人工智能 定位技术
MERRA (Modern-Era Retrospective analysis for Research and Applications) 是由 NASA 气候数据集
MERRA (Modern-Era Retrospective analysis for Research and Applications) 是由 NASA 气候数据集
94 0

热门文章

最新文章