超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%

简介: 超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%
这种人工智能芯片达到了新的超低功耗。


人类大脑并不是很大,却承载着所有的计算任务。出于这一原因,许多研究者开始对创建模拟大脑神经信号处理的人工网络感兴趣。这种人工网络被称为脉冲神经网络(spiking neural networks, SNN)。

脉冲神经网络最早由 Maass 教授于 1997 年提出,它是基于大脑运行机制的新一代人工神经网络,被誉为第三代神经网络模型。它是目前最接近类脑计算水平的一类生物启发模型,具有可处理生物激励信号以及解释大脑复杂智能行为的优势。

SNN 旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算,它与目前流行的神经网络和机器学习方法有着根本上的不同。

SNN 使用脉冲,这是一种发生在时间点上的离散事件,而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。

然而,大脑有 1000 亿个微小神经元,每个神经元通过突触与其他 10000 个神经元相连,这些神经元通过协调的电峰值模式来表示信息。事实证明,在一个紧凑的设备上使用硬件来模拟这些神经元,同时还要确保以一种节能的方式进行计算,非常具有挑战性。

在最近的一项研究中,来自孟买理工学院的研究者实现了超低功耗人工神经元,允许 SNN 排列更紧凑。

论文地址:https://ieeexplore.ieee.org/document/9782075

新研究实现 5000 倍的每个脉冲能量降低

就像大脑中的神经元,超出能量阈值会出现脉冲信号,SNN 依赖于人工神经网络,其中电流源为 leaky 电容器充电,直到达到阈值水平,人工神经元 fires,之后存储的电量重置为零 。然而,现有的 SNN 需要大的晶体管电流来为其电容器充电,这导致了高功耗,以及人工神经元 fire 过快。

在该研究中,孟买理工学院的 Udayan Ganguly 教授和他的同事合作创造了一种 SNN,这种 SNN 依赖于一种新的、紧凑的电流源来为电容器充电,这种电流源被称为 BTBT( band-to-band-tunneling current)。

在 BTBT 中,量子隧穿电流以极低的电流使电容器充电,这意味着所需的能量更少。BTBT 方法还省去了用较大电容来存储大量的电流,为芯片上更小的电容铺平了道路,从而节省了空间。

研究人员使用 45 纳米商用绝缘硅片晶体管技术对 BTBT 神经元方法进行测试,结果显示这种方法节省了大量的能源和空间。同时,他们宣布了一种新的低功耗 AI 芯片,它可以实现所谓的脉冲神经网络。

孟买理工学院研究者,包括 Maryam Shojaei Baghini(左一) 和 Udayan Ganguly(右一) 教授

与在硬件脉冲神经网络中实现的 SOTA [人工] 神经元相比,该研究在相似区域实现了 5000 倍的每个脉冲能量降低,并且在相似的区域和每个脉冲的能量降低了 10 倍,Ganguly 解释。

研究人员将 SNN 应用于语音识别模型,该模型使用 20 个人工神经元作为初始输入编码,还额外使用了 36 个人工神经元,该模型能够有效的识别口语,从而验证了该方法在现实世界中的可行性。

这项技术适用于语音活动检测、语音分类、运动模式识别、导航、生物医学信号、分类等等。虽然这些应用程序可以通过当前的服务器和超级计算机完成,但 SNN 可以使这些应用程序与边缘设备一起使用,比如手机和物联网传感器,尤其是在能源紧张的情况下。

Ganguly 表示,他的团队已经展示了 BTBT 方法对特定应用程序(例如关键字检测)有用,他们的目标是创建一个极低功耗的神经突触核心,并开发一种实时片上学习机制,这一技术是实现自主仿生神经网络的关键。

参考链接:https://spectrum.ieee.org/low-power-ai-spiking-neural-nethttps://jishuin.proginn.com/p/763bfbd6cfac

相关文章
|
21天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
63 12
|
4月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【8月更文挑战第1天】在当今科技飞速发展的时代,AI已成为日常生活中不可或缺的一部分。神经网络作为AI的核心,通过模拟人脑中的神经元连接方式处理复杂数据模式。利用Python及其强大的库TensorFlow,我们可以轻松构建神经网络模型。示例代码展示了如何建立一个含有两层隐藏层的简单神经网络,用于分类任务。神经网络通过反向传播算法不断优化权重和偏置,从而提高预测准确性。随着技术的进步,神经网络正变得越来越深、越来越复杂,能够应对更加艰巨的挑战,推动着AI领域向前发展。
54 2
|
18天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
3月前
|
缓存 算法 物联网
基于AODV和leach协议的自组网络平台matlab仿真,对比吞吐量,负荷,丢包率,剩余节点个数,节点消耗能量
本系统基于MATLAB 2017b,对AODV与LEACH自组网进行了升级仿真,新增运动节点路由测试,修正丢包率统计。AODV是一种按需路由协议,结合DSDV和DSR,支持动态路由。程序包含参数设置、消息收发等功能模块,通过GUI界面配置节点数量、仿真时间和路由协议等参数,并计算网络性能指标。 该代码实现了节点能量管理、簇头选举、路由发现等功能,并统计了网络性能指标。
179 73
|
24天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
46 0
|
24天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
41 0
|
2月前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
2月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
2月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【9月更文挑战第12天】在当今科技飞速发展的时代,人工智能(AI)已深入我们的生活,从智能助手到自动驾驶,从医疗诊断到金融分析,其力量无处不在。这一切的核心是神经网络。本文将带领您搭乘Python的航船,深入AI的大脑,揭秘智能背后的秘密神经元。通过构建神经网络模型,我们可以模拟并学习复杂的数据模式。以下是一个使用Python和TensorFlow搭建的基本神经网络示例,用于解决简单的分类问题。
53 10