超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%

简介: 超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%
这种人工智能芯片达到了新的超低功耗。


人类大脑并不是很大,却承载着所有的计算任务。出于这一原因,许多研究者开始对创建模拟大脑神经信号处理的人工网络感兴趣。这种人工网络被称为脉冲神经网络(spiking neural networks, SNN)。

脉冲神经网络最早由 Maass 教授于 1997 年提出,它是基于大脑运行机制的新一代人工神经网络,被誉为第三代神经网络模型。它是目前最接近类脑计算水平的一类生物启发模型,具有可处理生物激励信号以及解释大脑复杂智能行为的优势。

SNN 旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算,它与目前流行的神经网络和机器学习方法有着根本上的不同。

SNN 使用脉冲,这是一种发生在时间点上的离散事件,而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。

然而,大脑有 1000 亿个微小神经元,每个神经元通过突触与其他 10000 个神经元相连,这些神经元通过协调的电峰值模式来表示信息。事实证明,在一个紧凑的设备上使用硬件来模拟这些神经元,同时还要确保以一种节能的方式进行计算,非常具有挑战性。

在最近的一项研究中,来自孟买理工学院的研究者实现了超低功耗人工神经元,允许 SNN 排列更紧凑。

论文地址:https://ieeexplore.ieee.org/document/9782075

新研究实现 5000 倍的每个脉冲能量降低

就像大脑中的神经元,超出能量阈值会出现脉冲信号,SNN 依赖于人工神经网络,其中电流源为 leaky 电容器充电,直到达到阈值水平,人工神经元 fires,之后存储的电量重置为零 。然而,现有的 SNN 需要大的晶体管电流来为其电容器充电,这导致了高功耗,以及人工神经元 fire 过快。

在该研究中,孟买理工学院的 Udayan Ganguly 教授和他的同事合作创造了一种 SNN,这种 SNN 依赖于一种新的、紧凑的电流源来为电容器充电,这种电流源被称为 BTBT( band-to-band-tunneling current)。

在 BTBT 中,量子隧穿电流以极低的电流使电容器充电,这意味着所需的能量更少。BTBT 方法还省去了用较大电容来存储大量的电流,为芯片上更小的电容铺平了道路,从而节省了空间。

研究人员使用 45 纳米商用绝缘硅片晶体管技术对 BTBT 神经元方法进行测试,结果显示这种方法节省了大量的能源和空间。同时,他们宣布了一种新的低功耗 AI 芯片,它可以实现所谓的脉冲神经网络。

孟买理工学院研究者,包括 Maryam Shojaei Baghini(左一) 和 Udayan Ganguly(右一) 教授

与在硬件脉冲神经网络中实现的 SOTA [人工] 神经元相比,该研究在相似区域实现了 5000 倍的每个脉冲能量降低,并且在相似的区域和每个脉冲的能量降低了 10 倍,Ganguly 解释。

研究人员将 SNN 应用于语音识别模型,该模型使用 20 个人工神经元作为初始输入编码,还额外使用了 36 个人工神经元,该模型能够有效的识别口语,从而验证了该方法在现实世界中的可行性。

这项技术适用于语音活动检测、语音分类、运动模式识别、导航、生物医学信号、分类等等。虽然这些应用程序可以通过当前的服务器和超级计算机完成,但 SNN 可以使这些应用程序与边缘设备一起使用,比如手机和物联网传感器,尤其是在能源紧张的情况下。

Ganguly 表示,他的团队已经展示了 BTBT 方法对特定应用程序(例如关键字检测)有用,他们的目标是创建一个极低功耗的神经突触核心,并开发一种实时片上学习机制,这一技术是实现自主仿生神经网络的关键。

参考链接:https://spectrum.ieee.org/low-power-ai-spiking-neural-nethttps://jishuin.proginn.com/p/763bfbd6cfac

目录
打赏
0
0
0
0
368
分享
相关文章
乘AI之势,劲吹正能量之风:生成式人工智能(GAI)认证引领新时代
本文探讨了人工智能(AI)对社会的深远影响及生成式人工智能(GAI)认证的重要性。AI作为时代潮流,正重塑生活与工作方式,但其发展也带来安全与伦理挑战。GAI认证不仅衡量个人技能,还推动AI技术健康、规范地普及应用,树立正面形象。未来,通过加强AI研发、伦理建设与教育普及,可实现AI赋能社会进步,共筑充满正能量的未来。携手GAI认证,开启AI新篇章,为人类社会创造更大福祉。
神经架构搜索:自动化设计神经网络的方法
在人工智能(AI)和深度学习(Deep Learning)快速发展的背景下,神经网络架构的设计已成为一个日益复杂而关键的任务。传统上,研究人员和工程师需要通过经验和反复试验来手动设计神经网络,耗费大量时间和计算资源。随着模型规模的不断扩大,这种方法显得愈加低效和不够灵活。为了解决这一挑战,神经架构搜索(Neural Architecture Search,NAS)应运而生,成为自动化设计神经网络的重要工具。
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
294 12
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
94 0
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
125 0
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【9月更文挑战第12天】在当今科技飞速发展的时代,人工智能(AI)已深入我们的生活,从智能助手到自动驾驶,从医疗诊断到金融分析,其力量无处不在。这一切的核心是神经网络。本文将带领您搭乘Python的航船,深入AI的大脑,揭秘智能背后的秘密神经元。通过构建神经网络模型,我们可以模拟并学习复杂的数据模式。以下是一个使用Python和TensorFlow搭建的基本神经网络示例,用于解决简单的分类问题。
67 10

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等