超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%

简介: 超低功耗AI芯片:神经脉冲只需同类神经网络能量的0.02%
这种人工智能芯片达到了新的超低功耗。


人类大脑并不是很大,却承载着所有的计算任务。出于这一原因,许多研究者开始对创建模拟大脑神经信号处理的人工网络感兴趣。这种人工网络被称为脉冲神经网络(spiking neural networks, SNN)。

脉冲神经网络最早由 Maass 教授于 1997 年提出,它是基于大脑运行机制的新一代人工神经网络,被誉为第三代神经网络模型。它是目前最接近类脑计算水平的一类生物启发模型,具有可处理生物激励信号以及解释大脑复杂智能行为的优势。

SNN 旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算,它与目前流行的神经网络和机器学习方法有着根本上的不同。

SNN 使用脉冲,这是一种发生在时间点上的离散事件,而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。

然而,大脑有 1000 亿个微小神经元,每个神经元通过突触与其他 10000 个神经元相连,这些神经元通过协调的电峰值模式来表示信息。事实证明,在一个紧凑的设备上使用硬件来模拟这些神经元,同时还要确保以一种节能的方式进行计算,非常具有挑战性。

在最近的一项研究中,来自孟买理工学院的研究者实现了超低功耗人工神经元,允许 SNN 排列更紧凑。

论文地址:https://ieeexplore.ieee.org/document/9782075

新研究实现 5000 倍的每个脉冲能量降低

就像大脑中的神经元,超出能量阈值会出现脉冲信号,SNN 依赖于人工神经网络,其中电流源为 leaky 电容器充电,直到达到阈值水平,人工神经元 fires,之后存储的电量重置为零 。然而,现有的 SNN 需要大的晶体管电流来为其电容器充电,这导致了高功耗,以及人工神经元 fire 过快。

在该研究中,孟买理工学院的 Udayan Ganguly 教授和他的同事合作创造了一种 SNN,这种 SNN 依赖于一种新的、紧凑的电流源来为电容器充电,这种电流源被称为 BTBT( band-to-band-tunneling current)。

在 BTBT 中,量子隧穿电流以极低的电流使电容器充电,这意味着所需的能量更少。BTBT 方法还省去了用较大电容来存储大量的电流,为芯片上更小的电容铺平了道路,从而节省了空间。

研究人员使用 45 纳米商用绝缘硅片晶体管技术对 BTBT 神经元方法进行测试,结果显示这种方法节省了大量的能源和空间。同时,他们宣布了一种新的低功耗 AI 芯片,它可以实现所谓的脉冲神经网络。

孟买理工学院研究者,包括 Maryam Shojaei Baghini(左一) 和 Udayan Ganguly(右一) 教授

与在硬件脉冲神经网络中实现的 SOTA [人工] 神经元相比,该研究在相似区域实现了 5000 倍的每个脉冲能量降低,并且在相似的区域和每个脉冲的能量降低了 10 倍,Ganguly 解释。

研究人员将 SNN 应用于语音识别模型,该模型使用 20 个人工神经元作为初始输入编码,还额外使用了 36 个人工神经元,该模型能够有效的识别口语,从而验证了该方法在现实世界中的可行性。

这项技术适用于语音活动检测、语音分类、运动模式识别、导航、生物医学信号、分类等等。虽然这些应用程序可以通过当前的服务器和超级计算机完成,但 SNN 可以使这些应用程序与边缘设备一起使用,比如手机和物联网传感器,尤其是在能源紧张的情况下。

Ganguly 表示,他的团队已经展示了 BTBT 方法对特定应用程序(例如关键字检测)有用,他们的目标是创建一个极低功耗的神经突触核心,并开发一种实时片上学习机制,这一技术是实现自主仿生神经网络的关键。

参考链接:https://spectrum.ieee.org/low-power-ai-spiking-neural-nethttps://jishuin.proginn.com/p/763bfbd6cfac

目录
打赏
0
0
0
0
367
分享
相关文章
领先AI企业经验谈:探究AI分布式推理网络架构实践
当前,AI行业正处于快速发展的关键时期。继DeepSeek大放异彩之后,又一款备受瞩目的AI智能体产品Manus横空出世。Manus具备独立思考、规划和执行复杂任务的能力,其多智能体架构能够自主调用工具。在GAIA基准测试中,Manus的性能超越了OpenAI同层次的大模型,展现出卓越的技术实力。
写在2025 MWC前夕:AI与移动网络融合的“奇点时刻”
2025年MWC前夕,AI与移动网络融合迎来“奇点时刻”。上海东方医院通过“思维链提示”快速诊断罕见病,某金融机构借助AI识别新型欺诈模式,均展示了AI在推理和学习上的飞跃。5G-A时代,低时延、大带宽特性支持端云协同,推动多模态AI感知能力提升,数字孪生技术打通物理与数字世界,助力各行业智能化转型。AI赋能移动网络,实现智能动态节能和优化用户体验,预示着更聪明、绿色、高效的未来。
DeepSeek:掀翻互联网底层的“东方神秘力量” ——当AI大模型成为网络世界的“基建狂魔”
DeepSeek正重构网络底层逻辑,从“哑管道”到“认知神经”,赋予网络思考能力。它通过意图驱动和认知架构,优化带宽资源,提升效率。技术上,MOE+MLA架构与FP8精度训练大幅降低成本,性能超越传统模型。产业链方面,通信巨头转型为“AI驯兽师”,推出智能预测、定制化网络等服务。然而,AI基建也面临安全挑战,如僵尸网络攻击和隐私问题。展望6G,AGI将成新“网络原住民”,带来更智能的服务。这场变革不仅提升了连接效率,还创造了更多价值。
使用通义灵码AI高效学习muduo网络库开发指南
Muduo 是一个基于 C++11 的高性能网络库,支持多线程和事件驱动,适用于构建高效的服务器和应用程序。它提供 TCP/IP 协议支持、异步非阻塞 I/O、定时器、异步日志等功能,并具备跨平台特性。通过 Git 克隆 muduo 仓库并切换至 C++17 分支可开始使用。借助 AI 工具如 Deepseak-v3,用户可以更便捷地学习和理解 Muduo 的核心模块及编写测试用例,提升开发效率。
AI时代的网络安全:传统技术的落寞与新机遇
在AI时代,网络安全正经历深刻变革。传统技术如多因素身份认证、防火墙和基于密码的系统逐渐失效,难以应对新型攻击。然而,AI带来了新机遇:智能化威胁检测、优化安全流程、生物特征加密及漏洞管理等。AI赋能的安全解决方案大幅提升防护能力,但也面临数据隐私和技能短缺等挑战。企业需制定清晰AI政策,强化人机协作,推动行业持续发展。
82 16
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
FireCrawl 是一款开源的 AI 网络爬虫工具,专为处理动态网页内容、自动爬取网站及子页面而设计,支持多种数据提取和输出格式。
545 19
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
基于AI的网络流量分析:构建智能化运维体系
基于AI的网络流量分析:构建智能化运维体系
448 13
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
233 12
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
79 0

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等