登上Nature子刊封面:英特尔神经芯片实现在线学习

简介: 神经形态芯片真的可以模拟人脑吗?最近一期《自然机器智能》的封面研究向我们展示了这一可能性。

神经形态芯片真的可以模拟人脑吗?最近一期《自然机器智能》的封面研究向我们展示了这一可能性。


近日,来自英特尔和康奈尔大学的研究者宣布,团队已经在神经形态芯片 Loihi 上成功设计了基于大脑嗅觉电路的算法,实现了在线学习和强记忆力能力。这项研究发表在最新一期自然杂志子刊上《Nature Machine Intelligence》上,并成为封面文章。


微信图片_20211203141534.jpg

论文地址:https://www.nature.com/articles/s42256-020-0159-4


在该研究中,研究者展示了英特尔神经形态研究芯片 Loihi 在存在明显噪声和遮盖的情况下学习和识别危险化学品的能力


该系统基于英特尔的神经形态研究芯片 Loihi 和 72 个化学传感器,Loihi 被编程为模仿嗅球中神经元的运作——后者是区分不同气味的大脑区域。研究人员表示,这一系统未来可被用于监视空气中的有害物质,嗅出隐藏的毒品或爆炸物,或帮助进行医学诊断。


image.jpeg

论文第一作者,英特尔实验室的 Nabil Imam 和 Loihi 测试版神经芯片。该团队正在芯片上构建算法模仿人类闻到某种气味后大脑神经网络中发生的情况。


人工嗅觉实现在线学习和记忆能力


在系统中,传感器对各种气味的反应被传送至 Loihi,由其芯片电路对嗅觉背后的大脑电路进行模拟。Loihi 芯片迅速掌握了 10 种气味各自的神经表征,其中包括丙酮、氨和甲烷,即使有强烈的环境干扰也能识别出这些气味。


Loihi 仅需单一样本便可学会识别每一种气味,且不会破坏它对先前所学气味的记忆。与传统的最先进方法相比,Loihi 展现出了极其出色的识别准确率传统的深度学习解决方案要达到与 Loihi 相同的分类准确率,学习每类气味需要 3,000 倍以上的训练样本。后者是一个耗费大量时间和算力的过程,而且经常会在遇到全新类型目标时识别失败。


作为这一研究的基础,英特尔 Loihi 芯片架构与传统 CPU、GPU 甚至深度学习芯片 TPU 相比都更加接近于大脑的工作机制。英特尔一直希望这种新形式的芯片可以完成目前 AI 系统无法完成的任务,或至少实现更快的速度。


与当前人工智能领域的人工神经元不同,Loihi 的神经元以数字表达的「脉冲」传输信息,这与人类大脑的处理模式更加类似


image.jpeg

模型架构和信号编码。


英特尔高级研究科学家 Nabil Imam 表示:「下一步是将这种方法应用到更广泛的问题上,从感官场景分析到计划或决策等抽象问题。如果我们理解了大脑的神经回路如何解决这些复杂的计算问题,就可为高效和鲁棒的机器智能设计提供重要线索。」


但在此之前,还需要克服一些挑战。系统需要实现将不同但类似的气味归类到同一组,比如它需要分辨出加利福尼亚的草莓和欧洲的草莓是同一种水果。


Nabil Imam 表示:「这些问题超出了我们目前在实验室中已完成的演示实验的范围,也是我们在未来几年内希望解决的问题,使其成为一种能够解决实际问题的产品。」


Loihi:「人脑模拟器」


人类大脑由大约 860 亿个互相连接的神经元组成,英特尔去年 7 月正式推出的「Pohoiki Beach」系统已经做到了 830 万神经元,并已供广大研究人员使用,它包含 64 块 Loihi 研究芯片。


通过 Pohoiki Beach,研究人员可以利用英特尔的 Loihi 研究芯片开展实验。在稀疏编码、图搜索和约束满足问题等专业应用领域,Loihi 能让用户以千倍于 CPU 的速度和万倍于 CPU 的效率处理信息。


image.jpeg

英特尔研究院院长 Rich Uhlig 手持一块英特尔 Nahuku 基板,每块基板包含 8 到 32 块英特尔 Loihi 神经形态芯片。英特尔最新的神经形态系统 Pohoiki Beach 由多块 Nahuku 基板组成,含 64 块 Loihi 芯片。


在硬件之上,英特尔还提供了 Loihi 开发工具链:包括 Loihi Python API、编译器和一组用于在 Loihi 上构建和执行 SNN 的执行库。这些工具提供了自定义构建神经、突触计算图的方法,可调整诸如衰减时间、突触权重、脉冲阈值等变量,也可通过自定义学习规则注入外部脉冲来模拟计算图。


英特尔称,与传统处理器相比,Loihi 处理信息的速度要快上 1000 倍,而效率则要高上 1 万倍在处理某些类型的优化问题上,神经形态处理器的速度和能效要比普通 CPU 强三个数量级以上。此外,英特尔还表示 Loihi 在扩展 50 倍时,在保证算力的情形下仅需增加 30% 的能耗——而常规架构的芯片需要 50 倍能耗。在进行同步定位和映射等操作时,新的芯片比常规 CPU 节省 100 倍能耗。

与人脑中的神经元类似,Loihi 拥有数字轴突用于向临近神经元发送电信号,也有树突用于接收信号,在两者之间还有用于连接的突触。英特尔表示,基于这种芯片的系统已经被用于模拟皮肤的触觉感应、控制假腿和玩桌上足球等任务

因为效率颇高,Pohoiki Beach 和 Loihi 有望成为人工智能算法发展的新动力。英特尔称,新形态的芯片可以在图像识别、自动驾驶和自动化机器人等方面带来巨大技术提升。


面向未来,英特尔表示即将推出一个更大的 Loihi 系统——Pohoki Springs,该系统将拥有超过 1 亿神经元、1 万亿个突触,预计包含 768 颗芯片、1.5 万亿个晶体管。下一代神经形态系统将提供「前所未有的」性能和效率。


参考内容:https://www.nature.com/articles/s42256-020-0159-4https://newsroom.intel.com/news/how-computer-chip-smell-without-nose/#gs.0166rjhttps://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/intels-neuromorphic-nose-learns-scents-in-just-one-sniff



相关文章
|
6月前
|
机器学习/深度学习 人工智能 算法
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
【4月更文挑战第12天】斯坦福大学研究团队在Nature子刊发表论文,展示人工智能如何从300亿个分子中筛选出6种新型抗生素候选分子,为抗药性问题提供新解决方案。利用深度学习算法,AI模型考虑化学结构及合成可行性,发现独特化合物,加速药物研发。然而,成功应用还需临床试验验证及克服安全性和耐药性挑战。AI技术在药物设计中的角色引起关注,强调平衡使用与基础科学研究的重要性。
58 1
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
|
2天前
|
机器学习/深度学习 人工智能 分布式计算
蚁群、蜂群的智慧,大模型也可以有,谷歌等机构群体智能研究亮相
蚁群和蜂群以其独特的群体智能行为著称,如分布式决策、自组织性和鲁棒性。这些特性启发了科学家将群体智能原理应用于大模型的构建,以实现更高效、更智能的系统。谷歌等机构已通过模拟这些行为,开发出如“蚁群优化”算法等成果,显著提高了计算效率和系统的鲁棒性。然而,群体智能的应用仍面临通信协调、个体差异性和可解释性等挑战。
10 3
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer
【7月更文挑战第21天】历经五年研发,斯坦福、UCSD等顶尖学府联合推出TTT架构,革新NLP领域。此架构以线性复杂度处理长序列,增强表达力及泛化能力,自监督学习下,测试阶段动态调整隐藏状态,显著提升效率与准确性。实验显示,TTT在语言模型与长序列任务中超越Transformer,论文详述于此:[https://arxiv.org/abs/2407.04620](https://arxiv.org/abs/2407.04620)。尽管如此,TTT仍需克服内存与计算效率挑战。
164 2
|
2月前
|
自然语言处理
从头设计抗体,腾讯、北大团队预训练大语言模型登Nature子刊
【9月更文挑战第12天】近年来,抗体药物在生物医药领域展现出巨大潜力,但其高昂的研发成本和漫长周期成为瓶颈。为此,腾讯与北京大学合作开发了PALM-H3,这是一种基于预训练大语言模型的创新抗体设计方法。PALM-H3将抗体序列视为语言,利用Roformer模型学习其生成规律,实现从头设计高亲和力抗体,不依赖自然抗体,大幅提高研发效率和灵活性。此外,该方法还可广泛应用于疫苗设计和蛋白质工程等领域,加速新药上市。然而,确保抗体体内稳定性和安全性仍是挑战。论文详见:https://www.nature.com/articles/s41467-024-50903-y
48 1
|
3月前
|
机器学习/深度学习 人工智能
清华研究登Nature,首创全前向智能光计算训练架构,戴琼海、方璐领衔
【8月更文挑战第30天】清华大学研究人员在《自然》杂志上发表了一项开创性成果,提出了一种全前向智能光计算训练架构,解决了传统光学AI方法依赖电子计算机模拟和优化的问题,实现了光学系统的自学习和自设计。该架构通过将光学系统映射到参数化神经网络中,消除了反向传播需求,展示了在多个领域的广泛应用前景,如深度光学神经网络和高分辨率散射成像等。这一成果为光学AI的发展开辟了新道路,但实际应用中仍需克服一些挑战。论文详情见:https://www.nature.com/articles/s41586-024-07687-4
46 2
|
4月前
|
数据采集 机器学习/深度学习 人工智能
AI小分子药物发现的百科全书,康奈尔、剑桥、EPFL等研究者综述登Nature子刊
【7月更文挑战第12天】康奈尔、剑桥及EPFL科学家合作,详述AI在药物发现中的突破与挑战[^1]。AI现用于新化合物生成、现有药物优化及再利用,加速研发进程。尽管取得进展,可解释性不足、数据质量和伦理监管仍是待解难题。 [^1]: [论文链接](https://www.nature.com/articles/s42256-024-00843-5)
65 3
|
5月前
|
机器学习/深度学习 人工智能 物联网
清华天眸芯登Nature封面:全球首款类脑互补视觉芯片
【6月更文挑战第9天】清华大学电子工程系团队研发的全球首款类脑互补视觉芯片“天眸”登上Nature封面。这款芯片模拟人脑视觉处理机制,集成感知和行动两条通路,实现高效低耗的智能视觉系统。适用于开放世界感知和物联网领域,但面临实际应用挑战、制造成本及良率等问题。[论文链接](https://www.nature.com/articles/s41586-024-07358-4)
55 7
|
6月前
|
测试技术 网络架构 计算机视觉
中科院领衔发表首篇基于扩散模型的图像编辑综述
【2月更文挑战第17天】中科院领衔发表首篇基于扩散模型的图像编辑综述
137 1
中科院领衔发表首篇基于扩散模型的图像编辑综述
|
机器学习/深度学习 人工智能 算法
WAVE SUMMIT 定档8月16日,或将曝百度飞桨、文心大模型最新进展
2023年全球AI浪潮迭起,大语言模型热度空前,生成式人工智能为千行百业高质量发展带来更多想象空间。作为前沿科技风向标、汇聚全球开发者的顶级盛会,WAVE SUMMIT 2023深度学习开发者峰会正式定档8月16日,在北京望京凯悦酒店召开。本次峰会聚焦深度学习及大模型技术的发展与未来,将带来行业前瞻洞察和一系列全新重磅发布。
129 0
WAVE SUMMIT 定档8月16日,或将曝百度飞桨、文心大模型最新进展
|
机器学习/深度学习 人工智能 算法
业界首个适用于固体系统的神经网络波函数,登上Nature子刊
业界首个适用于固体系统的神经网络波函数,登上Nature子刊
业界首个适用于固体系统的神经网络波函数,登上Nature子刊
下一篇
无影云桌面