神经拟态芯片拉近AI与人脑距离

简介: 神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

F5521A7F_B930_4c8f_8FD7_7BACAA695638

除了会看会听,还会“闻”。近日,一直致力于模仿人类五感的人工智能又有新突破,通过神经拟态芯片,人工智能已经掌握了丙酮、氨和甲烷等10种气味的神经表征,强烈的环境干扰也不会影响它对气味的准确识别。这项由英特尔研究院与美国康奈尔大学共同参与的研究成果,日前发表于《自然·机器智能》杂志上。

神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。

通过堆叠芯片形成的神经拟态系统似乎让我们看到了“机器可以和人一样聪明”的希望,那神经拟态芯片及大规模集成系统的就绪,是否意味着“强认知、小样本学习”的神经拟态计算有了规模商用的可能?

神经拟态训练无需大量样本

目前深度学习算法作为实现人工智能的重要技术手段,被广泛应用于各类人工智能成果中。对于以深度学习算法为支撑的人工智能成果,数据可以说是研究的血液。数据量越大,数据质量越高,深度学习所表现的性能也就越好。但在不少研究环境中,由于涉及隐私安全以及客观条件限制,有效数据难以获得。

“深度学习虽然取得了长足进步,但仍局限在图像和语音等方面的分类和识别中。”英特尔中国研究院院长宋继强说,人类视觉、语音两类数据容易获得和标注,满足了深度学习的必要条件,研究及应用相对成熟,但味觉和嗅觉的研究却没那么乐观。

对于传统的人工智能来说,主流的深度学习方法,可能需要设置上亿个参数,训练数十万次,才能辨别出猫和狗的区别,更不用说更为陌生的气味识别领域。但是,即便对于一个几岁的婴孩来说,他们辨认动物、识别气味只需要几次就够了。

普通人经过训练能区分三四百种到数千种气味,但现实世界可以区分的气味超过万种。为模拟人类嗅到气味的大脑运行机制,研究人员采用了一套源自人类大脑嗅觉回路结构和动力学相结合的神经算法训练神经拟态芯片,仅需单一样本,神经拟态芯片便可学会识别10种气味,且不会破坏它对已学气味的记忆。

宋继强表示,即便是此前最先进的深度学习解决方案,要达到与神经拟态芯片相同的分类准确率,也需要3000倍以上的训练样本。

“理解大脑的神经网络如何解决这些复杂的计算问题,将为设计高效、强大的机器智能提供重要启示。”英特尔神经拟态计算实验室高级研究科学家纳比尔·伊玛目说,下一步计划将这种方法推进到更广的应用领域,包括从感官场景分析到规划和决策等抽象问题。

芯片向人脑进化成为可能

一只瓢虫的大脑有25万个到50万个神经元,蟑螂的大脑有100万个神经元,斑马鱼的大脑有1000万个神经元,小型哺乳动物大脑有1亿个神经元。

自然界中,即使最小的生物也能解决极为复杂的计算问题,很多昆虫大脑的神经元数目远低于100万个,却能实时跟踪物体、导航和躲避障碍物。而人类大脑由860亿个互相连接的神经元组成,要让人工智能变得和人一样聪明谈何容易。

目前由两个上述神经拟态芯片组成的神经拟态系统有26.2万个神经元,相当于拥有了一只瓢虫的智慧,而由768块神经拟态芯片组成的神经拟态系统的智慧则追上了仓鼠。

如果神经元的组织方式决定了大脑的思考方式,那么实现神经拟态计算,首先需要构建一个模拟大脑神经元工作的计算芯片。宋继强说:“我们试图观察、学习和理解大脑的运行,并在计算机芯片上复制。”

德国海德堡大学物理学家卡尔海因茨·迈耶是神经拟态学工程师们的领军人物,在他看来,人类大脑具有低功耗、容错及无需编程三大特点,虽然人类大脑功率只有20瓦特左右,并且时刻都在失去神经元,却不影响它对这个世界的运算、理解和应对。相比之下,试图模拟人脑的超级计算机却必须预设算法,动辄需要几百万瓦特的功率,失去一个晶体管就能破坏一个微处理器。

宋继强说:“深度学习的功率越来越高,现在即便训练一个图像识别模型,都需要数千瓦特,能源消耗已成为大规模AI部署的障碍。”

而拥有存储和计算一体结构的神经拟态芯片,节约了传统计算架构中处理单元和存储器间通信所消耗的时间和功耗。

2017年,全球首款自主学习神经拟态芯片问世,包含13万个神经元和1.28亿个突触,使芯片向人脑进化成为可能。

如果说深度学习是通过大量标注数据让机器学习解决某一问题,如AlphaGO没有学习象棋前,只会下围棋,神经拟态计算就是通过模拟人脑神经元工作机制,让人工智能不只局限于某一领域。

在神经拟态芯片展示的学会的各种能力中,不仅包括实时识别手势、使用新型人造皮肤阅读盲文、还包括通过自主学习获得视觉地标确定方向及学习新气味,而上述每项功能只消耗数十毫瓦。

有专家认为,这一突破为科学研究需要的可自主、互联的实时、动态数据处理新方法奠定了基础,扩展了蓬勃兴起的边缘计算应用前景。

要商用还需通用计算架构

在深度学习、机器学习之后,神经拟态计算被认为是推动人工智能进入新阶段的重要手段。虽然量子计算也擅长大规模计算,在某些任务中,它的理论可扩展性甚至超过神经拟态系统,但相比神经拟态计算,量子计算离真正商用还有不小的距离。

虽然看上去神经拟态芯片的商用比量子计算更近一步,部分研究机构已展示了很多神经拟态计算应用,但要大规模商用,还需要解决通用性不足的问题。

“距离将产品推向市场,我们还要等待数年。”英特尔神经拟态计算实验室主任迈克·戴维斯说,我们真正感兴趣的是找到一种像冯·诺依曼架构那样相对通用的新型计算架构。这才是真正扩展可应用通用计算产品组合的开始。

研究机构Gartner预测,2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构。

宋继强不完全认同这种说法:“机器学习在很多领域依然是目前最好的训练、学习手段之一。只有将多种技术灵活的运用到人工智能领域,它才能真正成为惠及民生的产业。”

宋继强强调,Pohoiki Springs等神经拟态系统仍处于研究阶段,设计目的并非取代传统的计算系统,而是为研究人员提供工具来开发和描绘新的算法。

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/zhibo

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-04-08
本文作者:陶宗瑶
本文来自:“人工智能学家 微信公众号”,了解相关信息可以关注“人工智能学家

相关文章
|
16天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
54 12
|
13天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
18天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
41 0
|
18天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
35 0
|
2月前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
2月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
2月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
3月前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。
|
7月前
|
机器学习/深度学习 人工智能 语音技术
AI让失语者重新说话!纽约大学发布全新神经-语音解码器
【5月更文挑战第19天】纽约大学研发的神经-语音解码器,结合深度学习与语音合成,为失语者带来新希望。此脑机接口技术能将大脑神经信号转化为语音参数,再通过合成器转为可听语音。使用癫痫患者的数据进行训练,解码器已成功重现语音,尽管质量有待提升。该技术有望革新沟通方式,但也面临数据复杂性、隐私保护及社会接受度等挑战。[论文链接](https://www.nature.com/articles/s42256-024-00824-8)
77 5
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
清华首款AI光芯片登上Science,全球首创架构迈向AGI
【4月更文挑战第16天】清华大学研究团队开发出大规模光子芯片“太极”,在《科学》杂志发表,该芯片基于创新的光子计算架构,实现百万神经元级别的ONN,能效比高达160 TOPS/W。实验中,太极芯片成功执行1000类别分类任务,提升AI内容生成质量,为AGI发展开辟新路径。然而,光子集成电路的制造成本高、技术成熟度不足及软件支持限制了其广泛应用。
174 5
清华首款AI光芯片登上Science,全球首创架构迈向AGI