英特尔研发神经元AI处理器,模仿大脑功能,无需训练数据集

简介:
本文来自AI新媒体量子位(QbitAI)

0d2ecf44c7c3bfbf956aed1e5f23cfcbc005e50e

刚刚,黄仁勋在北京跑步上台演讲,庄严宣布:CPU的时代结束了。

好巧,英特尔说:不单CPU不行了,GPU也不行了。

这位CPU霸主表示,随着高度动态和非结构既然数据的相关需求逐渐增加,未来计算的需求将超越经典的CPU和GPU体系结构。

那怎么办?

英特尔这么说,肯定有办法。英特尔实验室今天宣布,正在研发出代号“Loihi”的自学习神经元芯片,模仿了大脑的功能,能从环境反馈中直接学习。

所谓自学习、模仿大脑,意思是Loihi内部由128个计算核心组成,每个核心有1024个“神经元”,总计超过13万个神经元和1.3亿个突触链接,和大脑的神经元一样,它们可以调整相互之间的联系,以适应新的任务。

从神经元数量上讲,Loihi比龙虾的大脑还要复杂一点。不过与人脑相比还相去甚远,人脑由超过800亿个神经元组成。

Loihi不需要通过传统的方式进行训练,而且会随着时间的增加变得越来越智能,而且功耗极低,这款处理器使用异步脉冲方式进行计算。

“大脑内部的沟通没有想象中的频繁”,英特尔实验室资深首席工程师兼首席科学家Narayan Srinivasa表示:“这款芯片只有脉冲出现时才消耗能量”。

90ceda711d376e4c5485e239c381fb9ec23a9891

下面是英特尔对Loihi芯片的详细说明。

Loihi简介

Loihi芯片包含模拟大脑基本机制的数字电路,使机器学习更快、更高效,同时降低对计算资源的需求。

神经形态芯片模型的灵感来自于神经元通信和学习的方式,利用了可根据时间调节的脉冲和塑料触突。基于模式和关联,这将帮助计算机实现自组织,做出决策。

Loihi芯片提供了非常灵活的片上学习能力,将训练和推理整合至同一块芯片上。这帮助机器实现自动化,实时调整,而无需等待来自云计算平台的下一次信息更新。

研究人员已证明,与其他典型的脉冲神经网络相比,在解决MNIST数字识别问题时,以实现一定准确率所需要的总操作数来看,Loihi芯片学习速度提高了100万倍。

与卷积神经网络和深度学习神经网络相比,Loihi芯片在同样的任务中需要更少的资源。

在优化汽车和工业应用,以及个人机器人方面,这款测试芯片的自学能力带来了巨大潜力,例如识别汽车或自行车的运动。在非结构化环境中,这些应用可以受益于自动化操作和持续学习。

此外,与通常用于训练人工智能系统的芯片相比,Loihi芯片的能效提升了1000倍。

参数

  • 全异步神经形态多核心网络,支持多种稀疏、分层和循环神经网络拓扑结构。每个神经元可以与成千上万个其他神经元通信。
  • 每个神经形态核心都包含一个学习引擎,在操作中可以通过编程去适配网络参数,支持监督学习、无监督学习、强化学习和其他学习范式。
  • 芯片的制造采用了英特尔14纳米工艺。
  • 总共提供了13万个神经元和1.3亿个触突。
  • 对于多种算法的开发和测试,实现了极高的算法效率。这些算法包括路径规划、约束满足、稀疏编码、字典学习,以及动态模式学习和适配。

f38b05cbd2feaee7644b6038e4908493a8c70b28

下一步

英特尔表示,在计算机和算法创新的推动下,人工智能的变革性力量预计将给社会带来重大影响。这家芯片巨头正通过多种产品,解决从网络边缘到数据中心和云计算平台,人工智能计算任务的独特需求。

随着人工智能计算任务越来越多多样化,越来越复杂,研究者将关注当前主流计算架构的局限性,提出新的颠覆性方法。展望未来,英特尔认为,神经形态计算带来了一种方式,以类似大脑的结构提供超大规模的计算性能。

但英特尔不是第一家使用神经科学指导芯片设计的公司。

IBM已经构建了两代神经形态处理器,称为TrueNorth,这个芯片同样基于脉冲神经元模式。TrueNorth芯片包括4096个核心和540万个晶体管,功耗70毫瓦,模拟了一百万个神经元和2.56亿个突触,这个数字在Loihi之上。

TrueNorth相当于一个蜜蜂的大脑。

不过与英特尔的芯片不同,TrueNorth芯片无法基于输入数据进行学习。IBM的研究得到了DARPA的资助,并且与两家实验室合作,但目前也没有商业可用性的进展。

不少AI专家对神经元芯片心存疑虑。IBM在2014年发表TrueNorth的第一篇论文时,Yann LeCun就曾指出,这类芯片很难运行卷积神经网络进行图像识别计算。Srinivasa也证实Loihi在某些深度学习模型上表现不佳。

无论英特尔神经元芯片最终结果如何,这都显示出英特尔已经意识到CPU不是唯一。随着AI的重要性日益增加,英特尔正不断拥抱其他芯片。2015年,英特尔亿167亿美元收购FPGA厂商Altera。去年,英特尔4亿美元收购AI芯片商Nervana。

至于Loihi,2018年上半年,英特尔将与部分大学和研究机构分享Loihi测试芯片。


最后,专门提一个人

2a94cec30c41bb18651189c3b8834e6533660441

加州理工的Carver Mead教授,现年已经83岁。他是现代微电子学的先驱,为半导体、数字芯片和硅编译器的开发和设计做出贡献,这些技术构成现代大规模集成芯片设计的基础。

上个世纪80年代以来,Mead专注于人类神经和生物学的电子建模,创造了神经电子系统。英特尔Loihi芯片也是建立在这一研究的基础之上。

本文作者:陈桦 问耕
原文发布时间:2017-09-26 
相关文章
|
25天前
|
机器学习/深度学习 人工智能 算法
AI 基础知识从 0.6 到 0.7—— 彻底拆解深度神经网络训练的五大核心步骤
本文以一个经典的PyTorch手写数字识别代码示例为引子,深入剖析了简洁代码背后隐藏的深度神经网络(DNN)训练全过程。
403 56
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
AI进化论:从识别模式到创造世界的“数字大脑”
AI进化论:从识别模式到创造世界的“数字大脑”
158 63
|
3月前
|
人工智能 IDE 开发工具
2.4k star 开源项目,Wingman AI + 知识图谱,如何帮你搭建‘私人大脑’?学术/项目必备,让笔记真正活起来!
MindForger 是一款灵感源于人脑思维机制的桌面 Markdown IDE,帮助用户构建私人知识体系。它通过强大的语义联想与结构重构功能,解决笔记混乱、缺乏智能联接等痛点。核心功能包括 TAYR/TAYW 联想、知识图谱浏览器、Markdown 编辑器和 AI 助手 Wingman。支持本地隐私保护,跨平台使用,开源 GPLv2 许可。项目地址:https://github.com/dvorka/mindforger。
106 4
|
2月前
|
人工智能 运维 自然语言处理
电力+AI,「国网云智」重构电网运维的"超级大脑"
在深夜,当城市楼宇渐入梦乡时,在国网信通公司云运营中心还有一批运维工程师默默守护着大家微弱的灯光、此起彼伏的沟通声、咔咔的键盘敲击声响彻着每个工位。 当某系统的异常警报亮起时,工程师迅速利用「国网云智」定位问题,屏幕上即刻弹出详尽的排查方案及解决方案;而另一侧的监控员框选闪烁的告警区域,系统已自动锁定故障点,并在生成检修方案上标注了对应的工具清单和操作优先级。
182 0
|
2月前
|
机器学习/深度学习 人工智能 数据可视化
基于YOLOv8的AI虫子种类识别项目|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
本项目基于YOLOv8与PyQt5开发,实现虫子种类识别,支持图片、视频、摄像头等多种输入方式,具备完整训练与部署流程,开箱即用,附带数据集与源码,适合快速搭建高精度昆虫识别系统。
基于YOLOv8的AI虫子种类识别项目|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
|
2月前
|
存储 人工智能 自然语言处理
无影AgentBay来了!给AI智能体装上“超级大脑”
阿里云在WAIC上发布专为AI Agents打造的“超级大脑”——无影AgentBay。该云端电脑支持多系统切换,集成视觉理解、自然语言控制等多项AI能力,提供高性能算力与企业级安全保障,助力AI开发者高效构建智能应用。
141 0
无影AgentBay来了!给AI智能体装上“超级大脑”
|
2月前
|
机器学习/深度学习 人工智能 API
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
|
2月前
|
人工智能 PyTorch 区块链
当AI遇上区块链,会不会搞出一个“去中心化大脑”?
当AI遇上区块链,会不会搞出一个“去中心化大脑”?
85 9
|
2月前
|
人工智能 文字识别 供应链
高校实验实训课程开发:基于现有的硬件基础和开源能力研发最前沿的AI实验课程
更多基于学校现有硬件基础:企业需求场景的开发和发展,更加注重上层数据和应用,各类工具软件的出现,极大提升了各类硬件的应用价值。我们看到各类硬件厂商,想方设法把硬件卖给学校,但是很多硬件不是在那里尘封,就是寥寥无几的使用场景,我们希望基于学校现有的硬件基础去开发更多面向不同行业或专业的实验实训课程,物尽其用。基于学校现有的硬件,集约开发,极大降低硬件投入成本。
106 7
|
2月前
|
机器学习/深度学习 人工智能 程序员
MiniMind:3小时训练26MB微型语言模型,开源项目助力AI初学者快速入门
在大型语言模型(LLaMA、GPT等)日益流行的今天,一个名为MiniMind的开源项目正在AI学习圈内引起广泛关注。项目让初学者能够在3小时内从零开始训练出一个仅26.88MB大小的微型语言模型。
153 1

热门文章

最新文章