IBM新芯片拥有100万个神经元 可模拟人脑运行

简介:

北京时间9月24日消息,IBM一直都有一个梦想,开发一台计算机,它能够像人一样做决定,拥有智力。最近,IBM的研究取得了重大突破,它离目标更近一步。

IBM开发了名叫TrueNorth的芯片,能够模拟人脑运行。为了证明它的速度很快,能耗很低,IBM对芯片进行了测试。TrueNorth具有深度学习能力,像人类大脑一样,它也可以进行关联分析,判断各种可能性。虽然其它一些计算机也可以拥有相同的能力,但是它们的能耗高很多。

因为TrueNorth可以自己学习,未来,我们可以将“智力”植入各种计算设备,比如物联网、智能手机、机器人、汽车、云计算和超级计算机。

早先IBM展示过芯片,当时它将芯片装进一台名叫NS16e的计算机,该计算机的运行原理与人脑类似。利用神经网络,NS16e能够识别图像、语音、模式。

人类的大脑极为复杂,拥有1000亿个神经元,神经元通过神经节点——也就是突触——连结在一起,彼此可以通信。皮质负责识别视觉图像,其它部分负责各种运动机能。

NS16e建有“数字神经元”,但是数量比人脑少得多。IBM系统安装了16颗TrueNorth芯片,每一颗有100万个神经元,突触数量2.56亿个,彼此用电路连结在一起。NS16e也有内存、计算通信子系统,但是它们的设计方式与现有组件不同,IBM系统可以处理数据。

IBM介绍称,TrueNorth处理器可以给图片数据分类,每秒速度1200-2600帧,能耗25-275毫瓦。处理器还能够识别图片模式,这些图片是50-100个摄像头以每秒24帧的速度拍摄的。未来,IBM可以将功能嵌入到智能手机,几天不充电都可以使用。

TrueNorth的能耗很低,现有服务器安装的是传统芯片,比如GPU、CPU和FPGA,它们也可以识别图像和语音。Facebook、谷歌、微软、百度都在开发深度学习技术,通过分析与图片、语音相关的答案,深度学习网络可以自动学习,网络一般用GPU驱动,能耗很高,超过150瓦。

IBM为TrueNorth开发了算法和深度学习模式,它包含了识别模式,可以将过往数据和现有数据联系在一起。针对不同的深度学习模式,IBM开发了相应算法,尽管如此,芯片仍然兼容现有系统,比如MatConvNet。换言之,开发者利用MatConvNet就可以为IBM芯片开发学习模型,TrueNorth可以在幕后处理任务,开发者并不需要直接面对TrueNorth。

这种处理过程和早期的游戏开发有些类似,最开始时,游戏开发者并不直接深入GPU,他们也不知道如何利用GPU的功能。直到最近,Vulkan更换了OpenGL API,开发者才可以直接使用GPU功能。

深度学习很强大,无人驾驶汽车就是明证,汽车用强大的计算机导航,识别信号、车道及其它对象,安全行驶。TrueNorth芯片会让每一个神经元进行低级处理,然后将处理结果融合在一起,最终识别图像或者声音。事实上,Nvidia、英特尔芯片使用的技术是一样的,只是功耗高很多。

TrueNorth仍然处在发展初期,按照IBM的计划,它准备开发一台和人脑相当的计算机,问题在于编写算法和应用有些挑战。

2004年,IBM开始研究“大脑”芯片,2009年,IBM计算机已经能够模拟猫的大脑,2011年,IBM开发出原型芯片,它有256个数字神经元,能够识别模式。什么时候能开发出跟人脑一样强大的电脑?可能还要等很长时间。IBM还在开发量子计算机,其它一些机构和企业也在开发人脑模拟芯片,比如惠普企业(Hewlett Packard Enterprise)、斯坦福大学、德国海德堡大学、英国曼彻斯特大学。


本文转自d1net(转载) 

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
在IBM Cloud中运行Fabric (二)
在IBM Cloud中运行Fabric (二)
在IBM Cloud中运行Fabric (二)
|
Kubernetes 区块链 数据安全/隐私保护
在IBM Cloud中运行Fabric (一)
在IBM Cloud中运行Fabric (一)
在IBM Cloud中运行Fabric (一)
|
人工智能 自动驾驶 5G
IBM全球首发2纳米芯片
IBM宣布成功试产旗下2纳米制程芯片,实现在150平方厘米(mm²)面积的晶圆中放置500亿组晶体管,换算下来每平方厘米约有3.3亿组晶体管。
309 0
IBM全球首发2纳米芯片
|
机器学习/深度学习 存储 人工智能
IBM认为模拟芯片可为机器学习加速1000倍
IBM在博客中的一篇文章中指出,通过使用基于相变存储器的模拟芯片,机器学习可以加速一千倍。
486 0
「镁客早报」美国欲限制AI、处理器技术出口;台积电与IBM签署协议,将为其生产大型服务器芯片
我国完成北斗三号基本系统收官双星发射;马斯克发推特称,特斯拉或有意与奔驰合作开发电动版Sprinter。
720 0
|
存储 机器学习/深度学习 人工智能
​IBM人工智能芯片的新进展
IBM苏黎世实验室的研究人员本周在Nature Communications上发表了一篇论文。在文中他们声称,基于相变存储器的技术,他们已经开发出了一种能同时能高实现能源效率和高精度的机器学习方案。这是一种使用基于电阻的存储设备来实现内存内计算的方法,它们的方法弥补了存储和计算数据分开的方案的缺陷,并在此过程中大大降低了功耗。

热门文章

最新文章