把深度学习计算机做到1立方毫米大小,这群科学家想干什么?

简介:
本文来自AI新媒体量子位(QbitAI)

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

计算机科学家David Blaauw从包里拿出一个小小的塑料盒,打开,用指尖小心翼翼地捏起里面一个小黑点,放在桌子上。他在向IEEE Spectrum编辑Katherine Bourzac展示他最新的研究成果:M3计算机。

Katherine生怕自己这时会咳嗽一声,把这台“世界上最小的计算机之一”吹到地上。

Blaauw和他在密歇根大学的同事Dennis Sylvester这周在旧金山的国际固态电路研讨会(ISSCC)上,讨论了跟M3有关的10篇论文。这两位电气与电子工程师协会(IEEE)会士已经在连续几年带着M3参加ISSCC,产品每年各有不同。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

这里的M3不是指立方米,而是“密歇根微尘(Michigan Micro Mote)”,小到只有1立方毫米,功率只有几毫微瓦(十亿分之一瓦),可以分辨汽车开过的声音、测量温度、亮度等等。

毫米级是什么概念呢?我们和硬币比一比:

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

他们今年在ISSCC上展示的一种M3计算机,搭载了专用于运行深度神经网络的深度学习处理器,可以完成语音识别、人脸识别等任务。这可能是世界上最小的深度学习计算机。

它的功率“高达”288微瓦(百万分之一瓦),比之前提到的普通M3高出许多,但与目前常用于运行神经网络的服务器集群+高端GPU相比,“深度学习版”M3能耗简直低得微不足道。

除了他们之外,也有一些科研人员致力于研究专用芯片,来降低深度学习硬件的能耗,但即便是这些专用的处理器,功率也在50毫瓦(千分之一瓦)以上。

密歇根大学这个团队降低能耗的秘诀,在于对芯片架构的重构,例如将4个处理器单元置于SRAM(静态随机存储器)之内,来使数据传输需求降到最低。

为什么要把深度学习计算机做到这么小呢?

像“深度学习版”M3这样的小设备,非常适用于物联网。Blaauw用现在的监控摄像头举了个例子,他说,现有的带运动检测功能的摄像头分不清是树枝随风飘过还是小偷到了门前,所以,这些装置拍下了很多没有价值的图像,发送到服务器进行分析,这是对计算资源极大的浪费。除了监控摄像头之外,他们还想要把深度学习处理器内置到空调系统等多种物联网设备中。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

目前,Blaauw和Sylvester还只是在学术界展示他们的M3,但他们也希望这个小计算机能在几年内走向市场。为此,他们在2013年底悄悄组建了创业公司CubeWorks,正在制造原型设备、进行市场研究,去年10月,英特尔资本宣布对这家公司进行了一笔投资,但没有披露具体的金额。

本文作者:李林
原文发布时间:2017-02-11 
相关文章
|
11月前
|
机器学习/深度学习 人工智能 API
一口气看完《哈利波特》:AI大模型「量子速读」,一分钟抵人类五小时
一口气看完《哈利波特》:AI大模型「量子速读」,一分钟抵人类五小时
186 0
一口气看完《哈利波特》:AI大模型「量子速读」,一分钟抵人类五小时
|
11月前
|
机器学习/深度学习 人工智能 算法
深度学习能否达到人类推理水平?三位图灵奖得主激辩海德堡论坛
深度学习能否达到人类推理水平?三位图灵奖得主激辩海德堡论坛
|
机器学习/深度学习 算法 C++
学界 | Yoshua Bengio最新修改版论文:迈向生物学上可信的深度学习
深度学习和人工神经网络已经从大脑获得灵感,但大部分是在计算表现形式上的灵感(大多是生物学的,比如 spike 的存在留待考虑)。然而,如今缺少的是对生物神经元中存在的学习规则的一个可信的机器学习说明,从而能够解释一个深度神经网络有效的联合训练,也就是通过一个神经连接长链说明信任分配(credit assignment)。因此,解决信任分配难题也意味着确认神经元与权重,这二者与得到想要的输出和改变参数有关。反向传播提供了一个机器学习答案,然而就像下一段讨论的那样,它并非生物学上可信的。寻找一个生物学上可信的机器学习方法进行深度网络中的信任分配是一个主要的长期问题,也是此论文贡献的方向。
学界 | Yoshua Bengio最新修改版论文:迈向生物学上可信的深度学习
|
机器学习/深度学习 人工智能 数据可视化
【人工智能】神经网络八股
【人工智能】神经网络八股
115 0
【人工智能】神经网络八股
|
机器学习/深度学习 人工智能 自然语言处理
受显微镜下线虫启发, MIT人工智能实验室推出「液态」神经网络
近日,MIT计算机科学和人工智能实验室(CSAIL)的团队推出了「液态」神经网络,除在训练过程之外,还可以在实践过程中学习,能随着新的数据输入而不断更新模型方程,很好的适应了现实生活的可变性。有趣的是,这个灵感是从对显微镜下线虫的神经元的观察中得来的。
227 0
受显微镜下线虫启发, MIT人工智能实验室推出「液态」神经网络
|
机器学习/深度学习 人工智能 算法
强化学习教父Richard Sutton:也许能在2030年之前实现强人工智能算法
近日,机器之心走进了阿尔伯塔大学与这位强化学习的教父聊了聊。让我们看看 Sutton 在这次独家专访中说了些什么。
413 0
强化学习教父Richard Sutton:也许能在2030年之前实现强人工智能算法
|
机器学习/深度学习 人工智能 算法
|
机器学习/深度学习 人工智能 自动驾驶