MIT研发光学深度神经网络:几乎不需能耗

简介:
本文来自AI新媒体量子位(QbitAI)

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

深度学习计算机系统是基于人工神经网络(Artificial Neural Networks)模仿人脑学习方法的一种系统,现已成为计算机科学领域的热门话题。深度学习不仅助力了面部和声音识别软件的发展,还为医疗领域带去了大量数据辅助诊断。

但这些系统需要执行的计算是非常复杂和严格的,即使是对配置最强的计算机来说,计算仍然是个不小的挑战。

目前,研发人员已经研发出一种新型的计算方式——他们用光子代替电子作为信息输送介质,极大提高了某些深度学习中计算的速度和效率。这项成果由11个人共同完成,有来自MIT的博士后Yichen Shen,研究生Nicholas Harris,教授Marin Soljacic和Dirk Englund和来自其他地方的研究人员。目前,他们的论文成果已经刊登在《 Nature Photonics》期刊上。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

Paper查看地址:

https://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2017.93.html教授Soljacic表示,光学计算机已经被很多研究人员鼓吹了很多年了,就是因为人们过度宣扬,才导致如今好像看起来有点让人失望,感觉事与愿违。虽然有很多人提倡使用光学计算机,但研究成果并不实用。这个团队研究的光神经网络系统能应用到很多程序上。

传统计算机的架构在处理某些重要神经网络任务所需计算时并不是很有效。这样的任务通常涉及重复的矩阵乘法,需要在CPU和GPU上进行密集的计算。

经过多年研究,这个MIT提出了一种相反的方式执行这种操作。“一旦你调试好这个芯片,它就能运行矩阵乘法。原则上讲它几乎不需要能量,”Soljacic说,“我们已经演示了关键模块,但还没有全部公布。”

Soljacic用类比的方式解释了新系统的原理。即使是普通的眼镜片,也会在经过它的光波上进行复杂的计算(也就是所谓的傅立叶变换)。光束在新光子芯片中进行计算的方式式与其基本原理相似。这种新方法使用多个光束传播,它们的波会相互作用,产生干扰模式,从而传达出预期的操作的结果。研究人员称这种设备为可编程的纳米光子处理器。

据Yichen Shen描述,使用这种架构的光学芯片,原则上可以在传统人工智能算法中进行运算,比传统的电子芯片要快得多,但使用的能量还不及千分之一。他说:“用光运行矩阵乘法计算的天然优势就是,它在加速和省电方面起重要作用,因为密集的矩阵乘法是AI算法中最耗电和耗时的那部分。”

这个新型可编程纳米光子处理器,是由Harris和合作人员在Englund实验室共同开发的。它使用了一系列的波导管(传输微波波段的电磁波装置),这些波导管相互连接,可以根据需要进行修改,为特定的计算编程。“你可以在任何矩阵运算中编程。”Harris说。处理器通过一系列耦合光子波导来引导光线。他们要求设备的交错层应用非线性激活函数,与大脑神经元的操作进行类比。

为了演示这一概念,研究小组设置了可编程的纳米光子处理器来实现一个能够识别四种基本元音的神经网络。即使有了这个基本的系统,他们也能达到77%的准确率,传统系统的准确率为90%。Soljacic说,增强系统的准确性并没有“实质性的障碍”。

Englund补充说,可编程的纳米光子处理器也有其他应用,包括数据传输的信号处理。“高速模拟信号处理比其他将信号转化为数字形式的处理方法更快,因为光是一种天然的模拟介质,”他说,“这种方法能在模拟域中直接处理。”

该团队称,他们还需要更多的努力和时间使系统变得更实用。一旦这个系统性能提升且功能完备,就能找到许多用户案例,比如数据中心或安全系统。Harris说,这种系统也可以为无人驾驶汽车或无人机带来好处,适用于“需要做大量计算,但你没有太多的力量和时间”的情况。

【完】

本文作者:安妮
原文发布时间:2017-06-13
相关文章
|
4月前
|
域名解析 负载均衡 网络协议
阿里云基础设施网络研发团队参与论文获得CCS 2023 杰出论文奖
阿里云基础设施网络研发团队参与论文获得CCS 2023 杰出论文奖
|
3月前
|
人工智能 安全 大数据
回顾2023,网络研发2024再起航
回顾2023,网络研发2024再起航
|
网络协议
《演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁》电子版地址
演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁
132 0
《演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁》电子版地址
|
机器学习/深度学习 人工智能 自然语言处理
华为AI芯片+微软研发=第一款移动端离线推理神经网络
10 月下旬,华为的 NPU AI 专用处理单元和 HiAI 移动计算平台亮相华为上海发布会,引起了诸多关注。在发布会上,余承东通过微软为华为开发的 Microsoft Translator 的 AI 离线翻译功能介绍了人工智能专用芯片 NPU 与 HiAI 移动计算平台。随后,我们与微软全球技术院士黄学东进行了对话,仔细聊了聊这款包含了世界上第一个能够在智能设备上进行离线推理的自然语言处理神经网络的应用的诞生始末。
249 0
华为AI芯片+微软研发=第一款移动端离线推理神经网络
|
Java Spring 算法
【面小易-面经08】菜鸟网络Java研发工程师面试经验(社招)
7月9日 19:00-21:30 阿里云开发者社区首场“Offer 5000”直播开启!15位团队技术大牛在线招人,更有《阿里云技术面试红宝书》助你拿下Offer!马上投递简历:https://developer.aliyun.com/special/offerday01
8411 0