MIT研发光学深度神经网络:几乎不需能耗

简介:
本文来自AI新媒体量子位(QbitAI)

深度学习计算机系统是基于人工神经网络(Artificial Neural Networks)模仿人脑学习方法的一种系统,现已成为计算机科学领域的热门话题。深度学习不仅助力了面部和声音识别软件的发展,还为医疗领域带去了大量数据辅助诊断。

但这些系统需要执行的计算是非常复杂和严格的,即使是对配置最强的计算机来说,计算仍然是个不小的挑战。

目前,研发人员已经研发出一种新型的计算方式——他们用光子代替电子作为信息输送介质,极大提高了某些深度学习中计算的速度和效率。这项成果由11个人共同完成,有来自MIT的博士后Yichen Shen,研究生Nicholas Harris,教授Marin Soljacic和Dirk Englund和来自其他地方的研究人员。目前,他们的论文成果已经刊登在《 Nature Photonics》期刊上。

Paper查看地址:

https://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2017.93.html教授Soljacic表示,光学计算机已经被很多研究人员鼓吹了很多年了,就是因为人们过度宣扬,才导致如今好像看起来有点让人失望,感觉事与愿违。虽然有很多人提倡使用光学计算机,但研究成果并不实用。这个团队研究的光神经网络系统能应用到很多程序上。

传统计算机的架构在处理某些重要神经网络任务所需计算时并不是很有效。这样的任务通常涉及重复的矩阵乘法,需要在CPU和GPU上进行密集的计算。

经过多年研究,这个MIT提出了一种相反的方式执行这种操作。“一旦你调试好这个芯片,它就能运行矩阵乘法。原则上讲它几乎不需要能量,”Soljacic说,“我们已经演示了关键模块,但还没有全部公布。”

Soljacic用类比的方式解释了新系统的原理。即使是普通的眼镜片,也会在经过它的光波上进行复杂的计算(也就是所谓的傅立叶变换)。光束在新光子芯片中进行计算的方式式与其基本原理相似。这种新方法使用多个光束传播,它们的波会相互作用,产生干扰模式,从而传达出预期的操作的结果。研究人员称这种设备为可编程的纳米光子处理器。

据Yichen Shen描述,使用这种架构的光学芯片,原则上可以在传统人工智能算法中进行运算,比传统的电子芯片要快得多,但使用的能量还不及千分之一。他说:“用光运行矩阵乘法计算的天然优势就是,它在加速和省电方面起重要作用,因为密集的矩阵乘法是AI算法中最耗电和耗时的那部分。”

这个新型可编程纳米光子处理器,是由Harris和合作人员在Englund实验室共同开发的。它使用了一系列的波导管(传输微波波段的电磁波装置),这些波导管相互连接,可以根据需要进行修改,为特定的计算编程。“你可以在任何矩阵运算中编程。”Harris说。处理器通过一系列耦合光子波导来引导光线。他们要求设备的交错层应用非线性激活函数,与大脑神经元的操作进行类比。

为了演示这一概念,研究小组设置了可编程的纳米光子处理器来实现一个能够识别四种基本元音的神经网络。即使有了这个基本的系统,他们也能达到77%的准确率,传统系统的准确率为90%。Soljacic说,增强系统的准确性并没有“实质性的障碍”。

Englund补充说,可编程的纳米光子处理器也有其他应用,包括数据传输的信号处理。“高速模拟信号处理比其他将信号转化为数字形式的处理方法更快,因为光是一种天然的模拟介质,”他说,“这种方法能在模拟域中直接处理。”

该团队称,他们还需要更多的努力和时间使系统变得更实用。一旦这个系统性能提升且功能完备,就能找到许多用户案例,比如数据中心或安全系统。Harris说,这种系统也可以为无人驾驶汽车或无人机带来好处,适用于“需要做大量计算,但你没有太多的力量和时间”的情况。

【完】

本文作者:安妮
原文发布时间:2017-06-13
相关文章
|
5月前
|
算法 数据可视化 图形学
网络通信系统的voronoi图显示与能耗分析matlab仿真
在MATLAB2022a中,该程序模拟了两层基站网络,使用泊松分布随机生成Macro和Micro基站,并构建Voronoi图。它计算每个用户的信号强度,选择最强连接,并分析SINR和数据速率。程序还涉及能耗计算,包括传输、接收、处理和空闲能耗的分析。Voronoi图帮助可视化网络连接和优化能源效率。
|
1月前
|
边缘计算 5G 数据处理
5G网络能耗管理:绿色通信的实践
【10月更文挑战第30天】
47 0
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
85 1
|
4月前
|
人工智能 物联网 异构计算
AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用
AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用
354 0
|
5月前
|
传感器 算法
基于LEACH路由协议的网络性能matlab仿真,包括数据量,能耗,存活节点
- **LEACH协议**在WSN中通过分簇减少能耗,普通节点向最近簇头发送数据,簇头融合后发送给基站。本项目研究LEACH在不同初始能量、数据包及控制包长度条件下的网络性能,如剩余节点、能量、接收数据量和累计接收量。
|
7月前
|
域名解析 负载均衡 网络协议
阿里云基础设施网络研发团队参与论文获得CCS 2023 杰出论文奖
阿里云基础设施网络研发团队参与论文获得CCS 2023 杰出论文奖
|
7月前
|
机器学习/深度学习 存储 人工智能
Nougat:结合光学神经网络,引领学术PDF文档的智能解析、挖掘学术论文PDF的价值
Nougat:结合光学神经网络,引领学术PDF文档的智能解析、挖掘学术论文PDF的价值
|
算法
m基于NSGAII优化的WSN网络覆盖率问题matlab仿真,优化激活节点数量,网络能耗以及覆盖率
m基于NSGAII优化的WSN网络覆盖率问题matlab仿真,优化激活节点数量,网络能耗以及覆盖率
134 0
|
算法 网络协议
LEACH网络协议性能仿真包括能耗,死亡节点,剩余存活节点
LEACH网络协议性能仿真包括能耗,死亡节点,剩余存活节点
138 0
|
网络协议
《演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁》电子版地址
演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁
191 0
《演讲三:阿里IPv6网络演进之路-蔡依群,阿里巴巴集团基础架构事业群网络研发事业部副总裁》电子版地址