重大突破!斯坦福证明神经网络能直接在光学芯片上训练

简介: 美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

【新智元导读】美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

据光学领域权威期刊Optica的报道,美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

“相比使用数字计算机,使用光学芯片进行神经网络计算更有效,能够解决更复杂的问题,”斯坦福大学研究团队的负责人范汕洄(Shanhui Fan)说:“这将增强人工神经网络的能力,例如,使其能够执行自动驾驶汽车所要求的任务,或者能够对口头问题做出适当的回答。这将以我们现在无法想象的方式改善我们的生活。”

人工神经网络是人工智能的一种,它使用连接的单元,以类似大脑处理信息的方式来处理信息。使用人工神经网络执行复杂的任务,例如语音识别,需要训练算法对输入进行分类,比如对不同的单词进行分类。

虽然光学人工神经网络最近已经得到实验证明,但此前的研究是在传统的数字计算机上使用一个模型进行训练步骤,然后将最终的设置导入光学电路。在最新Optica期刊上,斯坦福大学的研究人员报告了一种新方法,通过实现“反向传播”算法(这是训练传统神经网络的标准方法)的光学模拟,直接在设备中训练人工神经网络。

image

图:研究人员已经证明,神经网络可以通过光学电路(图中蓝色矩形)进行训练。在整个网络中,有若干个这样的电路连接在一起。激光输入(绿色)的编码信息由光波导(黑色)通过芯片。芯片使用可调波束分离器(光波导中弯曲的部分)执行对人工神经网络至关重要的操作。分离器将两个相邻的波导连接在一起,并可通过调整光学移相器(红色和蓝色发光物体)的设置进行调整。分离器的作用就像“旋钮”,可以在特定任务的训练过程中进行调整。Credit: Tyler W. Hughes, Stanford University

该论文的第一作者Tyler W. Hughes说:“使用物理设备而不是计算机模型进行训练,可以使训练过程更精确。”“而且,由于训练步骤是神经网络实现中非常耗费计算力的部分,因此,在光学电路上执行这个步骤,对于改进人工神经网络的计算效率、速度和功耗都是至关重要的。”

基于光的网络

虽然神经网络处理通常使用传统的计算机进行,但仍有大量的工作要专门设计针对神经网络计算优化的硬件。基于光学的设备非常吸引人,因为它们可以并行地执行计算,同时比电子设备消耗的能量更少。

在这项新研究中,研究人员通过设计一种光学芯片来复制传统计算机训练神经网络的方式,克服了实现全光学神经网络(all-optical neural network)的一个重大挑战。

人工神经网络可以被视为一个带有许多旋钮的黑盒。在训练期间,每个旋钮都要转动一点,然后测试系统,查看算法的性能是否得到改善。

“我们的方法不仅可以帮助预测旋钮转动的方向,还可以预测每个旋钮转动的方向,从而更接近预期的性能。”Hughes说,“我们的方法大大加快了训练速度,特别是对于大型网络,因为可以并行地获得每个旋钮的信息。”

片上训练

新的训练协议在具有可调谐光束分离器的光学电路运行,通过改变光学移相器的设置进行调整。具体来说,该方法是将编码有待处理信息的激光束发射到光学电路中,由光波导通过光束分离器进行传输,像旋钮一样进行调整,以训练神经网络算法。

在新的训练协议中,激光首先通过光学电路输入。退出设备后,计算出与预期结果的差值。然后,这些信息被用来产生一个新的光信号,这个信号通过光网络以相反的方向发送回来。

通过测量此过程中每个分束器周围的光强度,研究人员展示了如何并行地检测神经网络的性能随着每个分束器设置而变化的情况。移相器的设置可以根据这些信息进行更改,这个过程可以重复,直到神经网络产生期望的结果。

研究人员用光学模拟测试了他们的训练技术,方法是教算法执行复杂的任务,比如在一组点中找出复杂的特征。他们发现光学实现与传统计算机的执行类似。

该研究的负责人范汕洄说:“我们的研究表明,你可以利用物理定律来实现计算机科学算法。”“通过在光学领域对这些网络进行训练,证明光学神经网络系统可以利用光学器件来实现某些功能。”

研究人员计划进一步优化这个系统,并希望用它来实现神经网络任务的实际应用。他们设计的通用方法可用于各种神经网络架构,也可以用于其他应用。

原文:https://phys.org/news/2018-07-closer-optical-artificial-neural-network.html

原文发布时间为:2018-07-27
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。
原文链接:重大突破!斯坦福证明神经网络能直接在光学芯片上训练

相关文章
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
这篇文章介绍了如何使用PyTorch框架,结合CIFAR-10数据集,通过定义神经网络、损失函数和优化器,进行模型的训练和测试。
86 2
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
|
1月前
|
机器学习/深度学习 数据可视化 计算机视觉
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
这篇文章详细介绍了如何通过可视化深度学习中每层特征层来理解网络的内部运作,并使用ResNet系列网络作为例子,展示了如何在训练过程中加入代码来绘制和保存特征图。
56 1
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
|
3月前
|
机器学习/深度学习
神经网络与深度学习---验证集(测试集)准确率高于训练集准确率的原因
本文分析了神经网络中验证集(测试集)准确率高于训练集准确率的四个可能原因,包括数据集大小和分布不均、模型正则化过度、批处理后准确率计算时机不同,以及训练集预处理过度导致分布变化。
|
1月前
|
机器学习/深度学习 数据采集 算法
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
这篇博客文章介绍了如何使用包含多个网络和多种训练策略的框架来完成多目标分类任务,涵盖了从数据准备到训练、测试和部署的完整流程,并提供了相关代码和配置文件。
46 0
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
|
1月前
|
机器学习/深度学习 算法 TensorFlow
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
学习率是深度学习中的关键超参数,它影响模型的训练进度和收敛性,过大或过小的学习率都会对网络训练产生负面影响,需要通过适当的设置和调整策略来优化。
273 0
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
|
1月前
|
机器学习/深度学习 算法
【机器学习】揭秘反向传播:深度学习中神经网络训练的奥秘
【机器学习】揭秘反向传播:深度学习中神经网络训练的奥秘
|
2月前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。
|
3月前
|
机器学习/深度学习
|
3月前
|
安全 Apache 数据安全/隐私保护
你的Wicket应用安全吗?揭秘在Apache Wicket中实现坚不可摧的安全认证策略
【8月更文挑战第31天】在当前的网络环境中,安全性是任何应用程序的关键考量。Apache Wicket 是一个强大的 Java Web 框架,提供了丰富的工具和组件,帮助开发者构建安全的 Web 应用程序。本文介绍了如何在 Wicket 中实现安全认证,
43 0
|
3月前
|
机器学习/深度学习 数据采集 TensorFlow
从零到精通:TensorFlow与卷积神经网络(CNN)助你成为图像识别高手的终极指南——深入浅出教你搭建首个猫狗分类器,附带实战代码与训练技巧揭秘
【8月更文挑战第31天】本文通过杂文形式介绍了如何利用 TensorFlow 和卷积神经网络(CNN)构建图像识别系统,详细演示了从数据准备、模型构建到训练与评估的全过程。通过具体示例代码,展示了使用 Keras API 训练猫狗分类器的步骤,旨在帮助读者掌握图像识别的核心技术。此外,还探讨了图像识别在物体检测、语义分割等领域的广泛应用前景。
26 0

热门文章

最新文章