超快、超低能耗!北大团队提出基于卷积神经网络的全光计算

简介: 超快、超低能耗!北大团队提出基于卷积神经网络的全光计算

编辑/凯霞随着先进工程计算、经济数据分析和云计算的快速发展,对超高速和高能效计算的需求呈指数级增长。现有的冯诺依曼架构下的传统电子信号处理器难以同时实现高速和低能耗。使用光子作为信息载体是一种很有前景的选择。由于传统材料的三阶非线性光学较弱,在传统冯诺依曼架构下构建集成光子计算芯片一直是一个挑战。近日,由北京大学物理学院龚旗煌研究团队提出了一种基于卷积神经网络(CNN)实现超快超低能耗全光计算芯片方案的新策略,支持多计算任务的执行。这项工作为下一代全光计算系统指明了方向。该研究以「All-optical computing based on convolutional neural networks」为题,于 11 月 25 日发表在《Opto-Electronic Advances》上。

电子向光子的转变

现有的计算仪器以电子处理器为主,以电子为信息载体,具有冯诺依曼架构,存储与处理物理分离。计算速度的扩展不仅受到内存和处理单元之间的数据传输的限制,还受到与集成电路相关的 RC 延迟的限制。此外,由于欧姆损耗导致的过度加热正在成为速度和功耗缩放的严重瓶颈。采用光子作为信息载体的全光计算提供了一种有前途的替代方法。当前,光计算通常依靠三阶非线性光学来实现全光控制。然而,超快的响应时间和巨大的非线性通常在光学材料中呈现出一种固有的权衡,因此较大的非线性敏感性通常只能以较慢的响应时间为代价来获得。这种权衡对构建遵循冯诺依曼架构的集成光子处理器提出了重大挑战,通常要求在单个芯片中进行各种光子器件的复杂异构集成。因此,为全光计算探索新的架构和非常规的计算方案势在必行。在这里,报告了一种实现超快、超低能耗全光计算的新策略,包括方程求解、基于 CNN 的多功能逻辑运算。研究人员表示:这是第一个在全光学芯片上实现物理固定的 CNN。

全光计算框架通用架构。

光学 CNN 由级联硅 Y 形波导和侧耦合硅波导段组成,以实现每个波导分支中的完整相位和幅度控制。这种概念和架构简单的设计独特地提供了超快的计算时间和低能耗。

全光计算性能

通用设备概念可用于方程求解、多功能逻辑运算以及许多其他数学运算。接下来,通过实验证明了包括超越方程求解器、各种逻辑门算子和半加器在内的多种计算功能,以验证全光计算性能。全光超越方程求解器方程是描述系统状态和过程的有效工具,求解方程可以告知所研究系统的状态并预测系统演化的轨迹。由于超越方程除少数情况外只能进行数值求解,因此超越方程的数值求解仍然是数学计算中的一个重要课题。该团队开发了一种求解器,它可以使用具有出色计算性能的光学 CNN 可预测地求解超越方程。

全光超越方程求解器。

测试结果表明,本文提出的超越方程求解器具有较高的求解精度,最大偏差小于 5%,多数情况下偏差小于 3%。这种偏差是由于输出波导数量有限和样品制作不完善造成的。因此,需要强调的是,理论上可以通过增加输出波导的数量来提高求解的精度。除了出色的求解精度外,全光学方程求解器还具有超快(通过特征结构的光的飞行时间为~1.3 ps)和能效计算(~92 fJ/bit)的特点。多种逻辑门运算符全光逻辑门构成了超高速全光芯片的基本构建块,任何复杂的光逻辑电路都可以由这些逻辑门组成。此外,逻辑运算为更复杂的光信号处理功能奠定了基础。然而,目前基于信号光线性相干或非线性相互作用的全光逻辑器件设计在实现高速、低功耗的可重构性和多功能操作(在单个芯片中实现多个逻辑功能)方面仍然面临挑战。研究人员利用网络的可扩展性来优化片上全光多种逻辑设备。该设计优化了 6 个输入端口,包括 2 个信号输入端和 4 个控制位,共 5 层。通过七种不同的 CNN 结构可以实现 16 种逻辑函数。选择其中一种光学 CNN 结构进行了说明。

多种逻辑门。

研究表明,可以实现低至 10.4 aJ/bit 的能耗,同时保持低错误率。此外,光学 CNN 的输出逻辑状态在执行多个逻辑功能时很容易区分。也就是说,未来更多的级联扩展可能仍然有效。半加器全光半加器可以执行将两个输入数据位相加并在全光实现中产生一个和位和一个进位位的计算任务。在这里,展示了一个基于其光学 CNN 平台的全光学半加器。

半加器。

通过算法优化确定了 12 个网络权重。逻辑状态 0 和 1 之间的平均光强对比度为 14.2 dB。飞行时间计算时间为 2.7 ps,能耗为 50.8 fJ/bit。进一步分析表明,可以实现低至 23.8 aJ/bit 的能耗,同时保持 10^-9 的低错误率。在实现高强度对比度的同时成功展示了半加器的功能,这进一步验证了 CNN 设计的高度可扩展性和广泛适用于各种全光处理功能。

超快和超低能耗

总之,研究人员通过实验证明了第一个基于硅波导的用于全光计算的物理固定 CNN。实现了设计以实现全光超越方程求解器、各种逻辑门算子和半加器,所有这些都表现出皮秒级超快运算和每比特数十飞焦量级的超低能耗。这种光网络架构易于扩展,有可能通过级联基本元素结构进一步扩展以执行其他复杂的计算任务。此外,该平台提供了使用波长复用进行并行计算的可能性。因此,该工作为下一代全光计算系统指明了一个有希望的方向。

论文链接:https://www.oejournal.org/article/doi/10.29026/oea.2021.200060

参考内容:https://phys.org/news/2021-11-all-optical-based-convolutional-neural-networks.html

目录
打赏
0
0
0
0
368
分享
相关文章
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
67 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
基于GA遗传优化TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB2022a开发,提供无水印算法运行效果预览及核心程序(含详细中文注释与操作视频)。通过结合时间卷积神经网络(TCN)和遗传算法(GA),实现复杂非线性时间序列的高精度预测。TCN利用因果卷积层与残差连接提取时间特征,GA优化超参数(如卷积核大小、层数等),显著提升模型性能。项目涵盖理论概述、程序代码及完整实现流程,适用于金融、气象、工业等领域的时间序列预测任务。
基于GA遗传优化TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于遗传算法优化的时间卷积神经网络(TCN)用于时间序列预测的方法。算法运行于 Matlab2022a,完整程序无水印,附带核心代码、中文注释及操作视频。TCN通过因果卷积层与残差连接学习时间序列复杂特征,但其性能依赖超参数设置。遗传算法通过对种群迭代优化,确定最佳超参数组合,提升预测精度。此方法适用于金融、气象等领域,实现更准确可靠的未来趋势预测。
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
害虫识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了12种常见的害虫种类数据集【"蚂蚁(ants)", "蜜蜂(bees)", "甲虫(beetle)", "毛虫(catterpillar)", "蚯蚓(earthworms)", "蜚蠊(earwig)", "蚱蜢(grasshopper)", "飞蛾(moth)", "鼻涕虫(slug)", "蜗牛(snail)", "黄蜂(wasp)", "象鼻虫(weevil)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Djan
131 1
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
161 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
52 5
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
基于GA遗传优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB 2022a实现了一种结合遗传算法(GA)优化的时间卷积神经网络(TCN)时间序列预测算法。通过GA全局搜索能力优化TCN超参数(如卷积核大小、层数等),显著提升模型性能,优于传统GA遗传优化TCN方法。项目提供完整代码(含详细中文注释)及操作视频,运行后无水印效果预览。 核心内容包括:1) 时间序列预测理论概述;2) TCN结构(因果卷积层与残差连接);3) GA优化流程(染色体编码、适应度评估等)。最终模型在金融、气象等领域具备广泛应用价值,可实现更精准可靠的预测结果。
揭示Transformer周期建模缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷
北京大学研究团队发现,Transformer等主流神经网络在周期特征建模方面存在缺陷,如记忆数据模式而非理解内在规律,导致泛化能力受限。为此,团队提出基于傅里叶分析的Fourier Analysis Network(FAN),通过显式建模周期性特征,提升模型的理解和预测能力,减少参数和计算量,并在多个实验中验证其优越性。论文链接:https://arxiv.org/pdf/2410.02675.pdf
72 3
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
100 11

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等