算力技术的下一个浪潮,从未离我们这么近。
近年来,人工智能等技术的快速发展让计算机的算力需求暴增,但随着摩尔定律失效,传统芯片性能提升速度却开始大幅放缓。全世界都在寻找新的解决方法,光芯片的发展正让人看到希望。
我们经常会看到光芯片技术、光学神经网络的研究登上 Nature 和 Science 等顶尖科学杂志。在一些研究中科学家们指出,光学开关的速度要比现在商用的顶级硅芯片的晶体管快 100 到 1000 倍。
相比如今顶级 CPU 每代性能约 20% 的提升水平,光芯片可能带来的提升非常夸张,这种技术距离实用化究竟有多远?科学家和创业者那里都有着不同的说法,从工作原理上看,它的确具有传统电子芯片所不具备的诸多能力。
在我们熟悉的常规计算机上,芯片晶体管会通过在两种电状态之间切换来将数据表示为 1 或 0,进而执行各种逻辑运算,为复杂的软件提供算力。而在光芯片(photonic chip)上,我们可以将数字或模拟信号编码在光的相位或强度上,光在芯片中传播的同时完成计算,运算速度比普通计算机要快很多。
光芯片对工艺尺寸要求也不苛刻,目前研究者们采用的主流工艺是 40nm ,甚至更早的工艺,而且稳定性良好,信息传输不受温度、磁场等常见环境因素影响。
从「一个错误方向」到 AI 技术的希望
使用光进行计算的想法可以追溯到 1950 年代。但随着技术的发展,电子计算机成为了商业化铺开的选择。1980 年代,贝尔实验室曾尝试制造通用化的光芯片,但由于构建可工作的光学晶体管过于困难而失败。
最近几年,人们又完成了一系列光芯片的研究,终于实现了技术突破。
2006 年,英特尔推出首款标准 CMOS 工艺的电子混合硅激光器,基于此技术的超高带宽光学传输架构成为了高性能数据中心的研究方向,人们希望通过光传输降低数据中心的带宽瓶颈。
更加接近实用化的光计算芯片则在近两年被人们提出。2017 年 6 月,麻省理工学院的一个研究小组尝试将「光子计算」与「人工智能」结合,研究发表在自然 · 光子学子刊的封面文章《Deep learning with coherent nanophotonic circuits》上。
MIT 团队提出了一种以光子方式代替 CPU 和 GPU 进行 AI 计算的方法,其使用了多束光线,它们的波相互作用产生干涉图案,传达预期操作的结果。研究人员把这种设备称为可编程纳米光子处理器(Programmable Nanophotonic Processor)。
该处理器使用一个波导阵列,可以根据需要修改相互连接的方式,为特定的计算编写一组波束。在应用中,它可以以典型的人工智能算法执行计算,但速度要比在传统硅芯片上快得多。
MIT 在研究中展示,利用光计算的独特优势,全光学神经网络的计算速度可以比传统方法速度提升至少两个数量级,能耗效率提升三个数量级。该研究不仅提出了一种可行性高的光芯片方向,又验证了其正好适用于 AI 计算这一算力需求极高的领域。在此之后,光芯片进入了加速发展的阶段。
大学实验室和一些创业公司提出的光芯片大多遵循这样的范式,它们看起来大体和普通计算机芯片相同,但内含一些光波导 。它们通过在微小的通道内分裂和混合光束来进行计算,光线的尺度小至纳米。在硬件底层,电芯片协调光子的部分功能,并提供临时内存存储。
在光芯片完成实验室阶段的展示后,算法、总线和存储等方面的研究也正在进行中,一些光芯片已经可以与数据中心适配,并与大多数主要深度学习框架配合使用。
下一个技术突破
在致力于研发光芯片的创业公司行列中,曦智科技可谓一股重要力量。
2017 年,完成自然子刊封面研究的麻省理工学院研究团队成员成立了全球首家光芯片创业公司曦智科技(Lightelligence),论文的第一作者沈亦晨任联合创始人兼 CEO。
2019 年 4 月,曦智科技正式发布了全球首款光子芯片原型板卡,成功将此前需要占据半个实验室的完整光子计算系统集成到了常规大小的板卡上。这块芯片成功运行了 MNIST 数据集的图像识别任务。
曦智科技成功解决了光芯片处理准确性的问题。在测试中,整个模型超过 95% 的运算是在光子芯片上完成的,其处理准确率已接近电子芯片 (97% 以上),而完成矩阵乘法的用时则可缩短至最先进的电子芯片的 1/100 以内。
这家起源于集成光子计算突破性研究的公司,迄今为止已筹集了超过 1.1 亿美元融资。其团队一直在致力于构建世界上最广泛的集成光子系统。
最近,光芯片领域即将迎来新的技术进展。12 月 15 日晚 7 点整,曦智科技将会直播发布其最新光子计算处理器,用光子技术突破集成电路的产业边界,展示光子计算的优越性,以及光子技术改变世界的巨大力量。