未来AI计算的方向,是「水芯片」?

简介: 未来AI计算的方向,是「水芯片」?
从工作原理上看,比硅芯片更像人脑了。


神经网络计算的未来可能比我们预计的要糟糕一些——不是用电的固体芯片,而是泡在水里。
近日,哈佛大学工程与应用科学学院(SEAS)与初创公司 DNA Script 组成的团队成功开发了一种基于水溶液中离子运动的处理器。
物理学家们认为,由于更接近大脑传输信息的方式,因此这种设备可能是类脑计算的下一步。
「水溶液中的离子电路使用离子作为电荷载体进行信号处理,」研究人员在论文中表示。「我们提出了一种水性离子电路…… 这种能够进行模拟计算的功能性离子电路,是朝着更复杂的水性离子学迈出的一步。」
该研究被发表在了最近一期材料科学期刊《Advanced Materials》上。



论文:https://onlinelibrary.wiley.com/doi/epdf/10.1002/adma.202205096

我们知道,从智能手机到云服务器中的芯片是通过固体半导体操纵电子来处理计算任务的,这和生物工作的方法不同。
大脑中信号传输的主要部分是称为离子的带电分子在液体介质中的运动。尽管大脑令人难以置信的处理能力很难人工复制,但科学家们认为计算机可以使用类似的系统:用水溶液承载离子。
由于介质改变了,这种方法将比传统的基于硅的计算慢,但它可能具有一些有趣的优势。例如离子可以从多种分子中产生,每个分子具有不同的特性,可以以不同的方式加以利用。
但首先,科学家需要证明它真的能发挥作用。

哈佛大学物理学家 Woo-Bin Jung 带领的团队一直在这个方向努力。构建计算机的第一步是设计功能性离子晶体管,这是一种开关或增强信号的器件。他们最近的进展涉及将数百个晶体管组合成一个离子电路。
该晶体管由电极的「靶心」排列组成,中心有一个小圆盘形电极,周围有两个同心环形电极。这与醌分子的水溶液接触。使用时,施加在中央圆盘上的电压会在醌溶液中产生氢离子电流。同时,两个环形电极调节溶液的 pH 值,从而增加或减少离子电流。

芯片(左),中央(中)有一个由数百个晶体管(右)组成的阵列。

醌是含有共轭环己二烯二酮或环己二烯二亚甲基结构的一类有机化合物,基于这种物质的晶体管执行由环对门控设置的「权重参数与磁盘电压的物理乘法,产生离子电流的答案。
你可能会知道「生物计算机」的概念,指利用生物材料去取代当前计算机使用的半导体芯片和存储介质,被认为是量子计算之外,计算机未来的另一大方向。不过此前的很多研究集中在单个离子二极管和晶体管,而不是包含许多此类设备的电路。
当前对算力需求极高的神经网络严重依矩阵乘法运算,其中涉及多次乘法。因此,该团队设计了 16×16 的晶体管阵列,每个都能够进行乘法计算,以产生可以执行矩阵乘法的离子电路。它们在互补金属氧化物半导体 (CMOS) 电子芯片的表面上实现并由其操作。
研究人员通过执行物理或模拟乘积累加 (MAC)操作来展示这种阵列级离子电路的实用性。基于物理现象的模拟 MAC 操作——对比基于许多数字逻辑门和布尔代数的数字 MAC 操作,新的方法对降低人工神经网络的功耗带来了方向。

离子晶体管的示意。

由于每个交叉点电导都作为网络突触权重起作用,馈入阵列行的输入电压通过欧姆定律乘以权重,并根据基尔霍夫定律在每列中累积所得电流。因此,每列电流是物理上的在输入数据向量和列的突触权重向量之间产生点积。
在每个离子晶体管中,施加的电压 Vin 的电流 Iout 由 Ig 门控,我们可以找到 Vin 的一个区域,其中 Iout = W × Vin,比例常数或权重 W 可以通过 Ig 调整,即在该区域中,离子晶体管在权重和输入电压之间进行物理乘法。

乘积累加操作。

「矩阵乘法是人工智能神经网络中最常用的计算,我们的离子电路以完全基于电化学机械的模拟方式在水中执行矩阵乘法」,Woo-Bin Jung 说道。
当然,这项技术目前还存在很大的局限性,其中包括操作必须按顺序执行,而不是同时执行,这大大减慢了方法的速度。
然而,研究团队认为下一步的工作不是提高速度,而是在系统中引入更广泛的分子。到目前为止,该团队只使用了三四种离子物质来实现水性离子晶体管中的门控和离子传输,例如氢和醌离子。该研究试图完成更复杂的离子计算,让电路处理更复杂的信息。

研究团队指出:这项研究最终的目标不是用离子技术与电子产品竞争或取代电子产品,而是以混合技术的形式让二者取长补短。
参考内容:https://www.sciencealert.com/biology-inspires-a-new-kind-of-water-based-circuit-that-could-transform-computing

相关文章
|
2月前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
49 0
|
2月前
|
存储 人工智能 算法
【AI系统】计算图的优化策略
本文深入探讨了计算图的优化策略,包括算子替换、数据类型转换、存储优化等,旨在提升模型性能和资源利用效率。特别介绍了Flash Attention算法,通过分块计算和重算策略优化Transformer模型的注意力机制,显著减少了内存访问次数,提升了计算效率。此外,文章还讨论了内存优化技术,如Inplace operation和Memory sharing,进一步减少内存消耗,提高计算性能。
135 34
【AI系统】计算图的优化策略
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与情感计算:AI如何理解人类情感
人工智能与情感计算:AI如何理解人类情感
242 20
|
20天前
|
人工智能 运维 Serverless
云端问道8期方案教学-基于Serverless计算快速构建AI应用开发
本文介绍了基于Serverless计算快速构建AI应用开发的技术和实践。内容涵盖四个方面:1) Serverless技术价值,包括其发展趋势和优势;2) Serverless函数计算与AI的结合,探讨AIGC应用场景及企业面临的挑战;3) Serverless函数计算AIGC应用方案,提供一键部署、模型托管等功能;4) 业务初期如何低门槛使用,介绍新用户免费额度和优惠活动。通过这些内容,帮助企业和开发者更高效地利用Serverless架构进行AI应用开发。
|
2月前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
2月前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
1月前
|
存储 人工智能 运维
面向AI的服务器计算软硬件架构实践和创新
阿里云在新一代通用计算服务器设计中,针对处理器核心数迅速增长(2024年超100核)、超多核心带来的业务和硬件挑战、网络IO与CPU性能增速不匹配、服务器物理机型复杂等问题,推出了磐久F系列通用计算服务器。该系列服务器采用单路设计减少爆炸半径,优化散热支持600瓦TDP,并实现CIPU节点比例灵活配比及部件模块化可插拔设计,提升运维效率和客户响应速度。此外,还介绍了面向AI的服务器架构挑战与软硬件结合创新,包括内存墙问题、板级工程能力挑战以及AI Infra 2.0服务器的开放架构特点。最后,探讨了大模型高效推理中的显存优化和量化压缩技术,旨在降低部署成本并提高系统效率。
|
2月前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图原理
本文介绍了AI框架中使用计算图来抽象神经网络计算的必要性和优势,探讨了计算图的基本构成,包括标量、向量、矩阵、张量等数据结构及其操作,并详细解释了计算图如何帮助解决AI工程化中的挑战。此外,文章还通过PyTorch实例展示了动态计算图的特点和实现方法,包括节点(张量或函数)和边(依赖关系)的定义,以及如何通过自定义Function实现正向和反向传播逻辑。
95 7
【AI系统】计算图原理
|
2月前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
52 5
【AI系统】计算图的控制流实现
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】计算图与自动微分
自动求导利用链式法则计算雅可比矩阵,从结果节点逆向追溯计算路径,适用于神经网络训练中损失值对网络参数的梯度计算。AI框架中,自动微分与反向传播紧密相连,通过构建计算图实现高效梯度计算,支持动态和静态计算图两种模式。动态图如PyTorch,适合灵活调试;静态图如TensorFlow,利于性能优化。
69 6
【AI系统】计算图与自动微分