超维计算让AI有记忆和反应,还能解决自动驾驶难题

简介: 这可以打破我们与自动驾驶汽车和其他机器人之间的僵局,这也将促使更像人类AI模型的出现。

马里兰大学的一个研究团队最近提出了超维计算理论(hyperdimensional computing theory),能够让机器人拥有记忆和反应。这可以打破我们与自动驾驶汽车和其他机器人之间的僵局,这也将促使更像人类AI模型的出现。 

TB14VrVXBGw3KVjSZFwXXbQ2FXa.jpg

解决方案

马里兰州团队提出了一种理论方法——超维计算,一种超线程的替代方式,基于布尔值和数字计算,可以取代当前用于处理感官信息的深度学习方法。

根据团队成员之一也是论文作者的博士生Anton Mitrokhin的说法,这很重要,因为要让AI像人类一样面临着处理的瓶颈:

基于神经网络的AI方法既庞大又缓慢,因为这种方法无法记忆。我们的超维理论方法可以产生记忆,这将大幅减少计算需求,并且使任务可以更快和更有效地完成。

记忆是当前人工智能所不具备的,但这对于预测未来的任务非常重要。想象一下,在打网球的时候,每次击球时你都不在头脑中计算,而只是跑过来,然后打它。你感知到球并采取行动,没有借助其他东西将真实世界的数据转化为数字数据然后进行处理。这种在没有过滤器的情况下将感知转化为行动的能力是人类在现实世界中固有的能力。

问题

2016年5月,特斯拉汽车在开启自动驾驶辅助系统的情况下,未能“看到”卡车的白色拖车,特斯拉汽车以高速公路的速度撞向它。最近又发生了同样的事情。不同型号特斯拉汽车,不同版本的自动驾驶系统,但结果是同样的,这是为什么?

虽然埃隆马斯克应该承担一些责任,人为错误也需要对此负责,但事实仍然是深度学习会让自动驾驶汽车变得糟糕,并且没有太大的希望让它会变得更好。

 

TB1i6rQXBSD3KVjSZFqXXc4bpXa.png

其原因很复杂,但可以很容易地解释。AI不知道汽车、人、拖车或热狗的样子。很容易发现,一个深学习型AI模型可以通过一百万张的图片进行训练让这个模型对热狗图片识别的精确度达到99.9%,但它永远不会知道真正看起来像是什么样。

未来

超维计算理论为AI提供了真正“看到”世界并做出自己推论的能力。通过对每个可感知的对象和变量进行数学运算,超矢量可以在机器人中实现“主动感知”,而不是试图通过强制处理整个宇宙。

据论文的主要作者 Yiannis Aloimonos所说:

主动感知者知道为什么要感知,然后选择要感知的内容,并确定感知的方式,包括何时以及在何处实现感知。它选择并专注于场景、时刻和情节。然后,它将其机制,传感器和其他组件,以根据它想要查看的内容进行操作,并选择最佳捕获其意图的视点。我们的超维框架可以解决每个问题。

虽然机器人的超维计算操作系统的创建和实现仍然是理论上的,但这些想法为研究提供了一条前进的道路,可以为无人驾驶汽车AI提供解决当前需要解决问题的方法。

此外,这个理论不仅仅是机器人技术。研究人员的最终目标是用更快、更有效的基于超维计算的替换神经网络模型取代迭代神经网络模型。这可能会导致一种没有进展的线下,它接近于开发新的机器学习模型。

我们可能更接近于实现一个能够在不熟悉的环境中学习执行新任务的机器人 - 比如“Jetsons”中的Rosie The Robot - 比大多数专家都认为的更好。当然,像这样的技术也可能带来其他问题......不那么卡通化的产品:雷锋网

TB1HkYYXqWs3KVjSZFxXXaWUXXa.png

雷锋网编译,via thenextweb 雷锋网(公众号:雷锋网)

目录
相关文章
|
13天前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
34 0
|
10天前
|
存储 人工智能 算法
【AI系统】计算图的优化策略
本文深入探讨了计算图的优化策略,包括算子替换、数据类型转换、存储优化等,旨在提升模型性能和资源利用效率。特别介绍了Flash Attention算法,通过分块计算和重算策略优化Transformer模型的注意力机制,显著减少了内存访问次数,提升了计算效率。此外,文章还讨论了内存优化技术,如Inplace operation和Memory sharing,进一步减少内存消耗,提高计算性能。
68 34
【AI系统】计算图的优化策略
|
5天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
5天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
9天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
32 5
【AI系统】计算图的控制流实现
|
9天前
|
机器学习/深度学习 存储 人工智能
【AI系统】计算图与自动微分
自动求导利用链式法则计算雅可比矩阵,从结果节点逆向追溯计算路径,适用于神经网络训练中损失值对网络参数的梯度计算。AI框架中,自动微分与反向传播紧密相连,通过构建计算图实现高效梯度计算,支持动态和静态计算图两种模式。动态图如PyTorch,适合灵活调试;静态图如TensorFlow,利于性能优化。
38 6
【AI系统】计算图与自动微分
|
9天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
42 5
【AI系统】计算图挑战与未来
|
9天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图基本介绍
近年来,AI框架如TensorFlow和PyTorch通过计算图描述神经网络,推动了AI技术的发展。计算图不仅抽象了神经网络的计算表达,还支持了模型算子的高效执行、梯度计算及参数训练。随着模型复杂度增加,如MOE、GAN、Attention Transformer等,AI框架需具备快速分析模型结构的能力,以优化训练效率。计算图与自动微分紧密结合,实现了从前向计算到反向传播的全流程自动化。
33 4
【AI系统】计算图基本介绍
|
10天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
39 4
【AI系统】计算图优化架构
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】自定义计算图 IR
本文介绍了模型转换的方法及流程,重点讲解了计算图的自定义方法和优化技术。通过IR(Intermediate Representation)将不同AI框架的模型转换为统一格式,实现跨平台高效部署。计算图由张量和算子构成,支持多种数据类型和内存排布格式,通过算子融合等优化技术提高模型性能。文章还详细说明了如何使用FlatBuffers定义计算图结构,包括张量、算子和网络模型的定义,为自定义神经网络提供了实践指南。
25 3
【AI系统】自定义计算图 IR