在AI时代重新思考人机共生:理解人类在人机系统的最理想角色

简介: 本文作者是 DARPA 国防科学办公室副主任,文章讨论了人机共生关系的机会和潜力以及与之相关的计算机教育,提出如爱因斯坦所言,如果人类要生存下去,我们将需要一种全新的思维方式,而作者认为人机合作是这种新的思维方式的核心。

56年前,J.C.R.Licklider 阐述了计算机与人类大脑相结合的理念,人类的思维将能够思考人类独自无法达到的想法。这个愿景影响了一代科学家和工程师,并且在很大程度上是我们今天的计算经验的基础。然而,我并没有觉得我和现在的机器建立了合作关系,而且我经常发现自己需要苦苦思索,或屈服于自己的意志去适应机器。这难道不应该是反过来吗?我错过了“人机共生”吗?

当然,我们的计算机已经比1960年代的更加用户友好。人因工程学领域在创造交互技术方面取得了很大的进步,这些技术可以更好地让人类和机器合作。这在人机交互(HCI)的主流计算机科学领域以及最近的人本计算(human-centered computing)中体现出来。这些进展已经有一些结果,比如F-35第三代头盔显示器系统,微软的Kinect,以及低成本传感器和大量计算能力所带来的众多新型输入技术。但是,共生意味着比交互技术更重要的东西。

人机共生的潜力经常见于艺术作品,在这些艺术作品中,计算机技术已经能够创造以前无法实现的表达形式。计算技术赋能了一大批新的艺术家群体,如沉浸式和增强现实游戏、动画电影、音乐作曲和表演等。以前需要录音棚的工作,现在GarageBand就行了;以前需要暗房的工作,现在有Photoshop就行了;以前需要电影胶片的地方,现在只需要Blender和RenderMan。在这些领域,我们开始将人类和机器视为艺术创作的完全合作伙伴。当我们利用人类和机器(毕竟,大脑只是一个可替代的计算平台),我们不仅使从前不可能的问题变得容易处理,而且也创造出截然不同的方法。我们得以构想新的创作,思考以前不可能的想法。我们的目标应该是加倍在这些系统的工作,增强我们作为人类的能力,赋予我们不同的观察和思考的方式。

人本计算的新兴领域已经开始在这个方向揭示一些惊人的机会。卡内基梅隆大学计算机科学系副教授 Luis von Ahn 展示了我们人类对游戏和谜题偏好可以如何用于完成惊人的任务,例如通过ESP游戏在互联网上标记图像,以及通过CAPTCHA “OCR”处理大量书籍。在这些情况中,我们正在改变用户、计算和正在解决的整个任务之间的关系。

就我个人的经验而言,作为DARPA 移动边缘网络项目的一名研究人员,我的团队使用陆军野战手册中的操作训练原则来构建以内容为中心的网络模式。我们重新考虑了基于用户的任务动态的网络范式。我们的方法与其他希望使用机器学习、情绪分析和其他数据分析技术来“了解”用户的内容类型的研究者形成了对比。学习和大数据的方法在数学上很优雅,算法上也很复杂。但它解决了一个人工的问题。相比之下,通过聚焦于人类用户及其信息需求和任务目标(所有这些目标在一开始就已众所周知),许多算法上的难题都消失了,结果是我们的作战人员的联网能力类型截然不同。

这就是共生关系的核心:理解人类在人机系统中的最优、最理想的角色。这些问题成为人类和计算机共同解决的问题,而不仅仅是计算机自身解决的问题。也许这正是我们所缺失的:我们经常要求机器自己解决问题,而不是作为人机团队的一部分。例如,对于一些传统的工程师来说,计算机仅仅是一个更强大的计算器;MATLAB已经取代了幻灯片的规则,但是人为驱动的任务本质上是一样的。这是计算机科学之外的现实,在他们看来,数据库仍然只是一个Excel电子表格,而文字处理器仅仅是打字机的替代品。为了充分实现信息革命,带来“第二次机器革命”(Erik Brynjolfsson & Andrew McAfee)的经济效应,我们需要重新思考计算机科学家的工作重点,以通过人机合作来解决社会问题。(我不知道这是不是计算机科学多样性问题的根源之一:我们把机器视为与人类分开的,那么它们把我们与我们的人性分开,而不是增强人类能力。)

从这个角度来看,计算机教育至少有两方面的含义。首先,除了一小部分修读HCI、认知心理学,或某些软件工程学的学生之外,计算机科学本科毕业生很可能不必接触 任何的用户需求就能获得学士学位,更不用说处于复杂或混乱的科学或工程领域的用户。在我们的本科计算机课程中,使用启发和以用户为中心的思维方式已经变得越来越普遍,我们应该寻求这些复杂或混乱的科学和工程问题来解决我们的技术问题。

其次,在几乎所有传统的计算机科学教育中,计算机通常被视为一个孤立的盒子。它是处理器、数据和内存的地方;是算法的数学伪码;是提供银行交易、飞行控制、视频游戏或工厂规划的软硬件“网络物理”系统,等等。我们如何让学生理解人类在人机系统中所扮演的角色呢?我们希望培养学生去设想如何从根本上改变问题的性质,使问题能够被人机结合的团队解决。

我认为这对计算机科学研究的影响同样是激进的;我们花费了大量的精力来推进我们假设的基础计算机科学,然而我们可能错过一个更大的机会,因为我们没有提出正确的问题。

提出正确的问题是亨利·福特(Henry Ford)和他的团队工业创新的关键。他们不是简单地扩大现有的劳动实践,而是系统地把人类劳动和机器劳动之间的关系作为共享生产体系的一部分。我们这个时代面临的挑战是培养新一代的科学家和工程师,他们严格地探索人机共享劳动的潜在机会,不是为了取代人的劳动,而是以各种形式增强人类劳动。

爱因斯坦在1949年发表的一篇社论中反思了科学对社会的影响,他总结道:“如果人类要生存下去,我们将需要一种全新的思维方式。”在我看来,人机合作是这种新的思维方式的核心。鉴于今天这个科技快速发展、社会快速变革的时代,我们要思考得“更快”,思考新的点子,唯一的方法就是与我们的计算机伙伴合作,这是我们赖以生存的。

关于作者

William Regli 是 DARPA 国防科学办公室副主任。他在德雷塞尔大学(Drexel University)任教17年后,于2014年开始在 DARPA 工作。Regli已经发表了250多篇技术文章,涉及在计算机图形学、人工智能、机器人、无线网络、组织工程学、以及工程设计和制造方面的研究。他是ACM、IEEE以及AAAI的高级会员。


原文发布时间为:2017-11-27

本文作者:马文

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

原文链接:在AI时代重新思考人机共生:理解人类在人机系统的最理想角色

相关文章
|
3天前
|
机器学习/深度学习 存储 人工智能
【AI系统】昇思MindSpore并行
本文介绍昇思MindSpore的并行训练技术,包括张量重排布、自动微分等,旨在简化并行策略搜索,提高大规模模型训练效率。文章探讨了大模型带来的挑战及现有框架的局限性,详细说明了MindSpore如何通过技术创新解决这些问题,实现高效的大模型训练。
46 20
【AI系统】昇思MindSpore并行
|
3天前
|
机器学习/深度学习 人工智能 分布式计算
【AI系统】混合并行
混合并行融合了数据并行、模型并行和流水线并行,旨在高效利用计算资源,尤其适合大规模深度学习模型训练。通过将模型和数据合理分配至多个设备,混合并行不仅提升了计算效率,还优化了内存使用,使得在有限的硬件条件下也能处理超大型模型。3D混合并行(DP+PP+TP)是最先进的形式,需至少8个GPU实现。此策略通过拓扑感知3D映射最大化计算效率,减少通信开销,是当前深度学习训练框架如Deepspeed和Colossal AI的核心技术之一。
42 15
【AI系统】混合并行
|
3天前
|
存储 人工智能 PyTorch
【AI系统】张量并行
在大模型训练中,单个设备难以满足需求,模型并行技术应运而生。其中,张量并行(Tensor Parallelism, TP)将模型内部的参数和计算任务拆分到不同设备上,特别适用于大规模模型。本文介绍了张量并行的基本概念、实现方法及其在矩阵乘法、Transformer、Embedding和Cross Entropy Loss等场景中的应用,以及通过PyTorch DeviceMesh实现TP的具体步骤。
30 11
【AI系统】张量并行
|
3天前
|
存储 机器学习/深度学习 人工智能
【AI系统】完全分片数据并行 FSDP
本文深入探讨了AI框架中针对权重数据、优化器数据和梯度数据的分布式并行实现,特别是在PyTorch框架下的具体方案。文章首先回顾了通用数据并行和分布式数据并行的概念,重点讨论了同步与异步数据并行的差异。接着,文章详细介绍了如何在PyTorch中实现弹性数据并行,特别是完全分片数据并行(FSDP)的机制,包括其如何通过分片模型状态和剩余状态来减少内存消耗,提高训练效率。此外,文章还探讨了混合精度训练、损失缩放和内存消耗估算等关键技术,为理解和实施高效的分布式训练提供了全面的指导。
21 9
【AI系统】完全分片数据并行 FSDP
|
3天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】数据并行
数据并行是一种在分布式AI系统中广泛应用的技术,通过将数据集划分成多个子集并在不同计算节点上并行处理,以提高计算效率和速度。在大规模机器学习和深度学习训练中,数据并行可以显著加快模型训练速度,减少训练时间,提升模型性能。每个计算节点接收完整的模型副本,但处理不同的数据子集,从而分摊计算任务,提高处理速度和效率。数据并行按同步方式可分为同步数据并行和异步数据并行,按实现方式包括数据并行、分布式数据并行、完全分片的数据并行等。其中,分布式数据并行(DDP)是当前应用最广泛的并行算法之一,通过高效的梯度聚合和参数同步机制,确保模型一致性,适用于大型NPU集群和AI系统。
39 7
【AI系统】数据并行
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
3天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
32 5
【AI系统】计算图挑战与未来
|
3天前
|
机器学习/深度学习 存储 人工智能
【AI系统】流水并行
在大模型训练中,单个设备难以满足计算和存储需求,分布式训练成为必要。模型并行是其中关键技术之一,通过将模型计算任务拆分至不同设备上执行,提高训练效率。模型并行主要包括朴素模型并行、张量并行和流水线并行。流水线并行通过将模型的不同层分配到不同设备上,采用微批次处理,提高设备利用率。Gpipe和PipeDream是两种流行的流水线并行方案,前者通过重叠前向和反向传播提升效率,后者则通过1F1B策略实现交错执行,最大化利用计算资源。
31 15
|
3天前
|
人工智能 前端开发 PyTorch
【AI系统】动态图与静态图转换
从 TensorFlow、PyTorch 到 PaddlePaddle、MindSpore、MegEngine,主流 AI 框架经历了动静分离、动静结合到动静统一的发展过程。这些框架通过动态图转静态图技术,实现了计算效率与灵活性的平衡,显著提升了 AI 开发效率和产品应用的便利性。
35 14
|
3天前
|
人工智能 PyTorch 测试技术
【AI系统】并行训练基本介绍
分布式训练通过将任务分配至多个节点,显著提升模型训练效率与精度。本文聚焦PyTorch2.0中的分布式训练技术,涵盖数据并行、模型并行及混合并行等策略,以及DDP、RPC等核心组件的应用,旨在帮助开发者针对不同场景选择最合适的训练方式,实现高效的大模型训练。
32 8