真相 | Facebook AI系统并未“失控”,研究员已修正bug

简介:

雷锋网AI科技评论按:英国《太阳报》8月1日报道了一则”机器人正在接手人类主动权吗?”的新闻。文中讲到 Facebook最近关停了一项人工智能实验,因为两个机器人开始用自己的语言交流,人类并不知道它们在讲什么。

随后,Facebook关闭“失控”AI系统,机器人发展出人类无法理解的语言等类似这样的标题占据国内各大科技媒体头条。然而AI科技评论并没有跟风,为了弄清事情的来龙去脉,给公众一个客观真实的报道,我们了解到:

  • Facebook并没有关闭这个AI实验项目,只是做了修正,修正也不是因为“失控”,是因为没有意义。

  • Facebook的AI是否创造了语言,要看如何定义「语言」。比如说,Python、JavaScript这类计算机语言并非真正的语言,但也会称之为「语言」。

为什么Facebook AI突然会火?

其实这个AI 实验项目在半个月之前都已经有媒体报道过,最近又被媒体提出来,很可能要追溯到前几天Facebook创始人马克·扎克伯格与特斯拉CEO 埃隆·马斯克在twitter 上的那场隔空论战。

马斯克认为,人工智能将威胁人类或引发恐慌,呼吁政府尽快考虑针对这一技术的相关立法与管控;而扎克伯格则认为,人工智能将会让人类的生活变得更安全和美好,那些“反对(人工智能)并鼓吹(因人工智能而引发)世界末日论”的人“非常不负责任”。马斯克随后在推特回复网友转发时说:“我和小扎讨论过这个,他对人工智能认识有限。”

他们两位业界巨头持截然相反的观点,很快便引发科技界争论,甚至学术界的专家也出来战队。这样的大新闻,媒体自然不会放过,Facebook AI项目也是趁上次的争论余热未消,引起了大家注意。

扎克伯格究竟有没有自己打脸?

雷锋网编辑告诉大家:并没有。

实际情况是这样的,Facebook人工智能研究院(FAIR)想要训练一个聊天机器人,让它学会和人谈判,于是他们人工智能系统开发了神经网络结构,这个结构叫做“生成式对抗网络”(Generative Adversarial Networks,简称GAN)。研究人员希望机器人可以带着“目的”和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,就是想让机器人拥有“意识”,明白它到底对这些东西有多想要,然后去和人谈判。

真相 | Facebook AI系统并未“失控”,研究员已修正bug

研究过程中,研究员突发奇想,想看看让两个机器人聊天,他们会聊什么,于是,就出现了网路上传播甚广的“机器人暗语”。

真相 | Facebook AI系统并未“失控”,研究员已修正bug

之所以会出现这段看似是英语,却用英语语法解释不通的对话,最后究其原因才发现,研究员在为系统设置激励条件时, 虽然告诉了它们“请用英文”,但忘了告诉它们“请用英文语法”。 换句话说,如果系统中编写针对英语语法的奖励机制,系统就会偏向于更符合英语语法的语言,也就不会出现现在这种情况。

说到底,这最多只能算是一个技术错误。Facebook并没有“关掉”这个系统,而是重新设定了正确的激励,修正了机器人的行为,修正的原因也不是因为害怕系统失控,而是因为这样的对话毫无意义,偏离了研究的最初目的。

雷锋网(公众号:雷锋网)AI科技评论

本文作者:杨文

本文转自雷锋网禁止二次转载,原文链接

相关文章
|
9天前
|
机器学习/深度学习 存储 人工智能
【AI系统】昇思MindSpore并行
本文介绍昇思MindSpore的并行训练技术,包括张量重排布、自动微分等,旨在简化并行策略搜索,提高大规模模型训练效率。文章探讨了大模型带来的挑战及现有框架的局限性,详细说明了MindSpore如何通过技术创新解决这些问题,实现高效的大模型训练。
58 20
【AI系统】昇思MindSpore并行
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
9天前
|
机器学习/深度学习 人工智能 分布式计算
【AI系统】混合并行
混合并行融合了数据并行、模型并行和流水线并行,旨在高效利用计算资源,尤其适合大规模深度学习模型训练。通过将模型和数据合理分配至多个设备,混合并行不仅提升了计算效率,还优化了内存使用,使得在有限的硬件条件下也能处理超大型模型。3D混合并行(DP+PP+TP)是最先进的形式,需至少8个GPU实现。此策略通过拓扑感知3D映射最大化计算效率,减少通信开销,是当前深度学习训练框架如Deepspeed和Colossal AI的核心技术之一。
55 15
【AI系统】混合并行
|
6天前
|
存储 人工智能 vr&ar
转载:【AI系统】CPU 基础
CPU,即中央处理器,是计算机的核心部件,负责执行指令和控制所有组件。本文从CPU的发展史入手,介绍了从ENIAC到现代CPU的演变,重点讲述了冯·诺依曼架构的形成及其对CPU设计的影响。文章还详细解析了CPU的基本构成,包括算术逻辑单元(ALU)、存储单元(MU)和控制单元(CU),以及它们如何协同工作完成指令的取指、解码、执行和写回过程。此外,文章探讨了CPU的局限性及并行处理架构的引入。
转载:【AI系统】CPU 基础
|
6天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
9天前
|
存储 人工智能 PyTorch
【AI系统】张量并行
在大模型训练中,单个设备难以满足需求,模型并行技术应运而生。其中,张量并行(Tensor Parallelism, TP)将模型内部的参数和计算任务拆分到不同设备上,特别适用于大规模模型。本文介绍了张量并行的基本概念、实现方法及其在矩阵乘法、Transformer、Embedding和Cross Entropy Loss等场景中的应用,以及通过PyTorch DeviceMesh实现TP的具体步骤。
43 11
【AI系统】张量并行
|
6天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
6天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】关键设计指标
本文介绍了AI芯片的关键设计指标及其与AI计算模式的关系,涵盖计算单位(如OPS、MACs、FLOPs)、关键性能指标(精度、吞吐量、时延、能耗、成本、易用性)及优化策略,通过算术强度和Roofline模型评估AI模型在芯片上的执行性能,旨在帮助理解AI芯片设计的核心考量与性能优化方法。
转载:【AI系统】关键设计指标
|
6天前
|
机器学习/深度学习 人工智能 并行计算
转载:【AI系统】AI轻量化与并行策略
本文探讨了AI计算模式对AI芯片设计的重要性,重点分析了轻量化网络模型和大模型分布式并行两大主题。轻量化网络模型通过减少模型参数量和计算量,实现在资源受限设备上的高效部署;大模型分布式并行则通过数据并行和模型并行技术,解决大模型训练中的算力和内存瓶颈,推动AI技术的进一步发展。
转载:【AI系统】AI轻量化与并行策略
|
9天前
|
存储 机器学习/深度学习 人工智能
【AI系统】完全分片数据并行 FSDP
本文深入探讨了AI框架中针对权重数据、优化器数据和梯度数据的分布式并行实现,特别是在PyTorch框架下的具体方案。文章首先回顾了通用数据并行和分布式数据并行的概念,重点讨论了同步与异步数据并行的差异。接着,文章详细介绍了如何在PyTorch中实现弹性数据并行,特别是完全分片数据并行(FSDP)的机制,包括其如何通过分片模型状态和剩余状态来减少内存消耗,提高训练效率。此外,文章还探讨了混合精度训练、损失缩放和内存消耗估算等关键技术,为理解和实施高效的分布式训练提供了全面的指导。
31 9
【AI系统】完全分片数据并行 FSDP