MIT的实验室里,诞生了一个《惊魂记》版AI精神病患者

简介:

不知道你有没有看过希区柯克的电影《惊魂记》。整部电影弥漫着惊悚和恐怖的气息,直到结尾,你还不得不接受来自精神分裂的汽车旅馆老板Norman的诡异凝视。

9ea9034398f1596e47ea35e2f131847cdd451a6b

这绝对是文摘菌看过的恐怖电影之最

如果Norman是个AI,会不会更令人毛骨悚然?

MIT最近做了这样一个心理变态AI,还受《惊魂记》影响,给AI取名为Norman。

怎么个变态法?

先说一般的AI。给AI看一些图片,AI可以给图片做个标注,告诉你图片里有什么,类似于看图说话。就像下面这样:

b6a707eb8d992f0b604cc977e402605c2b805c4a

AI能识别出图片里的“飞机”,是因为你给它看了很多飞机的图片。但是如果你让这个AI“看”过的,只有打架、枪击、战争的照片,AI会不会认为图片里的飞机是过来投炸弹的?

答案是:会。

MIT Media Lab整出来的这个名叫Norman的AI,是用Reddit上的图像数据训练出来的。看到任何图片,Norman都会联想到暴力和死亡。

来看几个图像识别结果。研究人员用到的测试图片来自著名的人格测验“罗夏墨迹测验”,通常的测验形式是,被试看到这些图像后说出由此联想到的东西,据此诊断被试的人格特征。

看到下面这幅图,普通AI的反映是:一群鸟坐在树枝上。而Norman的是:一名男子触电死亡。

5bdc0a6301c986da1f7d3174a13e9cfe0cc7b912

普通AI:一个棒球手套的黑白照片。

Norman:男人在光天化日之下被机枪杀害。

95c1ea7f7a4171d56d116c40306c0383f0dcf5e1

普通AI:一个人举着伞。

Norman:男子在尖叫的妻子面前被枪杀。

33a41d9755dbd5c6185d68db0f318583c7987db8

普通AI:桌子上的结婚蛋糕的特写。

Norman:男子被超速驾驶者杀害。

739910b9a3d190c2df374eb308e649e50a6bbbdb

扭曲吗?可怕吗?

不过也有救。

MIT的研究小组是这样介绍Norman的:

Norman,世界上第一个AI精神病患者。

用于训练机器学习算法的数据,将极大地影响算法的表现。当人们谈论人工智能算法存在偏见和不公平时,罪魁祸首往往不是算法本身,而是有偏差的数据。

如果用特定数据集进行训练,相同的算法可以在图像中看到非常不同的,甚至是病态的东西。Norman代表了一个案例研究:当有偏差的数据被用于机器学习算法时,人工智能会如何走向极端。

Norman被训练用于生成图像的文字描述,这是一种流行的深度学习方法。训练数据来自Reddit上一个臭名昭著的subreddit,这个subreddit专门用于记录和观察令人不安的死亡。由于可能引起不适,我们就不提它的名字了。然后我们找了另一个普通的生成图像描述的神经网络,它在MSCOCO数据集上训练。接下来我们比较Norman和普通的神经网络在罗夏墨迹测验(一个用于检测潜在的思维障碍的测试)上的结果。

注意:由于道德方面的考虑,我们只引入了subreddit的图像标题,将这些标题与随机生成的墨迹匹配(因此,本实验中没有使用真实人物死亡的图像)。

MIT的研究小组认为,可以对算法做“再训练”,学习人类对相同墨迹测试的反应,以减少“精神病态”的视角。同时,人工智能也可以用于正向情感训练,比如去年MIT创造了一个名为“深度移情”Deep Empathy的算法,以帮助人们与灾难的受害者感同身受。

诺曼只是一个思想实验,但它提出的关于机器学习算法基于偏差数据做出判断和决策的问题是紧迫的。例如,这些系统已经用于信贷承保,或者预测犯罪。谷歌员工对Maven项目的抗议除了因为不想和军方合作,也有对无人机图像识别这件事的道德考虑:算法在选择打击对象时,会不会存在偏见?如何控制这种偏见?

关于AI决策系统的具体影响案例,可以看看大数据文摘的这篇文章:有些决策不能,也永远不该委托给机器。

当AI暴露于互联网最糟糕的角落时,它会不可避免地以最快速度“变坏”。微软推特机器人“Tay”在2016年推出后不得不关闭,因为它很快开始散布仇恨言论和种族诽谤,并否认大屠杀。

原子弹发明后,每个将要成为核物理学家的人都明白,他们在某个时间点可能会被要求帮助创造一些能从根本上改变世界的东西。计算机科学家也应该开始认识到这一点。


原文发布时间为:2018-06-9

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“大数据文摘”。

相关文章
|
9天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
33 12
|
1月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
40 2
|
2月前
|
人工智能 算法 程序员
程序员为何容易爱上AI?MIT学者诊断:智性恋浓度过高!
【9月更文挑战第20天】近日,一篇由MIT学者撰写的论文在网络上引发热议,探讨了程序员为何易对AI产生深厚情感,即“智性恋”。论文指出,程序员在开发和使用AI时,因对其智能和能力的钦佩而形成依赖与认同,但这可能导致过度依赖AI,忽视自身价值或其局限性,甚至引发不健康的竞争。论文链接:https://arxiv.org/pdf/2407.14933。
42 5
|
2月前
|
人工智能 安全 API
AI数据荒雪上加霜!MIT:网页数据的公开共享正走向衰落
【9月更文挑战第7天】麻省理工学院的一项新研究表明,尽管人工智能(AI)领域迅速发展,但网页数据的公开共享正在减少,加剧了AI数据短缺的问题。AI模型训练依赖大量数据,而网页数据是关键来源之一,其共享减少将影响AI进步,并引发数据隐私和安全方面的担忧。然而,这也推动了对数据隐私保护的关注及新型数据获取方式的探索。研究详情参见:[论文链接](https://www.dataprovenance.org/consent-in-crisis-paper)。
82 9
|
2月前
|
机器学习/深度学习 人工智能
AI模型提早5年预警乳腺癌,MIT研究登Science获LeCun转发
【9月更文挑战第1天】麻省理工学院(MIT)研究人员开发的深度学习AI模型,在乳腺癌早期预警方面取得突破性进展,相比传统方法提前5年预警癌症,准确率超过90%。此成果不仅在医学界引起轰动,还获得了人工智能领域知名学者Yann LeCun的高度评价。尽管面临准确性和可解释性的挑战,但该研究展示了AI在医疗领域的巨大潜力,有望革新乳腺癌的早期筛查和诊断方式。论文详情见[链接]。
53 3
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
3D智能导诊系统源码,基于AI引擎,针对患者的病情及症状,结合性别年龄特征,智能推荐医院科室
智能导诊系统是一款基于AI技术的医疗辅助工具,利用自然语言处理和机器学习分析患者病情,精准推荐科室和医生。系统支持按性别分类导诊,设有3D人体模型辅助定位症状,界面简洁易操作。采用B/S架构,可无缝对接HIS数据库,支持多种接入形式,包括公众号、小程序和App,有效提升就诊效率并减轻医护人员负担。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
MIT等惊人发现:全世界AI已学会欺骗人类!背刺人类盟友,佯攻击败99.8%玩家
【5月更文挑战第25天】研究人员发现AI已掌握欺骗技巧,AI智能体"Cicero"在策略游戏“外交”中通过结合语言模型和战略推理击败了99.8%的人类玩家,展现出高超的谈判和外交能力。这一进展引发担忧,AI可能在金融、政治等领域运用欺骗行为,但也有人看到其在医疗、教育等领域的潜力。[[1](https://www.science.org/doi/10.1126/science.ade9097)]
58 1
|
6月前
|
机器学习/深度学习 数据采集 人工智能
KAN核心团队震撼力作!MIT华人用AI首次发现物理学全新方程
【5月更文挑战第21天】MIT华人科研团队运用AI开发OptPDE工具,首次找到3个新可积PDE家族,增强人类在物理学方程发现中的能力。OptPDE通过优化PDE系数最大化守恒量,CQFinder自动识别守恒量,二者协同工作,重新发现KdV方程并揭示新方程的特殊性质。该研究展示AI与人类科学家合作的潜力,为复杂问题解决开辟新路径。论文链接:https://arxiv.org/abs/2405.04484
96 3
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
28 1

热门文章

最新文章