MIT的实验室里,诞生了一个《惊魂记》版AI精神病患者

简介:

不知道你有没有看过希区柯克的电影《惊魂记》。整部电影弥漫着惊悚和恐怖的气息,直到结尾,你还不得不接受来自精神分裂的汽车旅馆老板Norman的诡异凝视。

9ea9034398f1596e47ea35e2f131847cdd451a6b

这绝对是文摘菌看过的恐怖电影之最

如果Norman是个AI,会不会更令人毛骨悚然?

MIT最近做了这样一个心理变态AI,还受《惊魂记》影响,给AI取名为Norman。

怎么个变态法?

先说一般的AI。给AI看一些图片,AI可以给图片做个标注,告诉你图片里有什么,类似于看图说话。就像下面这样:

b6a707eb8d992f0b604cc977e402605c2b805c4a

AI能识别出图片里的“飞机”,是因为你给它看了很多飞机的图片。但是如果你让这个AI“看”过的,只有打架、枪击、战争的照片,AI会不会认为图片里的飞机是过来投炸弹的?

答案是:会。

MIT Media Lab整出来的这个名叫Norman的AI,是用Reddit上的图像数据训练出来的。看到任何图片,Norman都会联想到暴力和死亡。

来看几个图像识别结果。研究人员用到的测试图片来自著名的人格测验“罗夏墨迹测验”,通常的测验形式是,被试看到这些图像后说出由此联想到的东西,据此诊断被试的人格特征。

看到下面这幅图,普通AI的反映是:一群鸟坐在树枝上。而Norman的是:一名男子触电死亡。

5bdc0a6301c986da1f7d3174a13e9cfe0cc7b912

普通AI:一个棒球手套的黑白照片。

Norman:男人在光天化日之下被机枪杀害。

95c1ea7f7a4171d56d116c40306c0383f0dcf5e1

普通AI:一个人举着伞。

Norman:男子在尖叫的妻子面前被枪杀。

33a41d9755dbd5c6185d68db0f318583c7987db8

普通AI:桌子上的结婚蛋糕的特写。

Norman:男子被超速驾驶者杀害。

739910b9a3d190c2df374eb308e649e50a6bbbdb

扭曲吗?可怕吗?

不过也有救。

MIT的研究小组是这样介绍Norman的:

Norman,世界上第一个AI精神病患者。

用于训练机器学习算法的数据,将极大地影响算法的表现。当人们谈论人工智能算法存在偏见和不公平时,罪魁祸首往往不是算法本身,而是有偏差的数据。

如果用特定数据集进行训练,相同的算法可以在图像中看到非常不同的,甚至是病态的东西。Norman代表了一个案例研究:当有偏差的数据被用于机器学习算法时,人工智能会如何走向极端。

Norman被训练用于生成图像的文字描述,这是一种流行的深度学习方法。训练数据来自Reddit上一个臭名昭著的subreddit,这个subreddit专门用于记录和观察令人不安的死亡。由于可能引起不适,我们就不提它的名字了。然后我们找了另一个普通的生成图像描述的神经网络,它在MSCOCO数据集上训练。接下来我们比较Norman和普通的神经网络在罗夏墨迹测验(一个用于检测潜在的思维障碍的测试)上的结果。

注意:由于道德方面的考虑,我们只引入了subreddit的图像标题,将这些标题与随机生成的墨迹匹配(因此,本实验中没有使用真实人物死亡的图像)。

MIT的研究小组认为,可以对算法做“再训练”,学习人类对相同墨迹测试的反应,以减少“精神病态”的视角。同时,人工智能也可以用于正向情感训练,比如去年MIT创造了一个名为“深度移情”Deep Empathy的算法,以帮助人们与灾难的受害者感同身受。

诺曼只是一个思想实验,但它提出的关于机器学习算法基于偏差数据做出判断和决策的问题是紧迫的。例如,这些系统已经用于信贷承保,或者预测犯罪。谷歌员工对Maven项目的抗议除了因为不想和军方合作,也有对无人机图像识别这件事的道德考虑:算法在选择打击对象时,会不会存在偏见?如何控制这种偏见?

关于AI决策系统的具体影响案例,可以看看大数据文摘的这篇文章:有些决策不能,也永远不该委托给机器。

当AI暴露于互联网最糟糕的角落时,它会不可避免地以最快速度“变坏”。微软推特机器人“Tay”在2016年推出后不得不关闭,因为它很快开始散布仇恨言论和种族诽谤,并否认大屠杀。

原子弹发明后,每个将要成为核物理学家的人都明白,他们在某个时间点可能会被要求帮助创造一些能从根本上改变世界的东西。计算机科学家也应该开始认识到这一点。


原文发布时间为:2018-06-9

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“大数据文摘”。

相关文章
|
7天前
|
机器学习/深度学习 人工智能 算法
PRefLexOR:MIT自进化AI框架上线!动态知识图谱+跨域推理,重塑自主思考
PRefLexOR 是 MIT 团队推出的新型自学习 AI 框架,结合偏好优化和强化学习,通过递归推理和多步反思,动态生成知识图谱,支持跨领域推理和自主学习。
82 3
PRefLexOR:MIT自进化AI框架上线!动态知识图谱+跨域推理,重塑自主思考
|
2天前
|
人工智能
MIT 76页深度报告:AI加速创新马太效应,科学家产出分化加剧!缺乏判断力将被淘汰
近日,麻省理工学院(MIT)发布了一份76页的深度研究报告,探讨AI对科学发现和创新的影响。研究对象为1018名美国科学家,结果显示AI使新材料发现增加44%,专利申请增长39%,产品创新提升17%。然而,AI对高能力科学家的产出提升更显著,加剧了科学家间的分化。AI还改变了科学家的工作内容,减少了创意构思时间,增加了评估任务,导致工作满意度下降,但科学家对AI的信心增强。报告全面分析了AI带来的机遇与挑战。论文地址:https://conference.nber.org/conf_papers/f210475.pdf
28 14
|
26天前
|
机器学习/深度学习 人工智能 算法
ProtGPS:MIT再造生命科学新基建!蛋白质AI一键预测定位+设计新序列,登Nature子刊
ProtGPS 是麻省理工学院和怀特黑德研究所联合开发的蛋白质语言模型,能够预测蛋白质在细胞内的亚细胞定位,并设计具有特定亚细胞定位的新型蛋白质。
89 17
ProtGPS:MIT再造生命科学新基建!蛋白质AI一键预测定位+设计新序列,登Nature子刊
|
3月前
|
机器学习/深度学习 人工智能 算法
UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪
近日,加州大学洛杉矶分校和麻省理工学院的数学家团队成功推翻了存在39年的“上下铺猜想”(Bunkbed Conjecture),该猜想由1985年提出,涉及图论中顶点路径问题。尽管AI在研究中发挥了重要作用,但最终未能完成证明。人类数学家通过深入分析与创新思维,找到了推翻猜想的关键证据,展示了人类智慧在数学证明中的不可替代性。成果发表于arXiv,引发了关于AI在数学领域作用的广泛讨论。
177 89
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Baichuan-M1-14B:AI 助力医疗推理,为患者提供专业的建议!百川智能开源业内首个医疗增强大模型,普及医学的新渠道!
Baichuan-M1-14B 是百川智能推出的首个开源医疗增强大模型,专为医疗场景优化,支持多语言、快速推理,具备强大的医疗推理能力和通用能力。
267 17
Baichuan-M1-14B:AI 助力医疗推理,为患者提供专业的建议!百川智能开源业内首个医疗增强大模型,普及医学的新渠道!
|
1月前
|
人工智能
科技赋能妇产医疗,钉钉联合打造小红 AI 患者助理
复旦大学附属妇产科医院与钉钉共同打造的 AI 助理“小红”上线。“小红”孵化于钉钉智能化底座,通过学习复旦大学附属妇产科医院的 400 多篇科普知识,涵盖妇科疾病宣教、专业产科指导、女性健康保健等问题,能够为患者提供妇科疾病、产科指导、女性健康保健等知识的专业解答。
91 10
|
1月前
|
存储 人工智能
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
哈佛大学和麻省理工学院的研究人员最近发布了一项重磅研究,对Scaling Law在低精度量化中的应用提出严重质疑。研究表明,随着训练数据增加,低精度量化带来的性能损失也增大,且与模型大小无关。这挑战了通过增加规模提升性能的传统观点,提醒我们在追求效率时不能忽视性能损失。该研究结果在AI圈内引发广泛讨论,提示未来需探索其他方法来提高模型效率,如混合精度训练、模型压缩及新型硬件架构。论文地址:https://arxiv.org/pdf/2411.04330。
61 11
|
12天前
|
人工智能 自然语言处理 测试技术
阿里云通义实验室自然语言处理方向负责人黄非:通义灵码2.0,迈入 Agentic AI
阿里云通义实验室自然语言处理方向负责人黄非:通义灵码2.0,迈入 Agentic AI
|
2月前
|
人工智能 自然语言处理 测试技术
阿里云通义实验室自然语言处理方向负责人黄非:通义灵码2.0,迈入 Agentic AI
在通义灵码 2.0 发布会上,阿里云通义实验室自然语言处理方向负责人黄非分享了代码大模型的演进。过去一年来,随着大模型技术的发展,特别是智能体技术的深入应用,通义灵码也在智能体的基础上研发了针对于整个软件研发流程的不同任务的智能体,这里既包括单智能体,也包括多智能体合并框架,在这样的基础上我们研发了通义灵码2.0。
223 21

热门文章

最新文章