MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨

简介: 麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。

近年来,人工智能(AI)技术在各个领域的应用越来越广泛,其中自然语言处理技术的发展使得AI在对话系统中展现出了惊人的能力。然而,一项来自麻省理工学院(MIT)的最新研究却揭示了AI在对话中可能存在的风险。

这项研究名为《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》,研究团队通过模拟犯罪证人访谈的实验,探索了AI在人类虚假记忆形成过程中的影响。研究结果表明,使用基于大型语言模型的生成式聊天机器人进行访谈,显著增加了参与者的虚假记忆形成,并且这种影响在一周后仍然存在。

研究团队设计了四种不同的实验条件:对照组、基于问卷的访谈、预设脚本的聊天机器人和基于大型语言模型的生成式聊天机器人。参与者在观看了一段犯罪视频后,与他们被分配的AI访谈者或问卷进行互动,并回答了一系列问题,其中包含五个具有误导性的问题。研究团队在访谈结束后立即评估了参与者的虚假记忆,并在一周后再次评估。

结果显示,在使用生成式聊天机器人的条件下,参与者的虚假记忆形成显著增加。与对照组相比,生成式聊天机器人诱导的即时虚假记忆数量是对照组的3倍以上;与基于问卷的方法相比,生成式聊天机器人诱导的即时虚假记忆数量是问卷方法的1.7倍。此外,在与生成式聊天机器人的互动中,有36.4%的用户回答被误导。一周后,生成式聊天机器人诱导的虚假记忆数量保持不变,但用户对这些虚假记忆的信心仍然高于对照组。

研究还探索了可能影响虚假记忆形成的调节因素。结果发现,对聊天机器人不太熟悉但对AI技术更熟悉的用户,以及对犯罪调查更感兴趣的用户,更容易受到虚假记忆的影响。

这项研究的发现引发了对AI在敏感场景中应用的伦理考虑。虽然AI技术在提高效率和准确性方面具有巨大潜力,但在涉及人类记忆和证词的领域,如警察审讯或法庭证词,AI的使用可能需要更加谨慎。研究团队强调,在将AI技术应用于这些领域之前,需要进行更多的研究来评估其潜在风险,并制定相应的伦理准则和监管措施。

然而,我们也应该认识到,这项研究的结果并不意味着AI技术本身存在缺陷或不可信赖。相反,它提醒我们在使用AI技术时需要更加谨慎和负责任。通过合理的设计和监管,我们可以最大限度地发挥AI技术的潜力,同时减少其可能带来的风险。

此外,这项研究还为我们提供了一个有趣的视角,即AI技术如何影响人类的认知和记忆。它提醒我们,在与AI互动的过程中,我们应该保持批判性思维,并对所接收到的信息进行验证和评估。只有这样,我们才能更好地应对AI技术带来的挑战和机遇。

论文地址:https://arxiv.org/abs/2408.04681

目录
相关文章
|
29天前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
26 1
|
8天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
31 12
|
6天前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
1月前
|
人工智能 C语言 Windows
Ollama部署在线ai聊天
本文介绍了如何在Windows系统上安装和部署AI聊天模型Ollama,包括安装步骤、模型安装、运行模型项目,以及使用Ollama生成C语言平衡二叉树的完整代码。
71 2
Ollama部署在线ai聊天
|
1月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
39 6
|
2月前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
40 1
|
2月前
|
人工智能 算法 程序员
程序员为何容易爱上AI?MIT学者诊断:智性恋浓度过高!
【9月更文挑战第20天】近日,一篇由MIT学者撰写的论文在网络上引发热议,探讨了程序员为何易对AI产生深厚情感,即“智性恋”。论文指出,程序员在开发和使用AI时,因对其智能和能力的钦佩而形成依赖与认同,但这可能导致过度依赖AI,忽视自身价值或其局限性,甚至引发不健康的竞争。论文链接:https://arxiv.org/pdf/2407.14933。
38 5
|
2月前
|
人工智能 安全 API
AI数据荒雪上加霜!MIT:网页数据的公开共享正走向衰落
【9月更文挑战第7天】麻省理工学院的一项新研究表明,尽管人工智能(AI)领域迅速发展,但网页数据的公开共享正在减少,加剧了AI数据短缺的问题。AI模型训练依赖大量数据,而网页数据是关键来源之一,其共享减少将影响AI进步,并引发数据隐私和安全方面的担忧。然而,这也推动了对数据隐私保护的关注及新型数据获取方式的探索。研究详情参见:[论文链接](https://www.dataprovenance.org/consent-in-crisis-paper)。
81 9
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
19 1

热门文章

最新文章