MIT新研究:AI仅靠看X光片就能准确识别患者种族,但没人知道为什么

简介: MIT新研究:AI仅靠看X光片就能准确识别患者种族,但没人知道为什么

图片.png

大数据文摘作品作者:Mickey 


人类对于某人是黑人、亚洲人还是白人的判断主要来自于某些外貌特征:皮肤、头发、眼睛这类外在体征,但是,如果仅从一个人的胸部X光片、肢体CT扫描和乳房X光片等影像资料,就能判断出他/她的种族,你相信吗? 


当然不,毕竟连最专业的医学影像专家都无法识别。不过最近,根据麻省理工学院的一项研究,经过训练的人工智能可以有效识别这些没有被标注的X光片的主人,到底是黑人、黄种人还是白人,准确率达到90%以上,即使这些图像是损坏、裁剪和噪声的医学影像,而这一点通常是临床专家无法做到的。


 并且,研究者们强调,这一识别结果不是由于某些已知与族裔相关的身体特征关联导致的(例如通过体重指数 [AUC 0·55]、疾病分布 [0·61] 和乳房密度 [ 0·61]等等)。 


这一研究结果目前发布在《柳叶刀数字健康(Lancet Digit Health)》上。

图片.png


AI能通过胸片识别患者种族?“我以为我的学生疯了”

 AI模型在医学影像识别领域的能力早已有目共睹,但是麻省理工这一研究之所以引发了极大的关注,一方面是由于其高精度识别率背后的原因仍是个“黑盒”,另一方面,研究者们也不得不担忧,人工智能是否早已经将“种族偏见”融入了人类从未想到的方方面面。 


在麻省理工的这一研究中,研究者们了使用私人(Emory CXR、Emory 胸部 CT、Emory 颈椎和 Emory 乳房 X 线照片)和公共(MIMIC-CXR、CheXpert、国家肺癌筛查试验、RSNA 肺栓塞 CT 和数字手部图谱)数据集。该团队发现被训练过的人工智能可以仅从这些医学图像中,高准确率地预测患者自我报告的种族。


 利用胸部 X 光片、肢体 X 光片、胸部 CT 扫描和乳房 X 光片的成像数据,该团队训练了一个深度学习模型来识别图像的主人是白人、黑人还是亚洲人——尽管这些图像本身并没有明确提及病人的种族。 

图片.png

  目前,即使是最有经验的医生也无法做到这一点,并且也尚不清楚该模型是如何做到的。


  “当我的研究生向我展示这篇论文中的一些结果时,我认为这肯定是一个错误,”麻省理工学院电气工程和计算机科学助理教授、该论文的合著者Marzyeh Ghassemi说,“我真的以为我的学生疯了。”


 为了梳理和弄清这一切的神奇的识别系统是如何实现的,研究人员进行了一系列实验。为了研究种族检测的可能机制,他们研究了诸如解剖结构差异、骨密度、图像分辨率等变量。但是,抛开这些变量后,AI仍然具有通过胸部 X 光检测种族的高能力。 


该团队尝试了很多方式,试图解释AI是如何识别的:不同种族群体之间身体特征的差异(体质、乳房密度)、疾病分布(之前的研究表明,黑人患者患心脏病等健康问题的几率更高) )、特定位置或特定组织的差异、社会偏见和环境压力的影响、深度学习系统在多种人口统计和患者因素结合时检测种族的能力,以及特定图像区域是否有助于识别种族。  


例如,骨密度测试使用的图像中,骨较厚的部分呈白色,较薄的部分呈灰色或半透明。科学家们认为,由于黑人通常具有较高的骨矿物质密度,因此颜色差异有助于人工智能模型检测种族。为了切断这一点,他们用过滤器调整了图像,这样模型就不会出现颜色差异。事实证明,调整影像颜色并没有扰乱模型——它仍然可以准确地预测种族。(“曲线下面积”值,即定量诊断测试准确性的衡量标准,为 0.94–0.96)。因此,模型的学习特征似乎依赖于图像的区域。


  “这些结果最初令人困惑,因为我们研究团队无法为这项任务找到一个好的解释,”Marzyeh Ghassemi 表示,“即使将这些医学图像调整到已经不能被称为医学图像的样子,深度模型的识别正确率仍能保持非常高的性能。” 


防不胜防的AI偏见

 但这一结果也令研究者们颇为忧虑。 


算法的错误训练会导致偏见,这一点毋庸置疑,而当人工智能反映了产生这些算法的人类的无意识思想、种族主义和偏见时,它可能会导致严重的伤害。

图片.png


 “这令人担忧,因为AI超人的能力通常更难以控制、规范和防止伤害他人。”


 在临床环境中,算法识别可以帮助医生判断患者是否适合化疗,决定患者的分类,或决定是否需要转入 ICU。“我们认为算法只关注生命体征或实验室测试,但这一研究结果表明,它们也有可能关注你的种族、民族、性别,即使所有这些信息都被隐藏了,”论文合著者、麻省理工学院 IMES 首席研究科学家、哈佛医学院医学副教授 Leo Anthony Celi 说。“仅仅因为你的算法中有不同群体的代表,这并不能保证它不会延续或放大现有的差异和不平等。为算法提供更多具有代表性的数据并不是万能的。


 以往在其他领域的相关案例数不胜数,例如,计算机程序错误地标记了黑人被告再次犯罪的可能性是白人被告的两倍。当人工智能使用成本作为健康需求的判断因素时,它会将黑人患者识别为比同样患病的白人患者更健康,这样可以使得花在他们身上的钱更少。自然语言处理中存在偏见的例子是无穷无尽的,甚至 AI 过去写剧本也依赖于使用有害的刻板印象来进行选角。

图片.png


 但麻省理工学院的科学家们的研究发现了另一种重要的、很大程度上未被充分探索的模式:医学图像。


 值得注意的是,Ghassemi 和 Celi 的其他研究成果还发现,模型还可以从临床记录中识别患者自我报告的种族,即使这些记录被删去了明确的种族指标,而人类专家也无法从相同的临床记录编辑中准确预测患者种族。


 “我们需要让社会科学家参与进来,只有是临床医生、公共卫生从业者、计算机科学家和工程师是不够的。医疗保健是一个社会文化问题,就像它是一个医学问题一样。我们需要另一组专家来权衡并就我们如何设计、开发、部署和评估这些算法提供意见和反馈,”Celi 说。


 “我们还需要询问数据科学家,在对数据进行任何探索之前,是否存在差异?哪些患者群体被边缘化?这些差异的驱动因素是什么?是否可以获得护理?是来自护理提供者的主观性吗?如果我们不理解这一点,我们将没有机会识别算法肯带来的意外后果。” 


“正如研究所展示,算法‘看到种族的事实可能很危险。但一个重要且相关的事实是,如果谨慎使用,算法也可以消除偏见,”加州大学伯克利分校副教授 Ziad Obermeyer 说,他的研究重点是人工智能应用于健康。“在我们自己的工作中,我们也发现从患者疼痛经历中学习的算法可以在 X 射线中发现新的膝关节疼痛源,这些源头对黑人患者的影响尤其严重,而放射科医师也严重忽视了这些原因。因此,就像任何工具一样,算法既可以是邪恶的力量,也可以是善良的力量——这取决于我们,以及我们在构建算法时所做的选择。”


素材来源:

https://news.mit.edu/2022/artificial-intelligence-predicts-patients-race-from-medical-images-0520

https://pubmed.ncbi.nlm.nih.gov/35568690/

相关文章
|
1月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
30 1
|
11天前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
34 12
|
10天前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
1月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
39 6
|
1月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
41 2
|
5天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
29 1
|
7天前
|
机器学习/深度学习 人工智能 算法
AI在医疗领域的应用与挑战
本文探讨了人工智能(AI)在医疗领域的应用,包括其在疾病诊断、治疗方案制定、患者管理等方面的优势和潜力。同时,也分析了AI在医疗领域面临的挑战,如数据隐私、伦理问题以及技术局限性等。通过对这些内容的深入分析,旨在为读者提供一个全面了解AI在医疗领域现状和未来发展的视角。
36 10
|
8天前
|
机器学习/深度学习 人工智能 监控
探索AI在医疗领域的应用与挑战
本文深入探讨了人工智能(AI)在医疗领域中的应用现状和面临的挑战。通过分析AI技术如何助力疾病诊断、治疗方案优化、患者管理等方面的创新实践,揭示了AI技术为医疗行业带来的变革潜力。同时,文章也指出了数据隐私、算法透明度、跨学科合作等关键问题,并对未来的发展趋势进行了展望。
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
【10月更文挑战第31天】2024年,AI大模型在软件开发领域的应用取得了显著进展,从自动化代码生成、智能代码审查到智能化测试,极大地提升了开发效率和代码质量。然而,技术挑战、伦理与安全问题以及模型可解释性仍是亟待解决的关键问题。开发者需不断学习和适应,以充分利用AI的优势。

热门文章

最新文章