三位女科学家联手,用AI算法将乳腺癌的筛查速度提高了100倍

简介:

最近美国癌症协会一份报告预计,美国今年约有40000名女性死于乳腺癌。造成该结果的原因之一,是诊断癌症肿瘤所需的时间太长——对此,研究人员们一直强调改进癌症的检测和预防,如果疾病在治愈率较高的早期阶段就被发现,往往能挽救更多生命。

现在,一个由麻省理工学院计算机科学与人工智能实验室(MIT’s Computer Science and Artificial Intelligence Laboratory,CSAIL)、马萨诸塞州总医院(Massachusetts General Hospital)和哈佛医学院(Harvard Medical School)科学家们组成的团队认为,AI技术可以解决这个难题。

三位女科学家联手,用AI算法将乳腺癌的分析速度提高了100倍

从左至右:马萨诸塞州总医院乳腺成像研究项目主任Manisha Bahl,麻省理工学院教授Regina Barzilay,哈佛医学院教授及马萨诸塞州总医院放射科的乳腺成像科主任Constance Lehman

用AI排查乳腺癌,可以避免手术“一刀切”

目前,乳腺X射线检查(Mammograms)是乳腺癌的最佳诊断工具——从X光片上看到可疑的病变组织之后,需要对患者进行针刺活检以检测是否患癌。

然而,这一工具总会存在风险,譬如误诊。当尝试提高可以识别的癌症数量时,“假阳性”的结果也会增加,导致患者进行不必要的活检和手术。

也就是说,“假阳性”的一个常见原因是所谓的“高风险”病变,当通过针刺活检进行测试时,这些病变在乳腺X射线照片上看起来很可疑,并且具有异常细胞。这种情况下,医生通常采取不同的措施:有些医生对所有的”高危病变“都进行手术去除,有些则对“较高癌症发生率的病变”进行手术,例如“非典型乳管增生”(ADH)或“小叶原位癌”(LCIS)。

第一种方法要求患者经历痛苦、耗时且昂贵的手术,甚至有些手术毫无必要;第二种方法也存在不精确的情况,可能导致ADH和LCIS以外的“高风险病变”成为漏网之“癌”。

三位女科学家联手,用AI算法将乳腺癌的分析速度提高了100倍

图:乳腺X射线检查仪

那么如何避免不必要的手术,同时仍然保持乳腺X射线检查的重要作用?

开篇所提到的三位女科学家团队,联手开发了一套机器学习模型,被称为“随机森林分类器(random-forest classifier)”的方法,并让它接受了600个高风险病灶的分析训练。

在综合了家族遗传史、人口统计、以及过往的组织活检和病理报告等信息之后,该模型对 335 个病灶(最终升级为癌症的病患)进行了测试,结果准确诊断了97%的乳腺癌是恶性肿瘤,而传统方法仅为79%。

这项研究的结论是:在将该机器学习模型引入常规诊断实践后,超过30%的良性病灶切除术是可以避免的。

同时。该技术的工作速度比乳腺X射线检查快30倍——据估计,医生需要50-70个小时来分析50名乳腺癌患者,而该技术只需要约30分钟,相当于提高了100倍。

三位女科学家联手,用AI算法将乳腺癌的分析速度提高了100倍

图:数字化乳腺X射线检查

这一系统或许能替代传统的乳腺X射线片子,帮助女性做出明智的决定,采取最好的治疗方法。

Regina Barzilay是麻省理工学院电子工程与计算机科学教授,同时也是一名乳腺癌幸存者,她认:“当数据有这么多的不确定性时,机器学习就是我们需要的、用于改进检测和防止过度治疗的工具,这是一个趋势。”

哈佛医学院教授及马萨诸塞州总医院放射科的乳腺成像科主任Constance Lehman是这个项目的参与者之一。她强调,“据我们所知,这是第一个将机器学习应用于区分需要进行手术的高风险病变和不需要进行手术的高风险病变的研究。”

Lehman介绍,过去,医生可能会建议所有高风险的病变都要进行手术切除。但现在,如果该模型确定病变对特定患者来说的癌变机率很低,我们可以与病人就她的选择采取更有针对性的医疗方法。

她还透露,马萨诸塞州总医院放射科的医生将从明年开始将该模型纳入其临床实践。

马萨诸塞州总医院乳腺成像研究项目主任Manisha Bahl也支持这种看法,她表示,她们的目标是在临床环境中应用该工具。未来,他们希望将乳腺X射线照片、病理幻灯片图像( images of the pathology slides)、以及医疗记录中更广泛的患者信息结合,从而将该模型发展成为适用于其他类型的癌症甚至完全是其他类型的疾病。

Debashish Ghosh则认为,尽管人工智能技术很强,但是更适合美国而不是英国,因为统计显示在英国只有不到5%的患者接受了乳腺癌手术,而在美国这一比例是30%,说明英国患者本就有自己的选择。

有关这项研究的详情,已经发表在近日出版的《放射学》(Radiology)期刊上。


原文发布时间为: 2017年10月23日

本文作者:周雅

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关文章
|
1月前
|
传感器 人工智能 监控
智慧工地 AI 算法方案
智慧工地AI算法方案通过集成多种AI算法,实现对工地现场的全方位安全监控、精准质量检测和智能进度管理。该方案涵盖平台层、展现层与应用层、基础层,利用AI技术提升工地管理的效率和安全性,减少人工巡检成本,提高施工质量和进度管理的准确性。方案具备算法精准高效、系统集成度高、可扩展性强和成本效益显著等优势,适用于人员安全管理、施工质量监控和施工进度管理等多个场景。
|
1月前
|
传感器 人工智能 监控
智慧电厂AI算法方案
智慧电厂AI算法方案通过深度学习和机器学习技术,实现设备故障预测、发电运行优化、安全监控和环保管理。方案涵盖平台层、展现层、应用层和基础层,具备精准诊断、智能优化、全方位监控等优势,助力电厂提升效率、降低成本、保障安全和环保合规。
智慧电厂AI算法方案
|
20天前
|
机器学习/深度学习 缓存 人工智能
【AI系统】QNNPack 算法
QNNPACK是Marat Dukhan开发的量化神经网络计算加速库,专为移动端优化,性能卓越。本文介绍QNNPACK的实现,包括间接卷积算法、内存重排和间接缓冲区等关键技术,有效解决了传统Im2Col+GEMM方法存在的空间消耗大、缓存效率低等问题,显著提升了量化神经网络的计算效率。
32 6
【AI系统】QNNPack 算法
|
20天前
|
存储 人工智能 缓存
【AI系统】Im2Col 算法
Caffe 作为早期的 AI 框架,采用 Im2Col 方法优化卷积计算。Im2Col 将卷积操作转换为矩阵乘法,通过将输入数据重排为连续内存中的矩阵,减少内存访问次数,提高计算效率。该方法首先将输入图像转换为矩阵,然后利用 GEMM 库加速计算,最后将结果转换回原格式。这种方式显著提升了卷积计算的速度,尤其适用于通道数较多的卷积层。
45 5
【AI系统】Im2Col 算法
|
20天前
|
存储 机器学习/深度学习 人工智能
【AI系统】Winograd 算法
本文详细介绍Winograd优化算法,该算法通过增加加法操作来减少乘法操作,从而加速卷积计算。文章首先回顾Im2Col技术和空间组合优化,然后深入讲解Winograd算法原理及其在一维和二维卷积中的应用,最后讨论算法的局限性和实现步骤。Winograd算法在特定卷积参数下表现优异,但其应用范围受限。
30 2
【AI系统】Winograd 算法
|
8天前
|
人工智能 算法
AI+脱口秀,笑点能靠算法创造吗
脱口秀是一种通过幽默诙谐的语言、夸张的表情与动作引发观众笑声的表演艺术。每位演员独具风格,内容涵盖个人情感、家庭琐事及社会热点。尽管我尝试用AI生成脱口秀段子,但AI缺乏真实的情感共鸣和即兴创作能力,生成的内容显得不够自然生动,难以触及人心深处的笑点。例如,AI生成的段子虽然流畅,却少了那份不期而遇的惊喜和激情,无法真正打动观众。 简介:脱口秀是通过幽默语言和夸张表演引发笑声的艺术形式,AI生成的段子虽流畅但缺乏情感共鸣和即兴创作力,难以达到真人表演的效果。
|
28天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
1月前
|
机器学习/深度学习 传感器 人工智能
智慧无人机AI算法方案
智慧无人机AI算法方案通过集成先进的AI技术和多传感器融合,实现了无人机的自主飞行、智能避障、高效数据处理及多机协同作业,显著提升了无人机在复杂环境下的作业能力和安全性。该方案广泛应用于航拍测绘、巡检监测、应急救援和物流配送等领域,能够有效降低人工成本,提高任务执行效率和数据处理速度。
智慧无人机AI算法方案
|
24天前
|
存储 人工智能 缓存
【AI系统】布局转换原理与算法
数据布局转换技术通过优化内存中数据的排布,提升程序执行效率,特别是对于缓存性能的影响显著。本文介绍了数据在内存中的排布方式,包括内存对齐、大小端存储等概念,并详细探讨了张量数据在内存中的排布,如行优先与列优先排布,以及在深度学习中常见的NCHW与NHWC两种数据布局方式。这些布局方式的选择直接影响到程序的性能,尤其是在GPU和CPU上的表现。此外,还讨论了连续与非连续张量的概念及其对性能的影响。
46 3
|
23天前
|
机器学习/深度学习 人工智能 算法
【AI系统】内存分配算法
本文探讨了AI编译器前端优化中的内存分配问题,涵盖模型与硬件内存的发展、内存划分及其优化算法。文章首先分析了神经网络模型对NPU内存需求的增长趋势,随后详细介绍了静态与动态内存的概念及其实现方式,最后重点讨论了几种节省内存的算法,如空间换内存、计算换内存、模型压缩和内存复用等,旨在提高内存使用效率,减少碎片化,提升模型训练和推理的性能。
44 1

热门文章

最新文章