Nature子刊:AI算法破解癌细胞基因特征,准确率可达99%!

简介: Nature子刊:AI算法破解癌细胞基因特征,准确率可达99%!
【新智元导读】近日,一项由MDC生物信息学家Altuna Akalin团队开发的机器学习算法「Ikarus」破解了癌细胞的基因特征,准确率最高可达99%。


AI又立功了。

 

这次一项新的AI机器学习算法「Ikarus」,可破解癌细胞和正常细胞的基因特征差别。

 

这项研究由MDC生物信息学家Altuna Akalin团队完成,并发表在Nature子刊「Genome Biology」上。

 

论文地址:https://genomebiology.biomedcentral.com/articles/10.1186/s13059-022-02683-1#Sec8

 

此外,负责本次研究的机构MDC(Max Delbrück center)还是德国四大研究机构之一的亥姆霍兹联合会的16个研究中心之一。

 

 

既然这么大来头,那这份研究为啥重磅?

 

从浩如烟海的数据集里筛选出一种「共通的特征」,人类肯定比不上AI。

 

而要将癌细胞和正常细胞区分开来,就需要筛选出它们之间的共通特征。

 

这次MDC的研究团队开发的Ikarus发现了肿瘤细胞中的共通模式(Pattern),它由一系列基因组特征组成,并且常见于各种类型的癌症。

 

此外,算法还检测到了从未和癌症挂钩的基因种类。

 

于是研究团队提出了一个简单的问题:

是否有可能制作一个分类器,将肿瘤细胞与多种癌症类型的正常细胞正确区分开来?

 

于是就有了Ikarus的诞生。它包括两个步骤:

1、通过整合多个经过专业注释的单细胞数据集,以基因集的形式发现全面的肿瘤细胞特征;


2、训练稳健的逻辑回归分类器以严格区分肿瘤和正常细胞,然后使用定制的细胞-细胞网络进行细胞标签的基于网络的传播。

 

团队负责人Altuna Akalin说:

为开发一种强大、灵敏和可重复的计算机肿瘤细胞分选仪,我们已经在使用不同测序技术获得的各种癌症类型的多个单细胞数据集上测试了Ikarus,以确定它适用于不同实验环境。

 

 

惊人的成功率

该论文的第一作者Jan Dohmen表示,在专家已经清楚地区分健康细胞和癌细胞的情况下,获得合适的训练数据是一项重大挑战。

 

单细胞测序数据集通常很冗杂。

 

这意味着它们包含的关于单个细胞分子特征的信息不是很精确,因为在每个细胞中检测到不同数量的基因,或者因为样本的处理方式并不总是相同。

 

Dohmen和该研究的联合负责人Vedran Franke博士说,

我们筛选了无数出版物并联系了相当多的研究小组,以获得足够的数据集。团队最终选择来自肺癌和结直肠癌细胞的数据来训练算法,然后再将其应用于其他类型肿瘤的数据集。

 

在训练阶段,Ikarus必须找到一个「特征基因列表」,然后将其用于对细胞进行分类。

 

 

我们尝试并改进了各种方法,Ikarus最终使用两个列表:一个用于癌症基因,另一个用于来自其他细胞的基因,弗兰克解释道。

 

经过训练之后,该算法就能够区分其他类型癌症中的健康细胞和肿瘤细胞,例如来自肝癌或神经母细胞瘤患者的组织样本。

 

而在其他样本中的结果令人雀跃,成功率出奇地高,最高可达99%。

 

 

「我们没想到会有一个共同的特征可以如此精确地定义不同类型癌症的肿瘤细胞」,Akalin说。

 

「但我们仍然不能说这种方法是否适用于所有类型的癌症」,Dohmen补充道。

 

不只是癌细胞区分


为了将Ikarus变成一种可靠的癌症诊断工具,研究人员现在希望在其他类型的肿瘤上对其进行测试。

 

在最初的测试中,Ikarus已证明该方法还可以将其他类型(和某些亚型)的细胞与肿瘤细胞区分开来,不仅限于肿瘤细胞检测

 

 

它可用于检测任何细胞状态,例如细胞类型,唯一的要求是细胞状态至少存在于两个独立的实验中。

 

Akalin说:

我们希望使这种方法更加全面,进一步发展它,以便它可以区分活检中所有可能的细胞类型。

 

在空间测序数据集上应用自动肿瘤分类可以直接注释组织学样本,从而促进自动化数字病理学。

 

在医院,病理学家往往只在显微镜下检查肿瘤的组织样本,以识别各种细胞类型。这是一项费时费力的工作。

 

 

有了Ikarus,这一步骤有朝一日可能成为一个完全自动化的过程。

 

此外,Akalin指出,这些数据可用于得出有关肿瘤直接环境的结论。这可以帮助医生选择最好的疗法。对于癌组织和微环境的构成,通常表明某种治疗或药物是否有效。

 

此外,人工智能也可能有助于开发新的药物。

 

「Ikarus让我们能够识别出可能导致癌症的基因,然后可以使用新的治疗剂来靶向这些分子结构」Akalin说。

相关文章
|
12天前
|
人工智能 编解码 算法
DeepSeek加持的通义灵码2.0 AI程序员实战案例:助力嵌入式开发中的算法生成革新
本文介绍了通义灵码2.0 AI程序员在嵌入式开发中的实战应用。通过安装VS Code插件并登录阿里云账号,用户可切换至DeepSeek V3模型,利用其强大的代码生成能力。实战案例中,AI程序员根据自然语言描述快速生成了C语言的base64编解码算法,包括源代码、头文件、测试代码和CMake编译脚本。即使在编译错误和需求迭代的情况下,AI程序员也能迅速分析问题并修复代码,最终成功实现功能。作者认为,通义灵码2.0显著提升了开发效率,打破了编程语言限制,是AI编程从辅助工具向工程级协同开发转变的重要标志,值得开发者广泛使用。
7862 67
DeepSeek加持的通义灵码2.0 AI程序员实战案例:助力嵌入式开发中的算法生成革新
|
20天前
|
机器学习/深度学习 人工智能 算法
ProtGPS:MIT再造生命科学新基建!蛋白质AI一键预测定位+设计新序列,登Nature子刊
ProtGPS 是麻省理工学院和怀特黑德研究所联合开发的蛋白质语言模型,能够预测蛋白质在细胞内的亚细胞定位,并设计具有特定亚细胞定位的新型蛋白质。
78 17
ProtGPS:MIT再造生命科学新基建!蛋白质AI一键预测定位+设计新序列,登Nature子刊
|
7天前
|
数据采集 人工智能 编解码
算法系统协同优化,vivo与港中文推出BlueLM-V-3B,手机秒变多模态AI专家
BlueLM-V-3B是由vivo与香港中文大学共同研发的多模态大型语言模型,专为移动设备优化。它通过算法和系统协同优化,实现了高效部署和快速生成速度(24.4 token/s),并在OpenCompass基准测试中取得优异成绩(66.1分)。模型小巧,语言部分含27亿参数,视觉编码器含4000万参数,适合移动设备使用。尽管如此,低端设备可能仍面临资源压力,实际应用效果需进一步验证。论文链接:https://arxiv.org/abs/2411.10640。
29 9
|
11天前
|
机器学习/深度学习 人工智能 编解码
Evo 2:基因编程AI革命!!DNA版GPT-4问世:100万碱基全解析,自动设计基因编辑器
Evo 2 是一款由 Acr 研究所、英伟达和斯坦福大学联合开发的 DNA 语言模型,可处理长达百万碱基对的序列,支持基因组设计、变异预测及合成生物学研究。
97 5
|
16天前
|
人工智能 算法
细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘算法共谋,AI教父预言正成真
近日,哈佛大学和宾夕大合著的重磅论文揭示,基于大型语言模型(如GPT-4)的算法可能自主串谋,损害消费者利益。研究发现,这些算法在虚拟市场中能迅速达成默契,提高价格以获取更高利润,类似于人类垄断行为。这一现象曾被DeepMind联合创始人Shane Legg预言,如今成为现实。论文呼吁加强对AI的监管,确保其透明性和可解释性,以防止潜在风险,并促进AI的可持续发展。
25 6
|
26天前
|
机器学习/深度学习 存储 人工智能
预定下一个诺奖级AI?谷歌量子纠错AlphaQubit登Nature,10万次模拟实验创新里程碑
谷歌的量子纠错算法AlphaQubit近日登上《自然》杂志,被誉为量子计算纠错领域的重大突破。量子比特易受环境噪声干扰,导致计算错误,而AlphaQubit通过神经网络学习噪声模式,显著提升纠错准确性。实验结果显示,它在Sycamore处理器和Pauli+模拟器上表现优异,优于现有解码算法。尽管面临资源需求高等挑战,AlphaQubit为实用化量子计算带来新希望,并可能推动其他领域创新。论文详见:https://www.nature.com/articles/s41586-024-08148-8
46 5
|
2月前
|
机器学习/深度学习 人工智能 算法
Nature:AI也许可以拥有常识,但不是现在
人工智能(AI)的快速发展引发了关于其是否能拥有常识的讨论。尽管AI在特定任务上取得进展,但目前仍缺乏真正的常识理解。常识涉及对物理世界、社会规范和文化背景的理解,难以通过数据和算法完全捕捉。研究人员正通过大规模语言模型和强化学习等方法提升AI的常识能力,但仍面临显著局限性,如对物理世界的直观理解不足、社会文化背景理解欠缺以及常识能力的通用性差等问题。未来,多模态学习和与人类交互有望增强AI的常识能力。
60 20
|
8天前
|
机器学习/深度学习 自然语言处理 算法
生成式 AI 大语言模型(LLMs)核心算法及源码解析:预训练篇
生成式 AI 大语言模型(LLMs)核心算法及源码解析:预训练篇
|
2月前
|
机器学习/深度学习 人工智能 算法
Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题
《PatternBoost: Constructions in Mathematics with a Little Help from AI》提出了一种结合传统搜索算法和Transformer神经网络的PatternBoost算法,通过局部搜索和全局优化交替进行,成功应用于组合数学问题。该算法在图论中的Ramsey数研究中找到了更小的反例,推翻了一个30年的猜想,展示了AI在数学研究中的巨大潜力,但也面临可解释性和通用性的挑战。论文地址:https://arxiv.org/abs/2411.00566
94 13
|
2天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。

热门文章

最新文章