谷歌提前开源AlphaFold 2!Nature、Science同时公开两大蛋白质结构预测工具(二)

简介: 昨日,DeepMind和华盛顿大学分别在nature和Science两大顶级杂志发布了各自预测蛋白质结构的工具,并同时开源了代码。

 DeepMind表示,AlphaFold 2可以对蛋白质的基本物理结构进行十分准确的预测,并能够在几天内生成高精度的结构。 此外,模型还能利用内部的内部置信度来预测每个预测的蛋白质结构中哪些部分是可靠的。 训练数据来自大约17万个蛋白质结构,以及包含未知结构的蛋白质序列的大型数据库。 期间DeepMind使用了16个TPU进行训练(即128个TPUv3核心或大致相当于约100-200个GPU)。 

39.jpg

神经网络模型结构 其中,模型对蛋白质序列以及氨基酸残基对进行操作,在两种表征之间迭代传递信息以生成结构。 

image.jpeg

                                          AlphaFold生成的蛋白质高精度结构 

image.jpeg


                                  架构细节


RoseTTAFold:媲美AlphaFold 2的预测工具


无独有偶,隔壁Science杂志也刊登了另一个蛋白质结构预测的工具,名叫「RoseTTAFold」,特点是「快、准、狠」。 2020年,DeepMind在CASP 14大会上介绍了它在该蛋白质结构预测上的显著进展。 华盛顿大学医学院蛋白质设计研究所的研究人员看在眼里,受其启发,与哈佛、剑桥、德克萨斯大学西南医学中心、劳伦斯伯克利国家实验室联手,共同研发了一款基于深度学习的蛋白质结构预测工RoseTTAFold。 这款工具利用深度学习,仅凭有限的信息,就能在普通游戏本上快速而准确地预测蛋白质结构,在短时间就能构建出复杂的生物组建模型。 目前,该研究团队已经用RoseTTAFold计算出了数百种新的蛋白质结构,其中就包括了许多鲜为人知的人类基因组蛋白。 RoseTTAFold预测出了与脂质代谢问题、炎症紊乱和癌细胞生长相关的蛋白质结构。 RoseTTAFold是一个「三轨」神经网络("three-track" neural network),它能够兼顾蛋白质序列模式、氨基酸如何相互作用以及蛋白质三维结构的可能性。 在这个架构中,信息在一维(氨基酸序列)、二维(距离)和三维(坐标)之间来回流动,从而能够集中推理出蛋白质化学部分与折叠结构之间的关系。 


image.jpegRoseTTAFold 架构包含一、二、三维注意力轨道,轨道之间信息能够来回流动image.jpeg                                       在CASP14目标取得的平均TM-scoreimage.jpeg

在CAMEO实验中取得的盲基准结果 蛋白质结构预测不断取得新进展,最关键的问题莫过于:能够使用什么准确的蛋白质结构模型? 团队研究了RoseTTAFold通过X射线晶体学和低温电子显微镜,研究了促进实验结构测定实用性,为目前为之结构的关键蛋白质提供模型。 RoseTTAFold方法的准确性远高于现有方法,因此,研究人员希望能够测试出这款工具是否能够解决分子置换(MR)这一从未解决的问题。 在蛋白质数据库(PDB)中,有四种蛋白无法用MR解决:牛属甘氨酸N-酰基转移酶(GLYAT)、细菌氧化还原酶、细菌表面层蛋白(SLP)和来自真菌平革菌属金孢子菌属的分泌蛋白,因此研究人员使用RoseTTAFold重新分析蛋白质结构。 



image.jpeg

由于蛋白质结构的测定能够为生物功能和机制提供大量见解,团队也研究了RoseTTAFold是否也能有这样的功能。 研究人员主要针对两组蛋白:目前未知结构的G蛋白偶联受体;与疾病相关的人类蛋白质。 研究结果发现,即使没有已知结构的密切同源物,RoseTTAFold模型在活性和非活性状态下也能做到准确预测构型。



image.jpeg


研究人员使用RoseTTAFold工具,从序列信息中预测了大肠杆菌蛋白复合物的结构。图A中,灰色表示第一条亚基,彩色表示第二条亚基。图C是RoseTTAFold生成的IL-12R/IL-12复合结构。 论文一作Minkyung Baek希望RoseTTAFold这个新工具未来能够造福整个研究领域。



相关文章
|
1月前
|
人工智能 自然语言处理
米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架
谷歌DeepMind团队提出了一种名为“米开朗基罗”(Michelangelo)的新型评估框架,通过潜在结构查询(LSQ)来全面评估大型语言模型(LLM)的长上下文理解能力。相比传统方法,米开朗基罗框架不仅评估模型的检索能力,还能更深入地验证其对上下文的理解和推理能力。
90 50
|
2月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
52 6
|
5月前
|
人工智能
ACM最新论文戳破大公司开源谎言,GenAI时代到底如何定义开源模型
【7月更文挑战第2天】ACM论文揭示GenAI开源真相,指出开源模型常缺乏开放数据集、完整代码与功能,质疑大公司仅借开源名义吸引利益。论文倡导重新定义开源,提议全面评估框架、加强监管及教育,确保真开源,促进领域健康发展。[链接:https://dl.acm.org/doi/3630106.3659005]
87 16
|
7月前
|
人工智能
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
【4月更文挑战第16天】研究人员集成12个大型语言模型(LLM)组成“硅基群体”,在预测比赛中与925名人类预测者对比。研究发现,LLM群体的预测准确性与人类群体无显著差异,且通过集成可抵消个体模型的偏差,提高预测准确。GPT-4和Claude 2等模型结合人类预测后,准确度提升17%至28%。然而,个别LLM预测精度不一,模型选择和校准度是提升预测性能的关键,同时LLM在时间跨度和现实场景适应性方面仍有挑战。
108 6
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
|
7月前
|
机器学习/深度学习 计算机视觉
大模型一定就比小模型好?谷歌的这项研究说不一定
【5月更文挑战第5天】谷歌研究挑战传统观念,指出在生成图像任务中,小模型并不一定逊色于大模型。实验显示小模型在有限计算资源下能生成高质量图像,且泛化性能佳。在多个图像生成任务中,小模型的表现与大模型相当甚至更好,暗示了小模型在该领域的潜力。这一发现提示了在追求性能时需综合考虑模型规模和效率。论文链接:https://arxiv.org/pdf/2404.01367.pdf
73 2
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会“图的语言”
【5月更文挑战第1天】谷歌在ICLR 2024提出新方法,使大语言模型(LLM)性能提升高达60%,通过结合图神经网络(GNN),LLM学会理解与生成“图的语言”,打破处理复杂任务的局限。此创新模型适用于社交网络分析等领域,但面临计算资源需求大和模型解释性问题。研究强调需确保LLM在道德和法律框架内使用。论文链接:https://openreview.net/pdf?id=IuXR1CCrSi
257 3
|
7月前
|
机器学习/深度学习 数据采集 人工智能
ICLR 2024:RLHF有了通用平台和基准,天大开源,专攻现实决策场景
【4月更文挑战第21天】天津大学在ICLR 2024发布RLHF新框架Uni-RLHF,以人类反馈引导强化学习,降低奖励函数设计需求,适应现实决策场景。该框架提供通用平台和基准,支持大规模众包注释,促进研究。尽管面临准确捕捉人类反馈、数据质量和多任务处理等挑战,但开源特性加速了学术进步。[链接](https://arxiv.org/abs/2402.02423)
108 0
|
机器学习/深度学习 人工智能 自然语言处理
LLM评估综述论文问世,分三方面全面总结,还带资料库
LLM评估综述论文问世,分三方面全面总结,还带资料库
332 0
|
机器学习/深度学习 编解码 机器人
伯克利,斯坦福,宾大联合发表:从观察和交互中学习预测模型
伯克利,斯坦福,宾大联合发表:从观察和交互中学习预测模型
|
机器学习/深度学习
斯坦福、微软联手,用扩散模型进行蛋白质结构生成,已开源
斯坦福、微软联手,用扩散模型进行蛋白质结构生成,已开源
128 0