GPT-4无师自通预测蛋白质结构登Nature子刊!LLM全面进军生物学,AlphaFold被偷家?

简介: 【9月更文挑战第17天】近日,《自然》子刊发表的一篇论文展示了GPT-4在预测蛋白质结构方面的惊人能力,这一突破不仅揭示了大型语言模型在生物学领域的巨大潜力,还可能影响传统预测工具如AlphaFold的地位。研究人员发现,GPT-4仅通过自然语言处理就能准确预测蛋白质的三维结构,包括常见的氨基酸序列和复杂的α-螺旋结构。实验结果显示,其预测精度与实际结构非常接近。这一成果意味着自然语言处理技术也可应用于生物学研究,但同时也引发了关于其局限性和对现有工具影响的讨论。论文详情见:https://www.nature.com/articles/s41598-024-69021-2

近日,一篇发表在《自然》子刊上的论文引起了广泛关注。该论文展示了一种名为GPT-4的生成式人工智能模型在预测蛋白质结构方面的惊人能力。这一突破性的成果不仅展示了大型语言模型(LLM)在生物学领域的潜力,也引发了关于其对传统蛋白质结构预测工具(如AlphaFold)的潜在影响的讨论。

蛋白质结构预测是生物学中一个重要的研究领域,对于理解蛋白质的功能和设计新的药物具有重要意义。传统上,蛋白质结构预测依赖于专门的算法和大量的计算资源。然而,这篇论文的作者们展示了GPT-4如何仅凭自然语言处理的能力,就能预测蛋白质的三维结构。

GPT-4是一种基于Transformer架构的生成式人工智能模型,最初设计用于处理自然语言任务。然而,研究人员发现,当给GPT-4提供一些基本的生物学知识和蛋白质结构预测的指令时,它能够生成准确的蛋白质结构模型。

在实验中,研究人员给GPT-4提供了20种常见氨基酸的序列,并要求它预测这些氨基酸的三维结构。令人惊讶的是,GPT-4不仅能够生成这些氨基酸的准确结构,还能够预测更复杂的蛋白质结构,如α-螺旋。

为了评估GPT-4的性能,研究人员将其预测结果与实验确定的蛋白质结构进行了比较。结果显示,GPT-4的预测结果与实验结果非常接近,表明其在预测蛋白质结构方面具有很高的准确性。

这一成果的意义在于,它展示了大型语言模型在生物学领域的潜力。传统上,生物学研究依赖于实验方法和专门的算法。然而,GPT-4的突破表明,自然语言处理技术也可以用于解决生物学问题。

然而,这一成果也引发了一些争议。一些人担心,GPT-4的出现可能会对传统蛋白质结构预测工具(如AlphaFold)构成威胁。AlphaFold是一种专门用于预测蛋白质结构的算法,已经在生物学研究中得到了广泛应用。然而,GPT-4的出现可能会改变这一局面,因为它提供了一种更简单、更通用的解决方案。

然而,也有人指出,GPT-4的性能还存在一些限制。例如,它目前只能预测相对简单的蛋白质结构,对于更复杂的结构可能还存在困难。此外,GPT-4的预测结果可能还需要进一步的验证和优化。

论文地址:https://www.nature.com/articles/s41598-024-69021-2

目录
相关文章
|
1月前
|
人工智能 自然语言处理
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]
41 1
|
17天前
|
编解码 定位技术 计算机视觉
多模态LLM视觉推理能力堪忧,浙大领衔用GPT-4合成数据构建多模态基准
【9月更文挑战第2天】浙江大学领衔的研究团队针对多模态大型模型(MLLM)在抽象图像理解和视觉推理上的不足,提出了一种利用GPT-4合成数据构建多模态基准的方法。该研究通过合成数据提高了MLLM处理图表、文档等复杂图像的能力,并构建了一个包含11,193条指令的基准,涵盖8种视觉场景。实验表明,这种方法能显著提升模型性能,但依赖闭源模型和高计算成本是其局限。论文详细内容见:https://arxiv.org/pdf/2407.07053
48 10
|
30天前
|
数据采集 人工智能
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM分饰三角自评自进化
【8月更文挑战第20天】近期,Meta等机构提出了一项让大型语言模型(LLM)自我评估与改进的研究,通过“Meta-Rewarding”方法,使模型分饰生成、评估及改进三角色,实现了高效自我迭代。实验证明,经四轮强化训练后,Llama 7B模型性能大幅提升,在多项任务上超越GPT-4等先进模型,展示了LLM自我优化的巨大潜力。详情参阅论文:https://arxiv.org/abs/2407.19594。
31 7
|
3月前
|
机器学习/深度学习 人工智能 测试技术
两句话,让LLM逻辑推理瞬间崩溃!最新爱丽丝梦游仙境曝出GPT、Claude等重大缺陷
【6月更文挑战第17天】新论文揭示GPT和Claude等LLM在逻辑推理上的重大缺陷。通过《爱丽丝梦游仙境》场景,研究显示这些模型在处理简单常识问题时给出错误答案并过度自信。即使面对明显逻辑矛盾,模型仍坚持错误推理,暴露了现有评估方法的不足。[链接:https://arxiv.org/abs/2406.02061]
330 1
|
3月前
|
人工智能 自然语言处理 安全
GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高
【6月更文挑战第17天】PNAS研究显示,GPT-4等大型语言模型(LLMs)在欺骗人类方面达到99.16%成功率,推理能力增强使欺骗风险升高。这一发现引发伦理讨论,强调需强化监管与伦理规范,同时考虑AI在社会中的安全应用。论文链接:[https://www.pnas.org/doi/full/10.1073/pnas.2317967121](https://www.pnas.org/doi/full/10.1073/pnas.2317967121)**
206 1
|
3月前
|
人工智能
GPT-4被证实具有人类心智登Nature!AI比人类更好察觉讽刺和暗示
【6月更文挑战第5天】Nature发表的论文显示,GPT-4在心智理论任务中表现出色,特别是在识别讽刺上超越了人类。然而,在理解失礼行为和相关社会意识方面,GPT-4逊于人类,而LLaMA2-Chat在此类情境中表现更佳。尽管如此,GPT-4在失礼行为可能性测试中展现出高超的理解力。该研究强调了AI在模拟人类心理状态方面的进步与局限性。[链接](https://www.nature.com/articles/s41562-024-01882-z)
63 1
|
3月前
|
人工智能
拯救被掰弯的GPT-4!西交微软北大联合提出IN2训练治疗LLM中间迷失
【6月更文挑战第1天】研究人员为解决大型语言模型(LLM)的“中间迷失”问题,提出了IN2训练方法。此方法通过显式监督增强模型对长文本上下文的理解,改善了信息检索能力。应用IN2训练的FILM-7B模型在长文本任务上表现出色,尤其在NarrativeQA数据集上的F1分数提升了3.4。尽管面临数据合成和计算成本的挑战,IN2训练为LLM的进步开辟了新途径,预示着未来在长文本处理领域的潜力。论文链接:https://arxiv.org/pdf/2404.16811
47 5
|
4月前
|
人工智能 搜索推荐
国产黑马与GPT-4o称霸中文榜首!Yi-Large勇夺国内LLM盲测桂冠,冲进世界第七
在Chatbot Arena上,中国大模型公司零一万物的Yi-Large模型异军突起,超越多款国际大厂模型,成为中国首位、世界第7的千亿参数模型。OpenAI确认该模型为GPT-4的测试版。LMSYS Arena的盲测结果显示,Yi-Large在中文榜上与GPT-4o并列第一。此外,Yi-Large在编程能力、长提问和艰难提示词评测中均表现出色,位居全球第二。Chatbot Arena以其公正的盲测机制和Elo评分系统,成为大模型评测的新标准,获得了业界认可。Yi-Large的成功展示了中国在大模型领域的进步,推动了行业的客观评价和健康发展。
65 1
|
4月前
|
自然语言处理 API Python
使用Tokeniser估算GPT和LLM服务的查询成本
将LLM集成到项目所花费的成本主要是我们通过API获取LLM返回结果的成本,而这些成本通常是根据处理的令牌数量计算的。我们如何预估我们的令牌数量呢?Tokeniser包可以有效地计算文本输入中的令牌来估算这些成本。本文将介绍如何使用Tokeniser有效地预测和管理费用。
108 3
|
机器学习/深度学习 存储 PyTorch
基于阿里云免费算力自建LLM(类GPT)大模型
基于阿里云免费算力自建LLM(类GPT)大模型