LLM用于科学假设生成:探索与挑战

简介: 产生新颖的科学假设和科研方向,是科学发现的重要前提;大语言模型生成科学假设已有不少探索,但仍面临诸多挑战

科学假设包含待验证的预测、解释和见解,是科学发现的关键前期步骤。围绕如何产生新的科学假设,美国斯坦福大学曾经提出Bit-Flip方法[1]:即首先识别出研究领域中现有方法普遍含有的假设(这是Bit部分),然后提出与该假设不同的新的思路(这是Flip部分)。以下是Bit-Flip方法的一个示例:

  • Bit部分:早期的机器翻译将待翻译的整个语句映射到一个向量上;
  • Flip部分:针对待翻译语句(特别是长语句)中的不同部分和不同信息,分别进行编解码,以提高翻译质量。

Bit-Flip方法的更多示例可以参考有关文档[1]。

Bit-Flip方法+LLM

大语言模型(LLM)能够针对文献进行理解,也能够生成新的文字内容。将LLM与上述的Bit-Flip方法相结合,来生成新的科学假设,应该是个不错的想法。近期发布的一篇论文[2]就围绕这一思路,介绍了作者们所进行的探索。

Title_1.jpg

这篇论文提出了一个名为HypoGen的数据集,其中包含了从大量学术论文中提取的Bit、Flip、以及其它数据项;经过HypoGen数据集微调后的LLM,在推理时可以根据输入的Bit信息,生成新颖的见解、以及思考过程的描述。具体而言:

  • 作者们根据计算机科学领域的大量会议论文,使用OpenAI的o1模型,提取出5000多组Bit、Flip、Spark、以及Chain-of-Reasoning信息,形成HypoGen数据集,其中,Bit和Flip信息的定义如上文所述,Spark信息包含的是一篇论文核心见解的摘要,Chain-of-Reasoning信息包含的是根据一篇论文的全文生成的、从Bit到Flip思考过程的描述;
  • HypoGen数据集可以在Hugging Face上获取[3];
  • 经过HypoGen数据集微调后的LLaMA模型,在推理时可以根据输入的Bit信息,生成Spark和Chain-of-Reasoning信息。

Figure_1.jpg

上述论文[2]在评估生成结果时采用了三类方法:

  • 自动指标‌评估‌:采用困惑度(Perplexity,衡量生成结果的流畅性和连贯性)、IAScore(衡量生成结果与相应论文作者提出的研究想法之间的对齐程度)、以及想法独特性指数(Idea Distinctiveness Index,衡量生成的多个想法之间的语义多样性)进行评估;
  • LLM评估‌:使用Anthropic的Claude 3.7 Sonnet-Thinking模型来评估生成结果的新颖性与可行性,并进一步汇总成生成结果的总体评估;
  • 人工评估‌:人工验证LLM评估。

在对测试数据集的测试中,以上三类评估显示:

  • 自动指标‌评估方面:相对于微调前的模型,经过HypoGen数据集微调后的LLaMA模型所生成的结果与相应论文作者提出的研究想法对齐得更好,但在想法独特性指数上有所下降,揭示出模型的对齐性与想法的语义多样性之间可能存在负相关的关系;
  • LLM评估方面:经过HypoGen数据集微调后的LLaMA模型所生成的结果在总体上优于1-Shot方法,但生成结果的新颖性与可行性之间显示出负相关的关系;
  • 人工评估方面:小规模的人工评估与LLM评估在结果上基本一致,进一步证实了经过Bit、Flip、Spark、以及Chain-of-Reasoning数据微调后的模型在结果生成质量上的提升。

展望

LLM用于科学假设的生成,其实已经积累了不少研究[4]。然而该领域仍处于早期,诸多问题,包括生成结果的事实准确性‌、生成结果的评估方法、生成过程的透明性、跨学科的泛化能力等等,有待更多的探索。

参考文献

[1] https://web.stanford.edu/class/cs197c/slides/02-literature-search.pdf

[2] Sparks of Science: Hypothesis Generation Using Structured Paper Data

https://arxiv.org/abs/2504.12976

使用许可协议:CC BY.

https://creativecommons.org/licenses/by/4.0/

[3] https://huggingface.co/datasets/UniverseTBD/hypogen-dr1

[4] A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models

https://arxiv.org/abs/2504.05496

使用许可协议:CC BY.

https://creativecommons.org/licenses/by/4.0/


封面图:Kindel Media、pexels.com

目录
相关文章
|
机器学习/深度学习 人工智能 算法
搞懂大模型的智能基因,RLHF系统设计关键问答
搞懂大模型的智能基因,RLHF系统设计关键问答
252 0
|
29天前
|
机器学习/深度学习 运维 测试技术
“思考更长时间”而非“模型更大”是提升模型在复杂软件工程任务中表现的有效途径 | 学术研究系列
本研究成功展示了通过统一的测试时计算(TTS)扩展框架,可以显著增强个人可部署的开源 SWE Agent 的代码推理和问题解决能力。我们证明了“思考更长时间”(增加推理计算)而非“模型更大”(增加参数)是提升模型在复杂软件工程任务中表现的有效途径。这项工作为在资源受限环境下(如私有部署)使用和发展高性能 SWE Agent 开辟了新的可能性。
|
4月前
|
人工智能 数据安全/隐私保护
深度揭秘CoT!普林斯顿耶鲁发布最新报告:大模型既有记忆推理、也有概率推理
普林斯顿大学和耶鲁大学研究人员发布报告,探讨链式思维(CoT)提示对大型语言模型(LLM)推理能力的影响。研究通过移位密码任务,揭示了三个关键因素:任务输出概率、预训练阶段的隐性学习及中间操作数量(噪声推理)。实验使用GPT-4、Claude 3和Llama 3.1模型,发现CoT提示可显著提升模型准确性,但也存在局限性。论文地址:https://arxiv.org/abs/2407.01687。
208 29
|
4月前
|
人工智能 测试技术
VideoPhy:UCLA 和谷歌联合推出评估视频生成模型物理模拟能力的评估工具,衡量模型生成的视频是否遵循现实世界的物理规则
VideoPhy 是 UCLA 和谷歌联合推出的首个评估视频生成模型物理常识能力的基准测试,旨在衡量模型生成的视频是否遵循现实世界的物理规则。
133 9
VideoPhy:UCLA 和谷歌联合推出评估视频生成模型物理模拟能力的评估工具,衡量模型生成的视频是否遵循现实世界的物理规则
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
NeurIPS 2024:真实世界复杂任务,全新基准GTA助力大模型工具调用能力评测
在NeurIPS 2024会议上,GTA(General Tool Agents Benchmark)基准测试被提出,旨在评估大型语言模型(LLM)在真实世界复杂任务中的工具调用能力。GTA采用真实用户查询、真实部署工具和多模态输入,全面评估LLM的推理和执行能力。结果显示,现有LLM在真实世界任务中仍面临巨大挑战,为未来研究提供了重要方向。
108 13
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识
大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。
125 12
|
7月前
|
人工智能 前端开发
大模型体验体验报告:OpenAI-O1内置思维链和多个llm组合出的COT有啥区别?传统道家理论+中学生物理奥赛题测试,名不虚传还是名副其实?
一个月前,o1发布时,虽然让人提前体验,但自己并未进行测试。近期终于有机会使用,却仍忘记第一时间测试。本文通过两个测试案例展示了o1的强大能力:一是关于丹田及练气的详细解答,二是解决一道复杂的中学生物理奥赛题。o1的知识面广泛、推理迅速,令人印象深刻。未来,或许可以通过赋予o1更多能力,使其在更多领域发挥作用。如果你有好的测试题,欢迎留言,一起探索o1的潜力。
323 1
|
8月前
|
安全 测试技术
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!
【9月更文挑战第14天】麻省理工学院最近的研究揭示了大型语言模型(LLM)展现出的新潜能,其不仅能模仿真实环境,更在一定程度上理解并模拟程序在特定环境下的运作。通过使用Transformer模型并结合特定探测分类器,研究团队发现模型能逐步掌握程序的形式语义。为了验证这一发现,团队创建了一个独特的干预基准测试,进一步证实了模型的仿真能力,为世界模型的发展提供了新方向。尽管存在模型可能仅习得统计规律而非真正理解语义的争议,这项研究依然为理解复杂系统提供了新工具与视角。论文详情见:https://arxiv.org/abs/2305.11169。
101 1
|
9月前
|
存储 机器学习/深度学习 测试技术
模型量化技术综述:揭示大型语言模型压缩的前沿技术
在这篇文章中,我将在语言建模的背景下介绍量化,并逐一探讨各个概念,探索各种方法论、用例以及量化背后的原理。
195 0
模型量化技术综述:揭示大型语言模型压缩的前沿技术
|
存储 Java API
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
290 0