ICML2020 | Retro*: 通过神经引导的A*搜索学习逆合成设计

简介: ICML2020 | Retro*: 通过神经引导的A*搜索学习逆合成设计

image.png

今天给大家介绍的是来自佐治亚理工学院的Le Song课题组发表在ICML2020上的关于逆合成规划的一篇文章。在本文中,作者提出了一种基于神经的类A*算法,称为Retro*,它能有效地找到高质量的合成路线。在基准USPTO数据集上进行的实验表明,作者提出的方法在成功率和解决方案质量方面均优于现有的最新技术,同时效率更高。


1


1背景


逆合成设计是有机化学的关键问题之一。由于在反应的每一步理论上都有成千上万种可能的转化导致设计的搜索空间是巨大的,即使是有经验的化学家处理这个问题也是十分棘手的。


单步逆合成预测对给定产物可能的直接反应物列表的预测,尽管单步合成法不断得到改进,但现实世界中的大多数分子都无法在一步之内合成。合成步骤的数量可以达到60个甚至更多。单步逆合成法面临着巨大的搜索空间和性能测量及基准测试模糊性的挑战,为实现多步逆合成设计奠定基础。


在本文中,作者提出了一种新的基于学习的逆合成设计算法Retro*来学习以前的设计经验,该算法框架可以归纳出保证最优解的搜索算法。另外,作者提出了一种构建合成路线数据集的方法,用于对多步合成设计方法进行定量分析。其设计算法是通用的,它也可以应用于其他机器学习问题,如定理证明和分层任务设计,实验结果表明该算法的性能大大优于现有方法。


2


框架


Retro*是最佳优先搜索算法,该算法利用神经先验直接优化解决方案的质量。在该算法中:


明确地将有关反应的信息保存为“AND-OR”树中的节点,其中“AND”类型的节点对应于反应,而“OR”类型的节点对应于分子。该树捕获了候选反应和反应物分子之间的关系,使得能够利用对应于单个分子的子问题的结构。


基于AND-OR树表示,作者提出了一种类A*的规划算法,该算法由从过去的逆合成设计经验中学习到的神经网络指导。


更具体地说,神经网络学习每个分子的合成成本,并帮助搜索算法选择最有希望的分子节点进行扩展。

image.png

图1 Retro* 算法


搜索树T是AND-OR树,其中分子节点为“OR”节点,反应节点为“AND”节点。它以单个根分子节点(即目标分子t)开始搜索树T。在每个步骤中,它根据值函数选择T边界中的节点u(表示为F(T))。然后用单步模型B(u)扩展u,并用一个AND-OR树桩增长T。最终,对u有潜在依赖性的节点将被更新。

image.png

图2 Retro *算法框架

image.png

3


实验


3.1 数据集


作者使用从USPTO提取的公开可用的反应数据集来训练单步模型并提取合成路线。对于有多种产物的反应,作者将它们复制成多种反应,每种反应有一种产物。删除重复和错误原子映射的反应后,进一步使用RDChiral 提取所有反应的反应模板,并丢弃那些无法通过将反应模板应用于其产品而获得反应物的模板。其余约1.3M反应按照80%/10%/10%的比例进一步随机分成训练/验证/测试集。利用反应数据,作者还训练了一个基于模板的MLP模型用于单步逆合成。为了训练值函数并定量分析预测的路线,作者基于USPTO反应数据集和eMolecules 的市售结构单元列表构建了合成路线。


作者获得的验证和测试路线数据集的过程略有不同。对于验证数据集,首先组合训练和验证反应数据集,然后在组合数据集上重复上述提取过程。作者排除具有与训练数据相同长度的路线的分子,并将剩余的作为验证路线数据集。作者对测试数据采用类似的方式,但要确保测试与训练/验证集之间没有重叠。


作者进一步清理测试路线数据集,只保留那些其反应被单步模型的前50个预测所覆盖的路线。为了使测试集更具挑战性,作者通过运行一个基于启发式的BFS规划算法来过滤掉更容易的分子,并在固定的时间限制内丢弃已解决的分子。经过处理,最终获得了299202条训练路线、65274条验证路线、189条测试路线和相应的目标分子。


3.2 结果


作者将Retro*与DFPN-E、MCTS和贪婪深度优先搜索(DFS)进行了比较。贪婪的DFS总是优先考虑可能性最大的反应。MCTS是通过PUCT实现的,在这里作者使用了单步模型提供的反应概率作为搜索偏差的先验。


表1 性能总结

image.png

性能总结:表1总结了所有算法的性能。在500个单步调用的时间限制下,Retro*比第二好的方法DFPN-E解决的测试分子多31%。Retro*提供的所有解决方案中,有50条比专家路线短,而有112条在总成本方面更好。作者还进行了消融研究,以通过评估非学习版本Retro*-0来了解Retro*中学习组件的重要性。与基线方法相比,Retro*-0也显示出有希望的结果,然而就成功率而言,Retro*表现优于6%,这表明从先前的规划经验中学习带来的性能提升。

image.png

图3 时间限制的影响

时间限制的影响:为了显示时间限制对性能的影响,图3绘制了成功率与单步模型调用次数的关系。可以看到,Retro*不仅在开始时大大优于基线算法,而且改进速度也快于基线,随着时间限制的增加,性能差距也在进一步扩大。

image.png

图4 解决方案质量


解决方案质量: 图4左: 就长度/成本而言,所有算法中最佳解决方案的数量;图4中:Retro*的示例解决方案路线。边上的数字是反应的可能性。黄色节点是构建模块;图4右:专家路线中相应的虚线框部分,比解决方案更长,可能性更小。


为了评估整体解决方案质量,对于每个测试分子,作者从所有算法中收集解决方案,并比较路线长度和成本(见图4-左)。作者只保留每个测试分子的最佳路线(可以是多条),并计算每种方法的最佳路线总数。就总成本而言,Retro*比第二好的方法产生的最佳路线多4倍。即使对于长度度量,这也不是Retro*选择的目标,它仍然可以获得与最佳方法大致相同的性能。


4


结论


在这项工作中,作者提出了Retro*,这是一种基于学习的逆向合成设计算法,可以有效地找到高质量的路线。Retro*能够利用以前的设计经验,将对看不见的分子的搜索偏向有希望的方向。作者还提出了一种系统化的方法,用于从公开的反应数据集和新的度量标准中创建一个逆合成数据集,用于在不涉及人类专家的情况下评估解决方案路线。在真实世界基准数据集上的实验表明,该算法在设计效率和求解质量上均优于现有方法。


目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 算法
没想到!AlphaZero式树搜索也能用来增强大语言模型推理与训练
【7月更文挑战第26天】Xidong Feng等研究人员提出了一项创新方法,通过采用AlphaZero式的树搜索算法来增强大语言模型(LLMs)的推理与训练能力。这项技术,称为TS-LLM(Tree-Search for LLMs),将LLMs的解码过程视为搜索问题,并运用AlphaZero的树搜索来指导这一过程。TS-LLM不仅提升了模型的通用性和适应性,还在多个任务中实现了显著的性能提升。此外,它能在训练阶段指导LLMs学习更优的解码策略。尽管如此,TS-LLM依赖于高质量的预训练LLM,并面临较高的计算成本挑战。[论文](https://arxiv.org/abs/2309.17179)
77 5
|
29天前
|
机器学习/深度学习 人工智能 算法
[大语言模型-论文精读] Diffusion Model技术-通过时间和空间组合扩散模型生成复杂的3D人物动作
[大语言模型-论文精读] Diffusion Model技术-通过时间和空间组合扩散模型生成复杂的3D人物动作
19 0
|
5月前
|
人工智能 自然语言处理 算法
大模型+蒙特卡洛树搜索,一招让LLaMa-3 8B奥数水平直逼GPT-4
【6月更文挑战第25天】 - 复旦大学和上海AI Lab的研究者提出这一算法,用于增强大型语言模型在复杂数学推理任务中的能力,解决现有模型推理准确性问题。 - **MCTSr**流程包括初始化、选择、自细化、自评估、反向传播和UCT更新,通过多轮迭代提升答案质量。 - 实验显示,该算法在**GSM8K**、**GSM Hard**、**MATH**和**Olympiad-level**数据集上表现出色,尤其在多次迭代后。 - 尽管计算成本高且不适用于所有问题类型,但研究揭示了强化LLMs推理能力的新途径,对未来的AI应用具有指导意义。
189 8
|
11月前
|
机器学习/深度学习 人工智能 算法
AI Earth有没有相关文档或论文介绍平台地物分类、目标提取、变化检测等算法的原理呢?
AI Earth有没有相关文档或论文介绍平台地物分类、目标提取、变化检测等算法的原理呢?
337 1
|
6月前
|
机器学习/深度学习 算法 计算机视觉
【论文速递】CVPR2021 - 基于自引导和交叉引导的小样本分割算法
【论文速递】CVPR2021 - 基于自引导和交叉引导的小样本分割算法
60 0
|
算法 索引
单个Transformer完成信息检索,谷歌用可微搜索索引打败双编码器模型
单个Transformer完成信息检索,谷歌用可微搜索索引打败双编码器模型
226 0
|
机器学习/深度学习 人工智能 自然语言处理
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾
184 0
|
机器学习/深度学习 自然语言处理 文字识别
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾(1)
多语种翻译,跨模态文档理解,视觉合成, Backbone... 12个去年刷爆基准的SOTA工作一文回顾
356 0
|
机器学习/深度学习 人工智能 自然语言处理
一文尽览 | 首篇Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)(下)
Transformer 一直是自然语言处理 (NLP) 和计算机视觉 (CV) 的核心。NLP 和 CV 的巨大成功激发了研究者对 Transformer 在点云处理中的使用的探索。但是,Transformer如何应对点云的不规则性和无序性?
一文尽览 | 首篇Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)(下)
|
传感器 机器学习/深度学习 编解码
2022最新综述!稀疏数据下的深度图补全(深度学习/非引导/RGB引导)(下)
获取正确的像素级场景深度在各种任务中发挥着重要作用,如场景理解、自动驾驶、机器人导航、同时定位和建图、智能农业和增强现实。因此,这是过去几十年来研究的一个长期目标。获得场景深度的一种成本有效的方法是使用单目深度估计算法,从单个图像直接估计场景深度。
2022最新综述!稀疏数据下的深度图补全(深度学习/非引导/RGB引导)(下)