等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

简介: 【7月更文挑战第13天】华为诺亚方舟实验室推出MindStar,一种增强LLM推理能力的搜索框架。MindStar通过PRM奖励模型和Beam/Levin Search策略选择最佳推理路径,提升开源模型如LLaMA-2-13B、Mistral-7B的性能,与GPT-3.5等闭源模型媲美,但成本更低。尽管推理成本高和需预训练PRM,MindStar为LLM推理研究开辟新途径。[论文链接](https://arxiv.org/pdf/2405.16265v4)

在人工智能领域,大型语言模型(LLM)的推理能力一直是研究的热点。然而,尽管LLM在各种任务上取得了显著的性能,但它们在处理复杂推理任务时,如回答数学问题,往往表现不佳。

为了解决这个问题,华为诺亚方舟实验室的研究人员提出了一种名为MindStar(M*)的新型推理框架。MindStar是一种基于搜索的推理方法,旨在通过在推理过程中的每个步骤评估和选择最佳的推理路径,来增强LLM的推理能力。

MindStar的核心思想是,LLM在面对复杂推理任务时,可能知道如何产生正确的答案,但选择正确的推理路径却很困难。因此,MindStar通过将推理任务转化为搜索问题,并提出了两种搜索策略来识别最佳的推理路径。

首先,MindStar使用了一个名为Process-supervised Reward Model(PRM)的奖励模型来评估每个推理步骤的正确性。PRM基于先前的推理步骤和潜在的下一个步骤,为每个步骤生成一个奖励值。然后,MindStar使用这个奖励值来选择最佳的推理路径。

其次,MindStar采用了两种搜索算法:Beam Search和Levin Tree Search。Beam Search是一种贪婪算法,它使用PRM的奖励值作为启发式信息,选择下一个最佳的推理步骤。Levin Tree Search则结合了PRM的奖励值和推理路径的深度,以选择最佳的推理路径。

研究人员在GSM8K和MATH数据集上评估了MindStar的性能,并与现有的开源和闭源LLM进行了比较。结果显示,MindStar显著增强了开源模型(如LLaMA-2-13B和Mistral-7B)的推理能力,并取得了与GPT-3.5和Grok-1等闭源模型相当的性能,但所需的模型大小和计算成本要低得多。

然而,MindStar也存在一些限制。首先,由于MindStar在推理过程中生成了更多的推理步骤,因此它的推理成本较高。其次,MindStar需要一个预先训练的PRM模型来评估推理步骤的正确性,这需要额外的训练数据和计算资源。

尽管存在这些限制,但MindStar为增强LLM的推理能力提供了一种有希望的方法。通过将推理任务转化为搜索问题,并使用PRM和搜索算法来选择最佳的推理路径,MindStar有潜力在各种推理任务上实现更好的性能。

此外,MindStar还为未来的研究提供了一些有趣的方向。例如,研究人员可以探索如何进一步优化MindStar的搜索策略,以减少推理成本并提高性能。他们还可以研究如何将MindStar应用于其他类型的推理任务,如常识推理或逻辑推理。

论文地址:https://arxiv.org/pdf/2405.16265v4

目录
相关文章
|
19天前
|
机器学习/深度学习 人工智能 缓存
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜
英伟达推出的Star Attention技术,旨在解决Transformer模型在长序列推理中的高计算成本与速度瓶颈问题。通过两阶段块稀疏近似方法,第一阶段利用块局部注意力并行处理上下文信息,第二阶段通过全局注意力机制交互查询与缓存令牌,从而显著提升计算效率并减少通信开销。该技术可无缝集成到现有LLM中,将内存需求和推理时间降低多达11倍,同时保持高准确性。然而,其在极长序列处理中可能面临内存限制,并增加模型复杂性。尽管如此,Star Attention为长序列推理提供了创新解决方案,推动了Transformer模型的实际应用潜力。
50 19
|
3月前
|
存储 弹性计算 调度
基于Knative的LLM推理场景弹性伸缩方案
Knative的基于请求弹性配置与大语言模型(LLM)的推理场景高度契合。此外,它的资源降配特性可以显著帮助用户降低成本。本文详细介绍基于 Knative 的 LLM 推理场景弹性伸缩方案。
|
2月前
|
机器学习/深度学习 存储 缓存
LLM高效推理:KV缓存与分页注意力机制深度解析
随着大型语言模型(LLM)规模和复杂性的增长,高效推理变得至关重要。KV缓存和分页注意力是优化LLM推理的两项关键技术。KV缓存通过存储键值对减少重复计算,而分页注意力则通过将序列分割成小块来降低内存消耗,从而有效处理长序列。本文深入剖析这些技术的工作原理及其在仅解码器模型中的应用,探讨其优势与挑战,并展示其实现示例。
97 16
LLM高效推理:KV缓存与分页注意力机制深度解析
|
2月前
|
人工智能 搜索推荐 API
node-DeepResearch:开源复现版OpenAI Deep Research,支持多步推理和复杂查询的AI智能体
node-DeepResearch 是一个开源 AI 智能体项目,支持多步推理和复杂查询,帮助用户逐步解决问题。
310 27
node-DeepResearch:开源复现版OpenAI Deep Research,支持多步推理和复杂查询的AI智能体
|
2月前
|
机器学习/深度学习 人工智能 算法
o3-mini:OpenAI 发布最新推理模型,强大的STEM推理能力,灵活调整推理强度
OpenAI o3-mini是OpenAI推出的全新推理模型,专为科学、数学和编程等技术领域优化,支持三种推理强度,灵活调整性能。
214 25
o3-mini:OpenAI 发布最新推理模型,强大的STEM推理能力,灵活调整推理强度
|
2月前
|
机器学习/深度学习 人工智能 测试技术
仅7B的模型数学推理能力完虐70B?MIT哈佛推出行动思维链COAT让LLM实现自我反思并探索新策略
Satori 是由 MIT 和哈佛大学等机构联合推出的 7B 参数大型语言模型,专注于提升推理能力,具备强大的自回归搜索和自我纠错功能。
117 6
仅7B的模型数学推理能力完虐70B?MIT哈佛推出行动思维链COAT让LLM实现自我反思并探索新策略
|
3月前
|
人工智能 知识图谱 Docker
KAG:增强 LLM 的专业能力!蚂蚁集团推出专业领域知识增强框架,支持逻辑推理和多跳问答
KAG 是蚂蚁集团推出的专业领域知识服务框架,通过知识增强提升大型语言模型在特定领域的问答性能,支持逻辑推理和多跳事实问答,显著提升推理和问答的准确性和效率。
820 46
KAG:增强 LLM 的专业能力!蚂蚁集团推出专业领域知识增强框架,支持逻辑推理和多跳问答
|
2月前
|
存储 Kubernetes 测试技术
企业级LLM推理部署新范式:基于ACK的DeepSeek蒸馏模型生产环境落地指南
企业级LLM推理部署新范式:基于ACK的DeepSeek蒸馏模型生产环境落地指南
70 12
|
26天前
|
人工智能 自然语言处理 算法
AI做数学学会动脑子! UCL等发现LLM程序性知识,推理绝不是背答案
大型语言模型(LLM)在数学推理中的表现一直备受争议。伦敦大学学院等机构的研究发现,LLM可能通过综合程序性知识而非简单检索来解决数学问题。研究分析了7B和35B参数模型在三个简单数学任务中的数据依赖,表明模型更关注解决问题的过程和方法,而非答案本身。这一发现为改进AI系统提供了新思路,但也指出LLM在复杂问题处理上仍存在局限。论文地址:https://arxiv.org/abs/2411.12580
42 2
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
DeepSeek 开源 R1 系列推理模型,性能对标 OpenAI o1,基于纯强化学习完成自我进化,无需监督微调
DeepSeek R1-Zero 是一款基于纯强化学习的开源推理模型,无需监督微调数据,支持多任务泛化与自我进化,适用于数学推理、代码生成等场景。
587 21
DeepSeek 开源 R1 系列推理模型,性能对标 OpenAI o1,基于纯强化学习完成自我进化,无需监督微调

热门文章

最新文章