公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4

简介: 【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]

最近,一篇关于语言模型(LLM)的论文引起了广泛关注。该论文提出了一种名为"公理训练"的新方法,通过该方法,一个只有6700万参数的LLM能够学会因果推理,并在多个任务上表现出与万亿参数级的GPT-4相媲美的性能。

论文中,研究人员首先指出了因果推理在现实世界中的重要性。他们指出,对于基于文本的AI系统来说,因果推理是一项基本技能,因为它涉及到理解和预测现实世界中事件之间的因果关系。然而,由于干预性数据的获取成本较高,研究人员开始探索是否可以通过被动数据来教授因果推理。

为了解决这个问题,研究人员提出了一种名为"公理训练"的新方法。在这种方法中,研究人员首先定义了一系列因果公理,然后通过向模型提供这些公理的多个示例,让模型学会应用这些公理。具体来说,他们将每个因果公理表示为一个三元组,其中包含前提、假设和结论。然后,他们通过改变变量名称、数量和顺序等方式,生成了大量的合成数据,用于训练模型。

在实验中,研究人员使用了一种基于Transformer的模型,该模型具有6700万参数。他们首先在简单的因果链上训练模型,然后在更复杂的图结构上进行测试,包括更长的因果链、具有分支的图等。结果显示,经过公理训练的模型能够很好地泛化到新的图结构上,并在多个任务上表现出与GPT-4相媲美的性能。

然而,研究人员也指出了公理训练的一些局限性。首先,公理训练需要大量的合成数据,这可能会增加训练的计算成本。其次,公理训练可能无法处理一些复杂的因果关系,例如那些涉及多个变量之间的相互作用的关系。最后,公理训练可能无法处理那些在训练数据中没有明确表示的因果关系。

尽管如此,研究人员认为,公理训练为教授LLM因果推理提供了一种有前途的方法。他们指出,通过将因果公理表示为自然语言,并使用合成数据进行训练,可以有效地教授模型因果推理的能力。此外,由于公理训练可以应用于任何可以表示为自然语言的因果公理,因此它具有广泛的应用潜力。

论文地址:https://arxiv.org/pdf/2407.07612

目录
相关文章
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
41 2
|
6天前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
27 4
|
17天前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
110 60
|
2天前
|
计算机视觉
Deepseek开源多模态LLM模型框架Janus,魔搭社区最佳实践
deepseek近期推出了简单、统一且灵活的多模态框架Janus,它能够统一处理多模态理解和生成任务。让我们一起来了解一下吧。
|
13天前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
28 0
|
13天前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
27 0
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
|
3月前
|
存储 SQL 数据库
Python 金融编程第二版(GPT 重译)(四)(4)
Python 金融编程第二版(GPT 重译)(四)
43 3
|
3月前
|
存储 NoSQL 索引
Python 金融编程第二版(GPT 重译)(一)(4)
Python 金融编程第二版(GPT 重译)(一)
50 2
|
3月前
|
存储 机器学习/深度学习 关系型数据库
Python 金融编程第二版(GPT 重译)(四)(5)
Python 金融编程第二版(GPT 重译)(四)
30 2