Jeff Dean等人新作:换个角度审视语言模型,规模不够发现不了

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: Jeff Dean等人新作:换个角度审视语言模型,规模不够发现不了

这是一篇来自谷歌、斯坦福大学、北卡罗来纳大学教堂山分校以及 DeepMind 四个机构的研究,论文从「涌现(emergence)」的角度介绍大模型,所谓的,即有些现象不存在于较小的模型中但存在于较大的模型中。

近年来,语言模型对自然语言处理 (NLP) 产生了革命性影响。众所周知,扩展语言模型,例如参数等,可以在一系列下游 NLP 任务上带来更好的性能和样本效率。在许多情况下,扩展对性能的影响通常可以通过扩展定律进行预测,一直以来,绝大多数研究者都在研究可预测现象。


相反,包括 Jeff Dean 、 Percy Liang 等在内的 16 位研究者合作的论文《 Emergent Abilities of Large Language Models 》,他们讨论了大模型不可预测现象,并称之为大型语言模型的涌现能力( emergent abilities)。所谓的,即有些现象不存在于较小的模型中但存在于较大的模型中,他们认为模型的这种能力是的。


作为一种想法已经在物理学、生物学和计算机科学等领域讨论了很长时间,本论文从的一般定义开始,该定义改编自 Steinhardt 的研究,并植根于 1972 年诺贝尔奖获得者、物理学家 Philip Anderson 的一篇名为 More Is Different 的文章。


本文探讨了模型规模的,通过训练计算和模型参数来衡量。具体而言,本文将大型语言模型的能力定义为在小规模模型中不存在、但在大规模模型中存在的能力;因此,大型模型不能通过简单地推断小规模模型的性能改进来进行预测。该研究调查了在一系列先前工作中观察到的模型能力,并将它们进行分类:小样本提示和增强提示等设置。


模型的这种能力激发了未来的研究,即为什么会获得这些能力,以及更大的规模是否会获得更多的能力,并强调了这项研究的重要性。



论文地址:https://arxiv.org/pdf/2206.07682.pdf


小样本提示任务


本文首先讨论了提示范式中的能力。例如在 GPT-3 提示中,给出预训练语言模型任务提示,模型无需进一步训练或对参数进行梯度更新即可完成响应。此外,Brown 等人提出了小样本提示,他们将模型上下文(输入)中的一些输入输出示例作为提示(preamble),然后要求模型执行未见过的推理任务。图 1 为一个提示示例。



当模型具有随机性能且具有一定规模时,通过小样本提示就可以执行任务,这时能力就会出现,之后模型性能远远高于随机性能。下图展示了 5 个语言模型系列(LaMDA、GPT-3、Gopher、Chinchilla 以及 PaLM  )的 8 种能力。



BIG-Bench:图 2A-D 描述了来自 BIG-Bench 的四个小样本提示任务,BIG-Bench 是一个由 200 多个语言模型评估基准的套件。图 2A 显示了一个算术基准,它测试了 3 位数字的加减法,以及 2 位数字的乘法。表 1 给出了 BIG-Bench 更多能力。



增强提示策略


目前来看,尽管小样本提示是与大型语言模型交互的最常见方式,但最近的工作已经提出了其他几种提示和微调策略,以进一步增强语言模型的能力。如果一项技术在应用到一个足够大的模型之前没有显示出改进或者是有害的,本文也认为该技术也是一种能力。


多步推理(Multi-step reasoning):对于语言模型和 NLP 模型来说,推理任务,尤其是那些涉及多步推理的任务一直是一个很大的挑战。最近有一种名为思维链(chain-of-thought)提示策略,通过引导语言模型在给出最终答案之前生成一系列中间步骤,从而使它们能够解决这类问题。如图 3A 所示,当扩展到 1023 次训练 FLOP(~ 100B 参数)时,思维链提示只超过了没有中间步骤的标准提示。


指令( Instruction following ):如图 3B 所示,Wei 等人发现,当训练 FLOP 为 7 · 10^21  (8B 参数)或更小时,指令微调(instruction-finetuning)技术会损害模型性能,在将训练 FLOP 扩展到 10^23 (~100B 参数)时才能提高性能。


程序执行( Program execution ):如图 3C 所示,在 8 位加法的域内评估中,使用暂存器仅有助于 ∼9 · 10^19 个训练 FLOP(40M 参数)或更大的模型。图 3D 显示这些模型也可以泛化到域外 9 位加法,它出现在 ∼1.3 · 10^20 个训练 FLOPs(100M 参数)。



本文讨论了语言模型的能力,到目前为止,仅在一定的计算规模上才能观察到有意义的性能。模型的这种能力可以跨越各种语言模型、任务类型和实验场景。这种涌现的存在意味着额外的规模扩展可以进一步扩大语言模型的能力范围。这种能力是最近发现的语言模型扩展的结果,关于它们是如何出现的,以及更多的扩展是否会带来更多的涌现能力,可能是NLP领域未来重要的研究方向。


更多内容,请参考原论文。


相关文章
|
9月前
|
SQL 机器学习/深度学习 自然语言处理
个人眼中的大模型
纵观最近两年互联网科技圈,大模型在自然语言工程领域的崛起确实给我们带来了很多新的可能性和机遇。结合我最近阅读了阿里开发者写的《应用开发者的疑问:大模型是真正的银弹吗?》这篇文章,是否可以将大模型视为真正的银弹呢?关于这个问题,我有一些个人观点想要分享一下,分享一下个人是否觉得大模型就是真正的银弹。
97 1
个人眼中的大模型
|
9月前
|
机器学习/深度学习 算法 Python
机器学习中的人生启示:“没有免费的午餐”定理(NFL)的个人发展之道→探讨感觉和身边其他人有差距怎么办?
机器学习中的人生启示:“没有免费的午餐”定理(NFL)的个人发展之道→探讨感觉和身边其他人有差距怎么办?
98 0
机器学习中的人生启示:“没有免费的午餐”定理(NFL)的个人发展之道→探讨感觉和身边其他人有差距怎么办?
|
12月前
|
存储 JSON 人工智能
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
128 0
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
|
12月前
|
人工智能 自然语言处理 安全
AI卷趴程序员!DeepMind祭出竞赛级代码生成系统AlphaCode,超越近半码农
AI卷趴程序员!DeepMind祭出竞赛级代码生成系统AlphaCode,超越近半码农
|
机器学习/深度学习 运维 算法
华裔女博士生一作:Facebook提出用于超参数调整的自我监督学习框架
Facebook的研究人员近日提出了一种用于超参数调整的自我监督学习框架。这个新模型实现了准确预测的结果,估计超参数的速度快了6到20倍。
134 0
华裔女博士生一作:Facebook提出用于超参数调整的自我监督学习框架
|
机器学习/深度学习 人工智能 算法
南大周志华、俞扬、钱超最新力作:《演化学习:理论与算法进展》正式上线
梯度下降或最速下降法,是机器学习最为重要的模块之一。尤其是在深度学习时代,梯度下降已成为不可或缺的组成部分。但同时,梯度下降也限制了机器学习推广到更广泛的一些任务中,例如不可微的目标函数。这一缺陷,却正好能被本书的主题「演化学习」解决。
385 0
南大周志华、俞扬、钱超最新力作:《演化学习:理论与算法进展》正式上线
|
机器学习/深度学习 存储 人工智能
还为售票员被抢走工作担心?斯坦福最新研究:分析师等高薪高学历职位受AI影响最大
随着近年来人工智能的兴起,其应用也逐渐渗透到各个领域当中,在一系列有价值的任务中人工智能往往可以取得超人般的表现,这引发了人们对于“未来工作”讨论的兴趣,当然也引发了一系列焦虑:我的工作会被取代吗?
还为售票员被抢走工作担心?斯坦福最新研究:分析师等高薪高学历职位受AI影响最大
|
机器学习/深度学习 数据采集 人工智能
CIKM AnalytiCup 2018冠军方案出炉,看他们构造模型的诀窍
阿里小蜜机器人跨语言短文本匹配算法竞赛近日落幕,由微软罗志鹏、微软孙浩,北京大学黄坚强,华中科技大学刘志豪组成的 DeepSmart 团队一举夺冠。
444 0