500篇论文!最全代码大模型综述来袭

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 11月14日,蚂蚁集团联合上海交通大学发布55页代码大模型综述,覆盖超过50个模型、30个下游任务、500篇参考文献,全方位总结大语言模型在代码相关应用中的最新进展与挑战。

v .png

11月14日,蚂蚁集团联合上海交通大学发布55页代码大模型综述,覆盖超过50个模型、30个下游任务、500篇参考文献,全方位总结大语言模型在代码相关应用中的最新进展与挑战。

1700104671850-cd799856-5706-4136-b0a3-9d67965da425.png

论文链接: https://arxiv.org/abs/2311.07989

Repo: https://github.com/codefuse-ai/Awesome-Code-LLM

Twitter 大V转发: https://twitter.com/_akhaliq/status/1724630901441585521

Repo 会持续更新,添加最新论文,欢迎大家关注。


1. 引言

随着大语言模型遍地开花式的涌现,如何将他们与实际应用,尤其是软件工程相关应用进行有效结合成为了学界与工业界都日益关注的问题。然而,目前这些应用仍非常有限:以 HumanEval、MBPP 为代表的代码生成任务在 NLP 与大模型社区中一枝独秀,但这些经典数据集上的性能已接近饱和,而其他诸如代码翻译、代码注释、单元测试生成等任务则鲜有人问津。另一方面,在软件工程社区中,语言模型的应用则仍以CodeBERT为代表的 encoder-only 模型和 CodeT5 为代表的 encoder-decoder 模型为主,而 GPT 系列大模型的工业级应用方兴未艾。

与此前已有的多篇综述不同,本文从跨学科视角出发,全面调研 NLP 与软件工程(SE)两个学科社区的工作,既覆盖以 OpenAI GPT 系列与 Meta LLaMA 系列为代表的生成式大模型与代码生成任务,也覆盖 CodeBERT 等专业代码小模型及代码翻译等其他下游任务,并重点关注 NLP 与 SE 的融合发展趋势。

本文分为技术背景、代码模型、下游任务、机遇挑战四部分。第一部分介绍语言模型的基本原理与常见训练目标,以及对 Transformer 基本架构的最新改进。第二部分介绍 Codex、PaLM 等通用大模型及 CodeGen、StarCoder 等专业代码模型,并包括指令微调、强化学习等 NLP 技术以及 AST、DFG、IR 等程序特征在代码模型中的应用。第三部分简单介绍 30+ 个代码下游任务,并列出常见数据集。第四部分给出当下代码大模型的机遇与挑战。


2. 技术背景

虽然如今的生成式大模型大都基于 Transformer decoder,但其架构并不是自从2017年提出以来就一尘不变。本节简单介绍前置层正则化(pre-norm),并行注意力(parallel attention),旋转位置编码(RoPE),多检索注意力和群检索注意力(MQA、GQA),以及针对注意力的硬件IO优化(FlashAttention),熟悉的朋友可以略过~


2.1. 经典多头自注意力

在2017年的论文 Attention Is All You Need 中,Transformer 的每一层定义如下:

截屏2023-11-17 14.33.56.png

其中LN为层正则化(Layer Normalization),Attention为多头自注意力(MHA)子层,FFN为全连接(Feed-Forward Network)子层。

2.2. 前置层正则化

2019年,GPT-2将层正则化移到了每一子层的输入:

截屏2023-11-17 14.34.22.png

后续 decoder-only 工作基本效仿了这一架构让训练更加稳定,在encoder-decoder模型方面,T5系列也采用了这一架构。


2.3. 并行注意力

2021年,GPT-J 将自注意力与全连接层的顺序计算改为了并行以提高训练效率:

截屏2023-11-17 14.36.30.png

PaLM论文实验中发现使用此架构可以提高15%训练速度,在8B模型上对性能稍有损害,在62B模型上则基本没有影响。


2.4. 位置编码

由于自注意力无法区分输入词元间的位置关系,位置编码是 Transformer 架构的重要组成部分,其外推能力也决定了模型能处理的序列长度。

经典 Transformer 使用不可学习的余弦编码,加在模型底层的词向量输入上。GPT、BERT将其改为可学习的绝对位置编码,并沿用到了RoBERTa、BART、GPT-2、GPT-3等经典模型。Transformer-XL 与 XLNet 使用相对位置编码,根据自注意力中 k 与 q 的相对位置关系将对应可学习的向量加在 k 上,而 T5 则对此做了简化,将每个相对位置的编码作为可学习的标量加在 k 与 q 的点积结果上。

RoPE(Rotary Position Embedding)与 ALiBi(Attention with Linear Biases)是两种最新的位置编码技术。RoPE 将 q 与 k 乘以分块对角旋转矩阵来注入位置信息:

1700112453144-434b7db1-d981-4596-a1b5-67d4cdf8bc7a.png

图源 RoPE 论文,图中 m 为位置下标。PaLM、LLaMA 等主流大模型都采用了 RoPE。

而 ALiBi 直接对注意力矩阵进行先行衰减:

1700112707345-e60542b0-2f88-4d59-b700-2f104b5c51f9.png

图源 ALiBi 论文。BLOOM 使用 ALiBi 作为位置编码。


2.5. MQA、GQA、FlashAttention

Transformer 架构的一大挑战是自注意力关于输入序列长度的平方复杂度。许多工作通过近似方法来模拟自注意力并同时降低复杂度,如 Sparse Transformer, Reformer, Longformer, Linformer, Performer, Sinkformer, cosFormer, Sliceformer 等,但这些方法都没有在大模型上得到测试。另外,这些方法有很多的出发点是序列长度与隐藏层纬度的关系 n<<d,而这在现有大模型中并不成立(例如,GPT-3 175B 的序列长度为 2048,而隐藏层纬度为12288)。

因此,大模型中针对自注意力的加速优化通常出发点并不是注意力的计算过程,而是硬件的读写。MQA 就是基于此思想,在多头自注意力中让不同头之间共享 K 与 V,而每个头保留自己的 Q。此优化对训练速度几乎无影响,而对推理速度则直接提升 h 倍(h为注意力头数,如 BERT-large 为 16,GPT-3 175B为96)。此加速的来源是推理阶段所有词元需要自回归生成,而在生成过程中每一步的计算都涉及此前所有词元的 q 与 k。将这些 q 与 k从显存加载到GPU计算核心的过程构成了性能瓶颈。

至于GQA则顾名思义,是MHA与MQA的中间产品:

1700113742825-e6b07cc3-9e15-4ea8-8386-1493d9467514.png

图源GQA论文。

在主流大模型中,PaLM 使用 MQA,而 LLaMA 2 及其变体 Code LLaMA 使用 GQA。

另一相关技术是FlashAttention。该技术通过分布式计算中的 tiling 技术对注意力矩阵的计算进行优化。值得注意的是,与其他优化技术不同,FlashAttention 并不是近似方法,不会改变计算结果。


3. 代码模型

我们将代码模型按预训练领域分为通用大模型、代码加训大模型及在代码上从零开始预训练的专业模型,并将最后一类按模型架构分为 Transformer encoder、decoder、encoder-decoder以及 UniLM,同时也特别关注了今年出现的在代码上进行指令微调、利用编译器反馈进行强化学习的工作,以及将语法树、数据流等程序特有特征融入模型中的工作:

1699856679649-2398b0c4-59af-4584-9c93-ec2a90b518c8.png


3.1. 通用大模型与加训大模型

提起代码大模型,大部分人最熟悉的就当数 Codex 了。Codex 是基于 GPT-3 在 Python 数据上进行了 100B 词元自监督加训获得的模型。与 Codex 类似的还有对 PaLM 做了 39B 词元加训的 PaLM Coder,以及对 LLaMA 2做了超过 500B 词元加训的 Code LLaMA。

当然,大模型并不一定需要加训才能处理代码。如今的大模型预训练数据量动辄数万亿词元,其中就经常包括代码。例如,最常用的公开预训练数据集之一Pile就包括了95GB的代码,而BLOOM的预训练数据集ROOTS也包括了163GB、13种编程语言的代码。

通用大模型在HumanEval与MBPP上的性能:

1700114603451-898df28c-aefe-4daa-ab0b-8f1b369a077c.png


3.2. 代码专用模型

自从GPT、BERT掀起预训练模型热潮后,软件工程领域就已有不少工作在代码上复现了这些模型。

与此前综述不同,我们不仅关注各模型的训练目标与数据等高层设计,也详细讨论了包括位置编码、注意力实现在内的技术细节,并总结进一图概览供大家查阅:

1699857032849-149f8145-7d1d-4270-b9d1-527ab6ea5062.png


3.2.1. Encoder

CodeBERT 是软工领域最有影响力的模型之一。它从 RoBERTa 初始化,用 MLM+RTD(RTD 是 ELECTRA 的预训练目标 Replaced Token Detection)的目标在代码上进行了训练。从上表可以看出,此后的多个 encoder 代码模型,包括 GraphCodeBERT, SynCoBERT, Code-MVP,都是基于 CodeBERT 开发。

在 NLP 中,BERT 预训练时还使用了 NSP(Next-Sentence Prediction)任务。虽然以 RoBERTa 为代表的后期工作大都认为该任务并没有帮助,但该任务的格式也为 encoder 预训练开拓了思路,在代码模型中催生出了很多变种。由于代码不同于自然语言,可以通过自动化方法抽取抽象语法树(AST)及注释等伴随特征,以 NSP 的格式进行对比学习成了一种常见方法。SynCoBERT 在代码-AST,注释-代码-AST等不同特征之间进行对比学习,DISCO则分别使用bug注入和保持语义的变换来构建正负样本,而Code-MVP则还额外加入了控制流(CFG)信息。


3.2.2. Decoder

说起 decoder,大家第一个想到的当然就是 GPT 模式的自回归预训练了。确实,自从2020年以来已经出现了包括 GPT-C, CodeGPT, PolyCoder, CodeGen, PyCodeGPT, PanGu-Coder, CodeGeeX, Phi-1, CodeFuse, CodeShell, DeepSeek Coder 在内的众多自回归 decoder,大小从 100M 到 16B 不等。

但是,以 InCoder、FIM、SantaCoder、StarCoder 为代表的部分工作也探索了使用非传统自回归目标来训练 decoder 的可能。这些工作首先将输入数据转换为填空的形式:将整段输入随机切分为前缀-中部-后缀三段,并将其重新排序为前缀-后缀-中部(PSM 格式)或后缀-前缀-中部(SPM 格式),然后再将数据送进模型进行自回归训练。需要注意的是,在数据转换之后三段都参与自回归预训练。


3.2.3. Encoder-Decoder

在 NLP 中,以 BART 与 T5 为代表的 encoder-decoder 模型即使在如今的大模型时代也仍占据着一席之地,代码处理自然也少不了它们的身影。

由于编码器-解码器架构能够天然处理序列到序列建模问题,因此在代码模型的训练过程中除了 BART 的 DAE(Denoising Auto-Encoding)与 T5 的 Span Corruption 这两个标准任务,许多代码特有的特征也被用来进行序列到序列的预训练学习。例如 DOBF 就是用反混淆任务,来训练模型将混淆后的代码转换为原始代码。类似的,NatGen 提出了“自然化”任务,从人工转换产生的非自然代码来复原原始代码。

标识符预测也是代码预训练中的另一常见的任务。CodeT5 以序列标注的形式来在预训练过程中学习每个词元是否为标识符,而 SPT-Code 则直接以序列到序列生成的形式来预测方法名。

此外,随着 NLP 中 UL2 将自回归预训练与去噪预训练统一到了 encoder-decoder 架构下,最新的 encoder-decoder 代码模型 CodeT5+ 也采用了类似的预训练方式。


3.3. 指令微调与强化学习

在 NLP 中,指令微调(instruction finetuning)与人类反馈强化学习(RLHF)在 ChatGPT 等对话模型的人类对齐过程中起到了必不可少的作用。指令微调通过在多样的指令数据集上训练模型来解锁跨任务泛化的能力,而强化学习则通过奖励模型的自动化反馈来训练模型向人类的偏好(如帮助性 Helpfulness,以及安全性 Safety 等)对齐。

这两项技术也在代码处理中得到了应用。WizardCoder 与 PanGu-Coder 2 都使用 NLP 中 WizardLM 模型提出的 Evol-Instruct 方法,用 ChatGPT 等模型来从现有的指令数据中进化出更多样的指令集,并用生成的指令来微调 StarCoder。OctoCoder 与 OctoGeeX 则没有使用大模型生成的指令,而是使用了 GitHub 上的 commit 记录及前后代码来作为指令微调 StarCoder 与 CodeGeeX。最近,蚂蚁集团开源的 MFTCoder 框架还在指令数据中显式加入了多种下游任务,来定点提升微调模型在这些任务上的性能。

而在强化学习方面,代码处理相较自然语言处理存在着天然优势 - 编译器可以代替人类来自动化地生成精准的反馈。CompCoder、CodeRL、PPOCoder、RLTF 等工作就利用了这一特性来微调 CodeGPT 或 CodeT5,PanGu-Coder 2 也将强化学习应用在了更大的 StarCoder 中。


4. 下游任务

随着以 Codex 为代表的代码大模型的兴起,根据自然语言描述生成相应代码的代码生成任务成了大模型关注的重点,HumanEval 也成为了最新大模型必测的基准:

1699857213023-9e0714c0-ed56-47f1-a5cd-b3c37525e6a2.png

但除了代码生成,我们也整理了其他30个 SE 下游任务:

  • SQL 生成:从自然语言查询生成 SQL 语句
  • 数学编程:通过生成代码来解决 GSM8K 等数学任务
  • 代码检索:从现有代码池中匹配与自然语言查询最匹配的代码
  • 代码搜索:从现有代码池中匹配与输入代码具有相同或相似功能的代码
  • 代码补全:根据代码片段补全其余部分,常用于 IDE 插件
  • 代码翻译:将代码从一种编程语言翻译到另一种编程语言
  • 代码修复:修复代码中的bug
  • 代码填充:类似代码补全,但可以参考两边而不仅是单边的上下文
  • 代码去混淆:从混淆(即改变了标识符名称)的代码中复原出原始代码
  • 软件测试相关任务:单元测试生成,断言生成,变种生成,测试输入生成,代码评估
  • 类预测:预测动态编程语言(如Python)代码中变量类型或函数参数、返回值的类型
  • 代码摘要:为代码生成相应的自然语言解释或文档
  • 标识符预测:预测代码中有意义的标识符(变量、函数、类等)名字
  • 缺陷检测:检测输入代码是否存在缺陷或漏洞
  • 克隆检测:检测两段输入代码是否语义相等
  • 代码推理:以问答的形式评估大模型对代码相关知识(如代码功能、概念、算法等)的掌握
  • 代码分类:在事先定义好的类别中判断代码的功能,也可以是判断代码的作者
  • 文档翻译:将代码相关文档从一种自然语言翻译到另一种自然语言
  • 记录分析:对软件系统运行过程中产生的记录进行分析,输出形式化的表格或自动检测问题所在

在论文中,我们也罗列了部分任务的现有标准数据集:

1699857369123-997b76ee-84e7-49b4-a090-acfb4ebb0660.png

1699857374000-9ea417bb-1129-4973-abb1-63e972261048.png

1699857383534-0be0f3eb-2bc5-499b-87a1-4a419cbbe6a3.png

1700014901631-8d6d0b24-1684-4723-bd19-e6f59a8d63b3.png

这些数据集的网址链接都在 GitHub repo 中给出,而其他任务,尤其是单元测试生成、断言生成、代码反混淆等软件测试相关任务,目前还没有大规模的标准数据集,大语言模型在其中的应用也较少,是 NLP 与 SE 未来工作可以重点考虑的方向。


5. 机遇挑战

不久之前,Github Universe 2023上,微软发布了一些 GitHub Copilot 的更新,包括 Copilot Workspace 这种引领业界前沿的工作:从一个 Issue 开始,在软件研发的整个生命周期做到仓库级别的需求实现、测试、构建等迭代。这也给了我们很大的启发。基于前面的分析和相关先驱探索的启发,本文的最后也总结了在软件工程中应用语言模型的当下挑战:

  • 构建更真实的评估基准,来替代以几乎被刷爆的 HumanEval
  • 获取更高质量的数据,以及对 Phi-1 等模型“用 AI 数据训练 AI”的理解与反思
  • 将抽象语法树、数据流、控制流等代码独有且可以自动获取的特征无缝衔接进大语言模型
  • 在更多 SE 下游任务,尤其是软件测试相关任务中应用大语言模型
  • 非传统的模型架构及训练目标,如在以微软 CodeFusion 为代表的 Diffusion 模型等
  • 围绕大语言模型为软件开发全过程构建生态系统,打破当下大模型大都作为 IDE 插件的局限
  • 对大模型生成代码进行更好的监控与管理,规避相关风险


6. 联系我们

除了本综述,我们的其他工作,包括模型和数据集,也在陆续开源中。如果您喜欢我们的工作,欢迎试用、指正错误和贡献代码,可以的话请给我们的项目增加Star以支持我们。

目录
相关文章
|
5月前
|
数据采集 人工智能 算法
视觉语言模型导论:这篇论文能成为你进军VLM的第一步
【6月更文挑战第20天】探索AI如何理解与生成图像和文本,VLM结合图像与文本映射,涉及图像描述、问答等任务。论文由多所名校和机构研究人员共创,介绍VLM历史、类型(对比学习、掩码、生成、预训练)及应用,如图像生成和问答。同时,讨论数据质量、计算资源和模型可解释性的挑战。[阅读更多](https://arxiv.org/pdf/2405.17247)
173 2
|
机器学习/深度学习 人工智能 测试技术
三篇论文:速览GPT在网络安全最新论文中的应用案例
三篇论文:速览GPT在网络安全最新论文中的应用案例
184 0
|
存储 机器学习/深度学习 人工智能
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应
554 1
|
机器学习/深度学习 人工智能 自然语言处理
NTU、上海AI Lab整理300+论文:基于Transformer的视觉分割最新综述出炉
NTU、上海AI Lab整理300+论文:基于Transformer的视觉分割最新综述出炉
158 0
|
机器学习/深度学习 自然语言处理 计算机视觉
扩散模型爆火,这是首篇综述与Github论文分类汇总(2)
扩散模型爆火,这是首篇综述与Github论文分类汇总
325 0
|
机器学习/深度学习 自然语言处理 算法
扩散模型爆火,这是首篇综述与Github论文分类汇总(1)
扩散模型爆火,这是首篇综述与Github论文分类汇总
872 0
|
机器学习/深度学习 人工智能 自然语言处理
史上最全Transformer合集!LeCun力推:给60个模型建目录,哪篇论文你错过了?
史上最全Transformer合集!LeCun力推:给60个模型建目录,哪篇论文你错过了?
393 0
|
机器学习/深度学习 算法 vr&ar
南大最新综述论文:基于模型的强化学习
南大最新综述论文:基于模型的强化学习
190 0
|
机器学习/深度学习 自然语言处理 搜索推荐
机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面(一)
机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面(一)
285 0
机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面(一)
|
机器学习/深度学习 人工智能 计算机视觉
超全!CS 顶会历届最佳论文大列表,机器学习、深度学习一应俱全!
超全!CS 顶会历届最佳论文大列表,机器学习、深度学习一应俱全!
420 0
超全!CS 顶会历届最佳论文大列表,机器学习、深度学习一应俱全!