[大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

简介: [大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

[大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

论文信息:

Harnessing Diversity for Important Data Selection in Pretraining Large Language Models

Authors: Chi Zhang, Huaping Zhong, Kuan Zhang, Chengliang Chai, Rui Wang, Xinlin Zhuang, Tianyi Bai, Jiantao Qiu, Lei Cao, Ye Yuan, Guoren Wang and Conghui He

1. 概览

问题解决:

这篇论文解决的主要问题是在预训练大型语言模型(LLMs)时,如何从大规模可用的训练语料库中选择数据的问题。特别是在数据质量参差不齐的情况下,如何有效地选择对模型性能提升有重要影响的数据实例。

研究结果:

论文提出了一种名为Quad的新方法,该方法在考虑数据质量的同时,还考虑了数据的多样性。Quad利用数据影响(influence)来评估数据质量,并通过簇聚类和多臂赌博机(Multi-Armed Bandit, MAB)方法来确保数据多样性。实验结果表明,Quad方法在预训练阶段能够达到最先进的结果。

2. 研究背景

技术背景:

大型语言模型(LLMs)在人工智能领域取得了显著进展,它们通过扩展模型参数、非监督数据集大小和计算资源,能够成功处理广泛的下游任务。然而,预训练LLMs时计算资源有限,因此精心选择训练数据集对于产生高性能的LLMs至关重要。

发展历史:

以往的数据选择方法包括基于规则的数据过滤、查询高性能模型、使用替代模型等。这些方法虽然在某些数据集和模型上取得了成功,但它们依赖于简单的启发式规则,没有考虑所选数据对模型的影响,导致预训练结果次优。

3. 技术挑战

发展困难:

  • 计算成本高:计算所有可用数据的影响分数非常耗时,尤其是需要梯度计算的影响函数。
  • 数据多样性不足:仅选择影响分数最高的数据实例可能导致选择的数据在特征空间中分布过于集中,缺乏多样性,从而影响预训练模型对各种下游任务的泛化能力。

4. 如何破局

解决方法:

  • 簇聚类:Quad首先将数据集分成多个簇,使得同一簇内的数据实例相似,不同簇之间的数据实例具有多样性。
  • 多臂赌博机方法:每个簇被视为一个赌博机的臂,通过选择臂来抽取样本并计算影响分数,从而在确保高质量数据的同时,也保证了数据的多样性。
  • 加速iHV P计算方法:为了更准确地评估单个数据点对整体模型的影响,Quad扩展了从MLP层到整个层的加速iHV P计算方法。

5. 技术应用

实验设置:

  • 使用预训练的嵌入模型对候选池中的数据进行k-means聚类。
  • 通过计算簇间的距离并找到相邻簇,使用多臂赌博机方法选择数据子集。
  • 在在线过程中,将数据选择问题重新定义为多臂赌博机问题,每个簇代表一个臂。

潜在应用:

  • 该方法可以应用于任何需要预训练大型语言模型的场景,特别是在数据量巨大且质量不一的情况下。
  • 可以用于提高特定领域内大型模型的性能,通过选择与该领域相关的数据进行进一步训练。

6. 小结

这篇论文通过结合数据影响和多样性,为预训练大型语言模型的数据选择提供了一种新的方法,有望提高模型在各种下游任务中的性能和泛化能力。


后记

如果您对我的博客内容感兴趣,欢迎三连击(点赞,关注和评论),我将持续为您带来计算机人工智能前沿技术(尤其是AI相关的大语言模型,深度学习,计算机视觉相关方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

目录
相关文章
|
5月前
|
人工智能 自然语言处理 机器人
“大型语言模型”和“LLM”这些术语将变得不那么常见
【1月更文挑战第7天】“大型语言模型”和“LLM”这些术语将变得不那么常见
84 1
“大型语言模型”和“LLM”这些术语将变得不那么常见
|
机器学习/深度学习 自然语言处理 搜索推荐
9月大型语言模型研究论文总结
大型语言模型(llm)在今年发展迅速,随着新一代模型不断地被开发,研究人员和工程师了解最新进展变得非常重要。本文总结9-10月期间发布了一些重要的LLM论文。
94 0
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(上)
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(上)
19 2
|
4天前
|
机器学习/深度学习 人工智能 安全
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(下)
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(下)
15 1
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
【大语言模型-论文精读】谷歌-BERT:用于语言理解的预训练深度双向Transformers
【大语言模型-论文精读】谷歌-BERT:用于语言理解的预训练深度双向Transformers
17 1
|
4天前
|
机器学习/深度学习 开发框架 人工智能
[大语言模型-论文精读] 悉尼大学-ACL2024-提升大型语言模型的复杂视觉推理能力
[大语言模型-论文精读] 悉尼大学-ACL2024-提升大型语言模型的复杂视觉推理能力
10 0
|
4天前
|
机器学习/深度学习 人工智能 安全
[大语言模型-论文精读] 更大且更可指导的语言模型变得不那么可靠
[大语言模型-论文精读] 更大且更可指导的语言模型变得不那么可靠
9 0
|
16天前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
|
2月前
|
机器学习/深度学习 自然语言处理 数据处理
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
算法金 | 秒懂 AI - 深度学习五大模型:RNN、CNN、Transformer、BERT、GPT 简介
**RNN**,1986年提出,用于序列数据,如语言模型和语音识别,但原始模型有梯度消失问题。**LSTM**和**GRU**通过门控解决了此问题。 **CNN**,1989年引入,擅长图像处理,卷积层和池化层提取特征,经典应用包括图像分类和物体检测,如LeNet-5。 **Transformer**,2017年由Google推出,自注意力机制实现并行计算,优化了NLP效率,如机器翻译。 **BERT**,2018年Google的双向预训练模型,通过掩码语言模型改进上下文理解,适用于问答和文本分类。
143 9