[大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

简介: [大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

[大语言模型-论文精读] 利用多样性进行大型语言模型预训练中重要数据的选择

论文信息:

Harnessing Diversity for Important Data Selection in Pretraining Large Language Models

Authors: Chi Zhang, Huaping Zhong, Kuan Zhang, Chengliang Chai, Rui Wang, Xinlin Zhuang, Tianyi Bai, Jiantao Qiu, Lei Cao, Ye Yuan, Guoren Wang and Conghui He

1. 概览

问题解决:

这篇论文解决的主要问题是在预训练大型语言模型(LLMs)时,如何从大规模可用的训练语料库中选择数据的问题。特别是在数据质量参差不齐的情况下,如何有效地选择对模型性能提升有重要影响的数据实例。

研究结果:

论文提出了一种名为Quad的新方法,该方法在考虑数据质量的同时,还考虑了数据的多样性。Quad利用数据影响(influence)来评估数据质量,并通过簇聚类和多臂赌博机(Multi-Armed Bandit, MAB)方法来确保数据多样性。实验结果表明,Quad方法在预训练阶段能够达到最先进的结果。

2. 研究背景

技术背景:

大型语言模型(LLMs)在人工智能领域取得了显著进展,它们通过扩展模型参数、非监督数据集大小和计算资源,能够成功处理广泛的下游任务。然而,预训练LLMs时计算资源有限,因此精心选择训练数据集对于产生高性能的LLMs至关重要。

发展历史:

以往的数据选择方法包括基于规则的数据过滤、查询高性能模型、使用替代模型等。这些方法虽然在某些数据集和模型上取得了成功,但它们依赖于简单的启发式规则,没有考虑所选数据对模型的影响,导致预训练结果次优。

3. 技术挑战

发展困难:

  • 计算成本高:计算所有可用数据的影响分数非常耗时,尤其是需要梯度计算的影响函数。
  • 数据多样性不足:仅选择影响分数最高的数据实例可能导致选择的数据在特征空间中分布过于集中,缺乏多样性,从而影响预训练模型对各种下游任务的泛化能力。

4. 如何破局

解决方法:

  • 簇聚类:Quad首先将数据集分成多个簇,使得同一簇内的数据实例相似,不同簇之间的数据实例具有多样性。
  • 多臂赌博机方法:每个簇被视为一个赌博机的臂,通过选择臂来抽取样本并计算影响分数,从而在确保高质量数据的同时,也保证了数据的多样性。
  • 加速iHV P计算方法:为了更准确地评估单个数据点对整体模型的影响,Quad扩展了从MLP层到整个层的加速iHV P计算方法。

5. 技术应用

实验设置:

  • 使用预训练的嵌入模型对候选池中的数据进行k-means聚类。
  • 通过计算簇间的距离并找到相邻簇,使用多臂赌博机方法选择数据子集。
  • 在在线过程中,将数据选择问题重新定义为多臂赌博机问题,每个簇代表一个臂。

潜在应用:

  • 该方法可以应用于任何需要预训练大型语言模型的场景,特别是在数据量巨大且质量不一的情况下。
  • 可以用于提高特定领域内大型模型的性能,通过选择与该领域相关的数据进行进一步训练。

6. 小结

这篇论文通过结合数据影响和多样性,为预训练大型语言模型的数据选择提供了一种新的方法,有望提高模型在各种下游任务中的性能和泛化能力。


后记

如果您对我的博客内容感兴趣,欢迎三连击(点赞,关注和评论),我将持续为您带来计算机人工智能前沿技术(尤其是AI相关的大语言模型,深度学习,计算机视觉相关方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

目录
相关文章
|
自然语言处理 分布式计算 算法
淘宝用户体验VOC标签体系
淘宝用户体验VOC标签体系
813 0
|
10月前
|
机器学习/深度学习 自然语言处理 分布式计算
大规模语言模型与生成模型:技术原理、架构与应用
本文深入探讨了大规模语言模型(LLMs)和生成模型的技术原理、经典架构及应用。介绍了LLMs的关键特点,如海量数据训练、深层架构和自监督学习,以及常见模型如GPT、BERT和T5。同时,文章详细解析了生成模型的工作原理,包括自回归模型、自编码器和GANs,并讨论了这些模型在自然语言生成、机器翻译、对话系统和数据增强等领域的应用。最后,文章展望了未来的发展趋势,如模型压缩、跨模态生成和多语言多任务学习。
1261 3
|
人工智能 自然语言处理 前端开发
关于ToB垂直领域大模型的一点探索和尝试
本文分享了物流技术团队在垂直领域大模型开发和部署过程中的技术细节、挑战解决策略以及实际应用案例。
|
人工智能 自然语言处理 物联网
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
|
机器学习/深度学习 资源调度 分布式计算
阿里PAI-ChatLearn:大规模 Alignment高效训练框架正式开源
PAI-ChatLearn现已全面开源,助力用户快速、高效的Alignment训练体验。借助ChatLearn,用户可全身心投入于模型设计与效果优化,无需分心于底层技术细节。ChatLearn将承担起资源调度、数据传输、参数同步、分布式运行管理以及确保系统高效稳定运作的重任,为用户提供一站式解决方案。
|
机器学习/深度学习 自然语言处理 决策智能
ICML 2024:大语言模型预训练新前沿:最佳适配打包重塑文档处理标准
【5月更文挑战第27天】ICML 2024 提出大语言模型预训练新方法——最佳适配打包,解决文档截断问题,提高模型性能和可靠性。此方法通过优化组合,保留完整上下文,减少信息丢失,在阅读理解等任务上表现卓越。实验显示,不同尺寸和序列长度的模型使用此方法后,下游任务性能提升,幻觉现象减少。尽管计算资源需求增加,但该方法对预训练技术的改进具有重要意义。[论文链接](https://arxiv.org/pdf/2404.10830)
234 1
|
12月前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
11月前
|
存储 机器学习/深度学习 测试技术
[大语言模型-论文精读] 以《黑神话:悟空》为研究案例探讨VLMs能否玩动作角色扮演游戏?
[大语言模型-论文精读] 以《黑神话:悟空》为研究案例探讨VLMs能否玩动作角色扮演游戏?
294 0
|
11月前
|
机器学习/深度学习 人工智能 编解码
[大语言模型-论文精读] 词性对抗性攻击:文本到图像生成的实证研究
[大语言模型-论文精读] 词性对抗性攻击:文本到图像生成的实证研究
231 0
|
10月前
|
人工智能 机器人
“AI+儿童陪伴”,是噱头还是趋势?
AI陪伴型玩具逐渐成为家庭教育的新选择。它们不仅能够解放忙碌的家长,减轻其负担,还能满足孩子的好奇心,提供寓教于乐的成长环境。然而,AI技术尚未完全成熟,内容的准确性和产品的安全性仍需关注,家长在享受便利的同时,仍需谨慎陪伴。