FineWeb 2:开源的多语言预训练数据集,覆盖超过 1000 种语言

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: FineWeb 2 是由 Hugging Face 推出的多语言预训练数据集,覆盖超过 1000 种语言,支持多种 NLP 任务,如机器翻译和文本分类。该数据集通过定制化的数据处理流程,包括语言识别、去重、内容过滤和 PII 匿名化,提升了多语言模型的性能和泛化能力。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多语言支持:覆盖超过 1000 种语言,支持全球多种语言的 NLP 任务。
  2. 定制化处理:针对不同语言特性,调整数据处理流程,包括语言特定的过滤器和停用词。
  3. 技术评估:提供评估和训练代码,方便研究人员和开发者测试和训练模型。

正文

FineWeb 2 是什么

公众号: 蚝油菜花 - fineweb-2

FineWeb 2 是 Hugging Face 推出的多语言预训练数据集,覆盖超过 1000 种语言。该数据集通过定制化的数据管道处理,包括语言识别、去重、内容过滤和 PII 匿名化,适应不同语言的特点。

FineWeb 2 数据集支持广泛的 NLP 任务,如机器翻译、文本分类等,帮助提升多语言模型的性能和泛化能力。FineWeb 2 为开发者和研究人员提供检验新算法和技术的平台,提高多语言处理的普遍性和性能。

FineWeb 2 的主要功能

  • 多语言数据集构建:为超过 1000 种语言提供高质量的预训练数据,支持全球多种语言的 NLP 任务。
  • 定制化数据处理:针对不同语言的特性,调整数据处理流程,包括语言特定的过滤器和停用词。
  • 语言识别:使用 GlotLID 技术,识别文档中的语言和使用的脚本。
  • 去重:按语言全局去重,保留文档的多样性,记录重复文档的大小,便于“重新水化”数据集。
  • 数据过滤:保留原始 FineWeb 的过滤集,根据多语言环境调整,适应不同语言。
  • PII 匿名化:对个人身份信息进行匿名化处理,保护隐私。
  • 编码修复:使用 FTFY 工具修复编码问题。
  • 评估与训练:提供评估和训练代码,方便研究人员和开发者测试和训练模型。

FineWeb 2 的技术原理

  • 数据预处理

    • 语言识别:基于 GlotLID 技术对文档进行语言识别,确定文档的语言和使用的脚本。
    • 去重:对每种语言的数据进行全局去重,保留一个文档,记录重复文档的簇大小。
    • 过滤:根据语言特性调整过滤器,去除不符合要求的数据。
    • PII 匿名化:对文档中的个人身份信息进行匿名化处理,包括电子邮件和 IP 地址。
    • 数据“重新水化”:根据重复文档的簇大小,对文档进行上采样,提高某些语言的数据量和质量。
  • 评估与训练

    • 使用 FineTasks 评估套件对每个处理步骤后的模型进行评估。
    • 提供训练代码,基于 nanotron 框架训练 1.46B 模型。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
人工智能 自然语言处理 物联网
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
|
4月前
Meta浙大校友让评估模型自学成才,数据全合成无需人工标注,训练Llama 3 70B超过405B
【9月更文挑战第21天】近日,一篇名为《Self-Taught Evaluators》的论文引起了广泛关注。该论文由Meta与浙江大学校友合作完成,提出一种创新的模型评估方法,通过让评估模型自学习训练,无需依赖昂贵且易过时的人工标注数据。此方法利用合成数据,通过迭代生成对比模型输出并训练基于大型语言模型的评估器,从而实现自我迭代改进。研究结果显示,在不使用任何标注偏好数据的情况下,这种方法显著提升了评估模型的性能,甚至超越了一些现有模型。尽管如此,该方法在实际应用中仍需进一步验证。论文地址:https://arxiv.org/abs/2408.02666
84 4
|
8月前
|
自然语言处理 物联网 Swift
联合XTuner,魔搭社区全面支持数据集的长文本训练
XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。
|
数据采集 机器学习/深度学习 人工智能
达摩院开源多语言大模型PolyLM, 覆盖集团核心小语种,效果超LLAMA、BLOOM
本文作者:宝嵩,鹏程,呋喃主要贡献者:鹏程,呋喃,莉莱,重笙,筱苡,星峰,红罗,祝鸿,洛新,宝嵩,轻径,黄非摘要:大型语言模型 (LLM) 展示了出色的遵从自然语言指令理解、推理和生成的能力。然而,开发LLMs主要集中在高资源语言,例如英语,从而限制了它们在其他语言中的应用和研究。因此,我们开发了PolyLM,一个在6400亿个词的数据上从头训练的多语言语言模型,包括两种模型大小(1.7B和13B
3730 0
达摩院开源多语言大模型PolyLM, 覆盖集团核心小语种,效果超LLAMA、BLOOM
|
机器学习/深度学习 自然语言处理 安全
67个主题,11528 个问题,全新中文大模型多任务基准CMMLU发布
67个主题,11528 个问题,全新中文大模型多任务基准CMMLU发布
363 0
|
人工智能 数据可视化 人机交互
一次性分割一切,比SAM更强,华人团队的通用分割模型SEEM来了
一次性分割一切,比SAM更强,华人团队的通用分割模型SEEM来了
287 0
|
人工智能 API 开发者
弥补斯坦福70亿参数「羊驼」短板,精通中文的大模型来了,已开源
弥补斯坦福70亿参数「羊驼」短板,精通中文的大模型来了,已开源
184 0
|
算法 数据可视化 测试技术
为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE
为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE
159 0
|
机器学习/深度学习 人工智能 自然语言处理
发布日志记录、公开所有代码,Meta开放1750亿参数大模型,媲美GPT-3
发布日志记录、公开所有代码,Meta开放1750亿参数大模型,媲美GPT-3
143 0
|
机器学习/深度学习 人工智能 自然语言处理
从50亿图文中提取中文跨模态新基准Zero,奇虎360全新预训练框架超越多项SOTA(1)
从50亿图文中提取中文跨模态新基准Zero,奇虎360全新预训练框架超越多项SOTA
135 0

热门文章

最新文章