智源研究院发布开源中文互联网语料库CCI 4.0,新增高质量英文数据与合成数据

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 2025年5月6日,智源研究院在法国巴黎举行的GOSIM全球开源创新论坛上发布大型开源文本数据集CCI 4.0,为全球的大模型创新发展再次提供重要的开源资源,并积极推动全球开源合作。

2025年5月6日,智源研究院在法国巴黎举行的GOSIM全球开源创新论坛上发布大型开源文本数据集CCI 4.0,为全球的大模型创新发展再次提供重要的开源资源,并积极推动全球开源合作。

CCI 4.0兼顾多样性与高质量,从单一语言数据集扩展为多语种数据集。本次发布包括了中、英语两种语言,并将在随后的发布中,开源更多语言的版本。此外,CCI 4.0首次采用CoT方法进行推理轨迹数据合成,以提升预训练模型的基础推理能力。CCI 4.0数据集由智源研究院牵头,联合包括阿里云、上海人工智能实验室、华为、出门问问、金山办公、昆仑万维、面壁智能、奇虎科技、美团、稀宇科技、月之暗面、紫东太初、中科闻歌、科大讯飞等多个机构共同贡献。

image.gif 编辑

智源研究院于2023年11月首次发布中文互联网语料库CCI 1.0,并于2024年3月和10月分别完成CCI2.0和CCI3.0的迭代,系列数据集的下载量已超过14万次,支持500余个企事业单位的大模型研发。

此次开源的CCI 4.0-M2-V1包括3个子数据集,即CCI 4.0-M2-Base V1、CCI 4.0-M2-CoT V1和CCI 4.0-M2-Extra V1,数据总量达35TB。其中,CCI 4.0-M2-Base V1是中英双语数据集,数据总量达26000GB,中文数据量为4300GB,相较于CCI 3.0数据规模增加4倍;CCI 4.0-M2-CoT V1 是中英双语合成数据集,包含用于提升推理能力的超过4亿条逆向合成人类思考轨迹数据,总token数量达425B(4250亿),比当前全球最大的开源合成数据集Cosmopedia规模提升近20倍。

魔搭地址:

https://modelscope.cn/datasets/BAAI/CCI4.0-M2-Base-v1

https://modelscope.cn/datasets/BAAI/CCI4.0-M2-CoT-v1

https://modelscope.cn/datasets/BAAI/CCI4.0-M2-Extra-v1

BAAI datahub地址:

https://data.baai.ac.cn/datadetail/BAAI-CCI4.0-M2-Base-v1

https://data.baai.ac.cn/datadetail/BAAI-CCI4.0-M2-CoT-v1

https://data.baai.ac.cn/datadetail/BAAI-CCI4.0-M2-Extra-v1

针对不同来源的数据,CCI 4.0在建设过程中采取了去重、质量分类、QA合成、loss过滤的处理原则。针对英文数据,进行领域分类和流畅度过滤等处理;针对中文数据,进行全局及分领域来源字符串去重,常规、低质、分领域流畅程度过滤,多种质量打分和分档等处理;针对合成数据,进行语义分段及摘要、总结思维链及合成问题等处理。智源研究院就CCI 4.0数据集开源进行了严格评审,以确保数据安全合规。

CCI 4.0数据集中的英文语料、中文语料及合成数据对模型训练效率及性能均有有效提升。

image.gif 编辑

图1:CCI 4.0的数据加工方法在Nemotron-CC高质量数据集的使用前后效果对比

如图1所示,针对相同的英文网页原始语料(Nemotron-CC-high),CCI 4.0设计了基于loss过滤操作的有效性验证实验,通过使用过滤前与过滤后(Nemotron-CC-high from CCI4.0)的英文语料分别训练模型,再进一步对比模型在下游任务上的平均性能表示。结果显示,在训练过程中基于loss过滤的英文语料可在训练过程中提升模型的训练效率。

image.gif 编辑

图2:CCI4.0-HQ中文数据集和CCI3.0-HQ数据集在训练500M模型效果上的对比

如图2所示,针对中文语料,设计了中文语料处理有效性的验证实验,以CCI 3.0中的中文网页语料数据作为基线方法进行模型训练表现对比,结果显示,相较于CCI 3.0的高质量中文数据集, CCI 4.0中的高质量中文网页数据仍可继续提升模型的训练效率。

image.gif 编辑

图3:CCI 4.0-M2-CoT合成数据集效果验证

如图3所示,为验证合成数据的作用,设计了合成数据对于模型预训练的性能影响对比实验。分别使用含有合成数据的预训练语料和不含合成数据的预训练语料训练模型,结果显示,含有合成数据的预训练语料可在训练后期增强了模型在下游任务上的表现。

未来,智源研究院将持续开展高质量数据的开源建设工作,不断提升数据集质量,扩展语言和内容覆盖度,增加数据集的领域支持,助力全球大模型的开源创新和人工智能的产业发展。

 

点击链接阅读原文,即可跳转合集页

https://modelscope.cn/organization/BAAI?tab=dataset

目录
相关文章
|
27天前
|
机器学习/深度学习 人工智能 机器人
魔搭社区模型速递(5.11-5.17)
🙋魔搭ModelScope本期社区进展:📟1656个模型,151个数据集,645个创新应用,📄 9 篇内容
194 11
|
6天前
|
机器学习/深度学习 数据采集 自然语言处理
魔搭社区模型速递(6.2-6.7)
魔搭ModelScope本期社区进展:1910个模型,183个数据集,47个创新应用,5 篇内容
68 12
魔搭社区模型速递(6.2-6.7)
|
20天前
|
人工智能 自然语言处理 API
魔搭社区模型速递(5.18-5.24)
魔搭ModelScope本期社区进展:📟3790个模型,📁307个数据集,🎨90个创新应用,📄 7 篇内容
186 14
|
17天前
|
人工智能 监控 Serverless
MCP Server On FC 之旅第 4 站:长连接闲置计费最高降低 87% 成本的技术内幕
函数计算(FC)是阿里云的全托管计算服务,支持事件驱动模式。用户无需管理基础设施,只需上传代码或镜像即可运行任务,并享有日志查询、性能监控等功能。针对MCP Server场景,FC通过MCP Runtime实现开源Stdio MCP Server的一键托管,解决了Session会话保持问题,并推出长连接闲置计费能力,按实际使用收费,最高可降低87%的成本。此外,FC还提供亲和性调度及Websocket长请求的闲置计费支持,帮助用户优化资源利用与成本。
150 69
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
AI Agent
本文介绍了AI Agent的概念及其在云计算3.0时代的焦点地位,强调了其与大语言模型(LLM)的紧密联系。AI Agent由控制端(Brain)、感知端(Perception)和行动端(Action)组成,能够通过LLMs实现复杂的任务分解、记忆管理及工具使用。文章探讨了单代理、多代理及人机交互的应用场景,并分析了钢铁侠中贾维斯的现实版——微软开源JARVIS项目。此外,还提及了国内外多个开源平台及Python在AI领域的核心地位,同时提出了关于智能代理发展的开放问题,如安全性、群体智能演化及代理服务化等。最后提供了丰富的参考资料以供深入研究。
219 15
AI Agent
|
12天前
|
人工智能 IDE 开发工具
|
1月前
|
数据可视化 API Swift
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
158 17
|
6天前
|
数据采集 自然语言处理 搜索推荐
基于Qwen3的Embedding和Rerank模型系列,开源!
近年来,随着大规模预训练语言模型(LLM)的飞速发展,文本嵌入(Embedding)和重排序(Reranking)技术在搜索引擎、问答系统、推荐系统等多个领域的重要性愈发凸显。
757 75
|
23天前
|
人工智能 测试技术 API
通义灵码 + 魔搭MCP:全流程构建创空间应用
最近,通义灵码上线 MCP(ModelScope Cloud Platform)功能,从之前代码生成及修改的基础功能,到可以使用MCP服务连接更多功能,开发者可以实现从 代码爬取、模型推理到应用部署
411 26

热门文章

最新文章