Data Is All You Need! 生成式图文对数据最佳实践,数据集魔搭开源!

简介: 23年10月底,OpenAI发布了 DALL-E 3 的技术报告《 Improving Image Generation with Better Captions 》,这篇技术报告的重点放在了 DALL-E 3 通过高质量的、详细的、生成式图像 caption(文本描述)进行训练后,提升 prompt following 能力。

概要

23年10月底,OpenAI发布了 DALL-E 3 的技术报告《 Improving Image Generation with Better Captions 》,这篇技术报告的重点放在了 DALL-E 3 通过高质量的、详细的、生成式图像 caption(文本描述)进行训练后,提升 prompt following 能力。

契合的是,在DALL-E 3技术报告发表前,通义数据团队在图文对生产领域有一些初步的探索,以此为基础,延续 DALL-E 3 的思路,最终形成了三方面的产出:

  1. 图文对系列标注工具:视觉对话,图生文,图文解释;
  2. 使用生成式图文对,配合标注数据, finetune qw-vl-7b 模型,提供高质量/高效率的图文对生成方案;
  3. 使用标注数据 finetune cn_clip,结合 SAM 分割,提供高质量的图文匹配数据生产链路;

省流

OpenAI结论: 通过使用高质量、详细的、生成式的图像 caption 进行训练,可以显着提高 text-to-image model 的 prompt following 能力。

通义数据团队实践结果:

  1. 通过 Chain-of-Thought (CoT) Prompting 调用 GPT4V 产生高质量结构化 caption 数据,finetune qw-vl-7b 模型,生成数据参与到文生图模型的训练,模型的语义理解精确度提升约10%;
  2. 对结构化 caption 中的细粒度 region caption 进行图文匹配,产生(caption, mask)pair 数据,进行 x-painting 任务训练,提升约5%
  3. 来自sa1b数据集的1000w中英文图文对数据、分割数据以及图文匹配数据魔搭开源!开源链接:https://modelscope.cn/datasets/Tongyi-DataEngine/SA1B-Dense-Caption

数据质量

大量的图文对数据从何而来?通常而言是分为两块:

  • 互联网公开数据:

互联网公开图文对数据的文本描述质量显而易见,不够好,或者说很差。

  • 开源数据集: a. 图像文本描述往往过于简单(如 COCO),缺失背景,物体的位置和数量,图像中的文字等信息; b. 类如 LAION 等数据集、描述的是图像的相关问题,比如广告,emoji等,而不是图像具体信息。

那么更进一步,海量的、高质量的图文数据对从何而来?常规而言,标注是提升数据质量的有效手段。不过,图像描述的标注任务难度很大:将图片内容总结成一段详细且准确的描述,也许只有具备良好文字基础的摄影师能高效的完成。

DALL-E 3: “标注人员专注于对图像主题的简单描述,而忽略图像中描绘的背景细节或常识关系。”

对此通义数据团队开发的标注平台开放了图生文等标注能力,标注人员只需动动手指,点击图像中的关键元素,核对修改细节信息就能生成图像的详细的整体描述。

ok,高质量数据生产基本可以保障,那么海量高质量数据怎么生产呢?OpenAI 给出的答案是:训练一个 image captioner 来生成图像的 caption。延续这一思路,我们评测了目前的开源的 captioner model 在图像描述任务上的效果,发现幻觉、丢失信息等问题还普遍存在。但,不出意外 GPT4V 在图像描述任务上有着不错的效果。

ft-qw-vl-v1: 使用GPT4V生成数据训练

ft-qw-vl-v2::使用人工校验后的GPT4V生成数据训练


海量数据生产

上文提到,GPT4V 在图像描述任务上效果不错。但 DALL-E 3 仍然选择了训练一个 image captioner 支持图像 caption 生产任务,DALL-E 3如此行为的真实原因不得而知,但我猜策,大概率和我们选择这一方向的原因一致:成本(性价比),亿级的 GPT4V 调用费用已经远远超出预算。


首先我们设计了图文对描述任务上的 Chain-of-Thought (CoT) Prompting,强调 GPT4V 关注细节、数量、姿态等信息,同时,引入图片的 origin caption 作为辅助信息。生产了十万量级结构化图像描述数据。这里的 origin caption 可以是 alt-text,也可以是简单的生成式/人工标注描述。


然后我们使用生成的十万量级数据,结合标注数据进行了 qw-vl-7b 的 finetune 工作,qw-vl-7b 的细粒度识别和理解能力和大量的中文训练预料,能很好的支持图文对理解任务。效果如表1,表2所示。


最后我们使用 finetune qw-vl-7b 进行了亿级的图文对数据标注。

图文匹配数据生产

得益于 iTAG 平台的图生文、图文解释等标注能力,产生十万量级的 golden data,包含详细的图像描述、细节描述列表、细节描述对应的图像 mask。我们使用这批数据 finetune cn_clip,结合 SAM 分割,进行了高质量的图文匹配数据生产。在测试集上,finetune_cn_clip 的表现如表4.1 - 4.3所示。其中 Flicker 为 Flicker-30k-zh 中抽取的5000条测试数据,文本平均长度为20;C0T GPT4V 为生成式数据中抽取的5000条测试数据,文本平均长度为136。

model

avg_score

recall

cn_clip

26.4

76.3%

ft_cn_clip

30.7

89.3%


model

Flicker

CoT GPT4V

r1

r5

r10

r1

r5

r10

cn_clip

70.94

91.38

95.5

75.38

92.06

95.52

ft_cn_clip

72.78

91.9

95.4

91.48

98.86

99.64


model

Flicker

CoT GPT4V

r1

r5

r10

r1

r5

r10

cn_clip

81.9

97.3

98.8

75.48

91.64

94.94

ft_cn_clip

86.7

97.8

99.3

91.4

99.2

99.72

更多图文匹配效果预览: Caption-Region(https://test-bucket-duplicate.oss-cn-hangzhou.aliyuncs.com/sure/ata_caption_region.html?OSSAccessKeyId=&Expires=3600001710331578&Signature=YUcjP2oXIdMRlDX4AXHnKDSNc50%3D

开源计划

5月初,开源DataEngine-sa1b数据集: 生成式数据集,包含来自sa1b数据集的860w中英文(移除敏感数据)图文对数据、分割数据以及图文匹配数据;开源链接:https://modelscope.cn/datasets/Tongyi-DataEngine/SA1B-Dense-Caption

后续,开源DataEngine-anno数据集:人工标注数据集,包含抽取自coco, laion等数据集的部分中英文图文对数据、分割数据以及图文匹配数据;

致谢

  • 感谢通义千问多模态团队的模型能力支持;
  • 感谢通义万相团队的业务细节支持;
  • 感谢通义数据团队提供海量数据和高效处理链路等各项支持;

参考文献和模型

  1. https://github.com/OFA-Sys/Chinese-CLIP
  2. https://cdn.openai.com/papers/dall-e-3.pdf
  3. https://arxiv.org/abs/2304.02643
  4. https://modelscope.cn/models/qwen/Qwen-VL-Chat
相关文章
|
9月前
|
数据采集 存储 人工智能
TripoSR开源!从单个图像快速生成 3D 对象!(附魔搭社区推理实战教程)
近期,VAST团队和Stability AI团队合作发布了TripoSR,可在一秒内从单个图像生成高质量3D对象。
|
1月前
|
人工智能 JSON API
LongDocURL:中科院联合阿里推出多模态长文档理解基准数据集,用于评估模型对复杂文档分析与推理的能力
LongDocURL 是由中科院与淘天集团联合推出的多模态长文档理解基准数据集,涵盖 2,325 个问答对,支持复杂文档的理解、推理和定位任务。
194 77
LongDocURL:中科院联合阿里推出多模态长文档理解基准数据集,用于评估模型对复杂文档分析与推理的能力
|
3月前
|
弹性计算 人工智能 自然语言处理
魔搭社区与函数计算:高效部署开源大模型的文本生成服务体验
在数字化时代,人工智能技术迅速发展,开源大模型成为重要成果。魔搭社区(ModelScope)作为开源大模型的聚集地,结合阿里云函数计算,提供了一种高效、便捷的部署方式。通过按需付费和弹性伸缩,开发者可以快速部署和使用大模型,享受云计算的便利。本文介绍了魔搭社区与函数计算的结合使用体验,包括环境准备、部署应用、体验使用和资源清理等步骤,并提出了改进建议。
|
6月前
|
数据采集 人工智能 监控
赌你一定想要!OpenDataLab首款大模型多模态标注平台Label-LLM正式开源
Label-LLM 是一款专为大模型训练设计的多模态文本对话标注工具,支持团队协作,让标注工作变得简单高效。它不仅涵盖丰富的任务类型,如回答采集、偏好收集和内容评估等,还支持多模态数据标注,包括图像、视频和音频。Label-LLM具备预标注载入功能,能大幅提升工作效率,并提供全方位的任务管理与可视化分析,确保标注质量。快来体验这款强大的标注平台吧![部署文档](https://github.com/opendatalab/LabelLLM)
1354 0
赌你一定想要!OpenDataLab首款大模型多模态标注平台Label-LLM正式开源
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
预训练驱动的统一文本表示-GTE魔搭社区最佳实践
文本表示是自然语言处理(NLP)领域的核心问题, 其在很多NLP、信息检索的下游任务中发挥着非常重要的作用。
|
8月前
|
机器学习/深度学习 人工智能 PyTorch
人工智能平台PAI产品使用合集之Alink是否加载预训练好的pytorch模型
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
178 10
|
9月前
|
自然语言处理 物联网 Swift
联合XTuner,魔搭社区全面支持数据集的长文本训练
XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。
|
9月前
|
数据可视化 物联网 测试技术
零一万物Yi-1.5系列模型发布并开源!34B/9B/6B 多尺寸魔搭社区推理微调最佳实践教程来啦!
Yi-1.5是Yi的升级版本。 它使用 500B tokens的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。
|
9月前
|
数据可视化 物联网 Swift
澜舟科技开源孟子3-13B大模型,魔搭社区推理训练最佳实践!
4月1日,澜舟科技宣布开源Mengzi3-13B大模型,对学术研究完全开放,同时支持免费商用。
|
9月前
|
数据采集 存储 人工智能
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
715 0

热门文章

最新文章