Data Is All You Need! 生成式图文对数据最佳实践,数据集魔搭开源!

简介: 23年10月底,OpenAI发布了 DALL-E 3 的技术报告《 Improving Image Generation with Better Captions 》,这篇技术报告的重点放在了 DALL-E 3 通过高质量的、详细的、生成式图像 caption(文本描述)进行训练后,提升 prompt following 能力。

概要

23年10月底,OpenAI发布了 DALL-E 3 的技术报告《 Improving Image Generation with Better Captions 》,这篇技术报告的重点放在了 DALL-E 3 通过高质量的、详细的、生成式图像 caption(文本描述)进行训练后,提升 prompt following 能力。

契合的是,在DALL-E 3技术报告发表前,通义数据团队在图文对生产领域有一些初步的探索,以此为基础,延续 DALL-E 3 的思路,最终形成了三方面的产出:

  1. 图文对系列标注工具:视觉对话,图生文,图文解释;
  2. 使用生成式图文对,配合标注数据, finetune qw-vl-7b 模型,提供高质量/高效率的图文对生成方案;
  3. 使用标注数据 finetune cn_clip,结合 SAM 分割,提供高质量的图文匹配数据生产链路;

省流

OpenAI结论: 通过使用高质量、详细的、生成式的图像 caption 进行训练,可以显着提高 text-to-image model 的 prompt following 能力。

通义数据团队实践结果:

  1. 通过 Chain-of-Thought (CoT) Prompting 调用 GPT4V 产生高质量结构化 caption 数据,finetune qw-vl-7b 模型,生成数据参与到文生图模型的训练,模型的语义理解精确度提升约10%;
  2. 对结构化 caption 中的细粒度 region caption 进行图文匹配,产生(caption, mask)pair 数据,进行 x-painting 任务训练,提升约5%
  3. 来自sa1b数据集的1000w中英文图文对数据、分割数据以及图文匹配数据魔搭开源!开源链接:https://modelscope.cn/datasets/Tongyi-DataEngine/SA1B-Dense-Caption

数据质量

大量的图文对数据从何而来?通常而言是分为两块:

  • 互联网公开数据:

互联网公开图文对数据的文本描述质量显而易见,不够好,或者说很差。

  • 开源数据集: a. 图像文本描述往往过于简单(如 COCO),缺失背景,物体的位置和数量,图像中的文字等信息; b. 类如 LAION 等数据集、描述的是图像的相关问题,比如广告,emoji等,而不是图像具体信息。

那么更进一步,海量的、高质量的图文数据对从何而来?常规而言,标注是提升数据质量的有效手段。不过,图像描述的标注任务难度很大:将图片内容总结成一段详细且准确的描述,也许只有具备良好文字基础的摄影师能高效的完成。

DALL-E 3: “标注人员专注于对图像主题的简单描述,而忽略图像中描绘的背景细节或常识关系。”

对此通义数据团队开发的标注平台开放了图生文等标注能力,标注人员只需动动手指,点击图像中的关键元素,核对修改细节信息就能生成图像的详细的整体描述。

ok,高质量数据生产基本可以保障,那么海量高质量数据怎么生产呢?OpenAI 给出的答案是:训练一个 image captioner 来生成图像的 caption。延续这一思路,我们评测了目前的开源的 captioner model 在图像描述任务上的效果,发现幻觉、丢失信息等问题还普遍存在。但,不出意外 GPT4V 在图像描述任务上有着不错的效果。

ft-qw-vl-v1: 使用GPT4V生成数据训练

ft-qw-vl-v2::使用人工校验后的GPT4V生成数据训练


海量数据生产

上文提到,GPT4V 在图像描述任务上效果不错。但 DALL-E 3 仍然选择了训练一个 image captioner 支持图像 caption 生产任务,DALL-E 3如此行为的真实原因不得而知,但我猜策,大概率和我们选择这一方向的原因一致:成本(性价比),亿级的 GPT4V 调用费用已经远远超出预算。


首先我们设计了图文对描述任务上的 Chain-of-Thought (CoT) Prompting,强调 GPT4V 关注细节、数量、姿态等信息,同时,引入图片的 origin caption 作为辅助信息。生产了十万量级结构化图像描述数据。这里的 origin caption 可以是 alt-text,也可以是简单的生成式/人工标注描述。


然后我们使用生成的十万量级数据,结合标注数据进行了 qw-vl-7b 的 finetune 工作,qw-vl-7b 的细粒度识别和理解能力和大量的中文训练预料,能很好的支持图文对理解任务。效果如表1,表2所示。


最后我们使用 finetune qw-vl-7b 进行了亿级的图文对数据标注。

图文匹配数据生产

得益于 iTAG 平台的图生文、图文解释等标注能力,产生十万量级的 golden data,包含详细的图像描述、细节描述列表、细节描述对应的图像 mask。我们使用这批数据 finetune cn_clip,结合 SAM 分割,进行了高质量的图文匹配数据生产。在测试集上,finetune_cn_clip 的表现如表4.1 - 4.3所示。其中 Flicker 为 Flicker-30k-zh 中抽取的5000条测试数据,文本平均长度为20;C0T GPT4V 为生成式数据中抽取的5000条测试数据,文本平均长度为136。

model

avg_score

recall

cn_clip

26.4

76.3%

ft_cn_clip

30.7

89.3%


model

Flicker

CoT GPT4V

r1

r5

r10

r1

r5

r10

cn_clip

70.94

91.38

95.5

75.38

92.06

95.52

ft_cn_clip

72.78

91.9

95.4

91.48

98.86

99.64


model

Flicker

CoT GPT4V

r1

r5

r10

r1

r5

r10

cn_clip

81.9

97.3

98.8

75.48

91.64

94.94

ft_cn_clip

86.7

97.8

99.3

91.4

99.2

99.72

更多图文匹配效果预览: Caption-Region(https://test-bucket-duplicate.oss-cn-hangzhou.aliyuncs.com/sure/ata_caption_region.html?OSSAccessKeyId=LTAI5tHCNh6VgpmCEKFgdJUo&Expires=3600001710331578&Signature=YUcjP2oXIdMRlDX4AXHnKDSNc50%3D

开源计划

5月初,开源DataEngine-sa1b数据集: 生成式数据集,包含来自sa1b数据集的860w中英文(移除敏感数据)图文对数据、分割数据以及图文匹配数据;开源链接:https://modelscope.cn/datasets/Tongyi-DataEngine/SA1B-Dense-Caption

后续,开源DataEngine-anno数据集:人工标注数据集,包含抽取自coco, laion等数据集的部分中英文图文对数据、分割数据以及图文匹配数据;

致谢

  • 感谢通义千问多模态团队的模型能力支持;
  • 感谢通义万相团队的业务细节支持;
  • 感谢通义数据团队提供海量数据和高效处理链路等各项支持;

参考文献和模型

  1. https://github.com/OFA-Sys/Chinese-CLIP
  2. https://cdn.openai.com/papers/dall-e-3.pdf
  3. https://arxiv.org/abs/2304.02643
  4. https://modelscope.cn/models/qwen/Qwen-VL-Chat
相关文章
|
1月前
|
数据采集 存储 人工智能
TripoSR开源!从单个图像快速生成 3D 对象!(附魔搭社区推理实战教程)
近期,VAST团队和Stability AI团队合作发布了TripoSR,可在一秒内从单个图像生成高质量3D对象。
|
7月前
|
人工智能 监控 Swift
魔搭社区LLM模型部署实践 —— 以ChatGLM3为例
本文将以ChatGLM3-6B为例,介绍在魔搭社区如何部署LLM
|
17天前
|
人工智能 JSON 自然语言处理
智谱AI GLM4开源!支持多模态&长序列,魔搭推理、微调最佳实践来啦!
GLM-4-9B是智谱AI推出的新一代预训练模型GLM-4系列的开源版本,它在多个数据集上的测试中表现出高绩效,包括语义理解、数学问题解决、推理和代码理解等方面。GLM-4-9B模型有四个变体:基础版GLM-4-9B(8K)、对话版GLM-4-9B-Chat(128K)、超长上下文版GLM-4-9B-Chat-1M(1M)和多模态版GLM-4V-9B-Chat(8K)。用户可以通过魔搭社区提供的链接体验这些模型,包括在CPU上运行的版本和支持vLLM推理的版本。
智谱AI GLM4开源!支持多模态&长序列,魔搭推理、微调最佳实践来啦!
|
12天前
|
机器学习/深度学习 人工智能 PyTorch
人工智能平台PAI产品使用合集之Alink是否加载预训练好的pytorch模型
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
1月前
|
自然语言处理 物联网 Swift
联合XTuner,魔搭社区全面支持数据集的长文本训练
XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。
|
1月前
|
机器学习/深度学习 人工智能 NoSQL
人工智能平台PAI产品使用合集之机器学习PAI EasyRec训练时,怎么去除没有意义的辅助任务的模型,用于部署
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
预训练驱动的统一文本表示-GTE魔搭社区最佳实践
文本表示是自然语言处理(NLP)领域的核心问题, 其在很多NLP、信息检索的下游任务中发挥着非常重要的作用。
|
1月前
|
数据可视化 物联网 Swift
澜舟科技开源孟子3-13B大模型,魔搭社区推理训练最佳实践!
4月1日,澜舟科技宣布开源Mengzi3-13B大模型,对学术研究完全开放,同时支持免费商用。
|
1月前
|
数据采集 存储 人工智能
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
【AI大模型应用开发】【LangChain系列】实战案例4:再战RAG问答,提取在线网页数据,并返回生成答案的来源
105 0
|
1月前
|
人工智能 知识图谱 Windows
Mistral 7B v0.2 基础模型开源,魔搭社区微调教程和评测来啦!
Mistral AI在3月24日突然发布并开源了 Mistral 7B v0.2模型,有如下几个特点