昆仑天工AIGC——基于Stable Diffusion的多语言AI作画大模型测评

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 昆仑天工AIGC——基于Stable Diffusion的多语言AI作画大模型测评

文章目标


1. AIGC

2. 技术背景

2.1. Stable Diffusion

2.1.1. 图像感知压缩(Perceptual Image Compression)

2.1.2. 隐扩散模型(Latent Diffusion Models)

2.1.3. 条件机制(Conditioning Mechanisms)

2.2. Chinese-CLIP

3. 昆仑天工AIGC

3.1. 模型贡献和展望

3.2. 性能对比

3.3. 效果展示

4. 小结


正文


1. AIGC


今年掀起了一股AI 艺术的创作热潮,随着Stable Diffusion的出现,人工智能生成内容模型(Artificial Inteligence Generated Content,AIGC)终于接近了商用化标准,然而目前可用的AIGC模型都需要在英文场景下使用。在这样的背景下,昆仑天工针对AIGC模型在中文领域劣势结合Chinese-CLIP模型推出了全系列的AIGC大模型,AI生成能力覆盖图像、音乐、编程、文本等全模态领域。


2. 技术背景


2.1. Stable Diffusion


Stable Diffusion是一个基于Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。

17.png

它包含三个模块:感知压缩、扩散模型和条件机制。


2.1.1. 图像感知压缩(Perceptual Image Compression)


图像感知压缩通过VAE自编码模型对原图进行处理,忽略掉原图中的高频细节信息,只保留一些重要、基础的特征。该模块并非必要,但是它的加入能够大幅降低训练和采样的计算成本,大大降低了图文生成任务的实现门槛。


基于感知压缩的扩散模型的训练过程有两个阶段:(1)训练一个自编码器;(2)训练扩散模型。在训练自编码器时,为了避免潜在表示空间出现高度的异化,作者使用了两种正则化方法,一种是KL-reg,另一种是VQ-reg,因此在官方发布的一阶段预训练模型中,会看到KL和VQ两种实现。在Stable Diffusion中主要采用AutoencoderKL这种正则化实现。


具体来说,图像感知压缩模型的训练过程如下:给定图像x ∈ R H × W × 3  ,我们先利用一个编码器ε \varepsilonε来将图像从原图编码到潜在表示空间(即提取图像的特征)z = ε ( x ) z=\varepsilon(x)z=ε(x),其中z ∈ R h × w × c z\

。然后,用解码器从潜在表示空间重建图片x ~ = D ( z ) = D ( ε ( x ) ) 。训练的目标是使x = x ~


2.1.2. 隐扩散模型(Latent Diffusion Models)


18.png

扩散模型(DM)从本质上来说,是一个基于马尔科夫过程的去噪器。其反向去噪过程的目标是根据输入的图像x t去预测一个对应去噪后的图像x t + 1 即 x t + 1 = ϵ t ( x t , t ) ,   t = 1 , . . . , T。相应的目标函数可以写成如下形式:

27.png

这里默认噪声的分布是高斯分布N ( 0 , 1 ),这是因为高斯分布可以应用重参数化技巧简化计算;此处的x xx指的是原图。


而在潜在扩散模型中(LDM),引入了预训练的感知压缩模型,它包括一个编码器 ε 和一个解码器 D 。这样在训练时就可以利用编码器得到z t = ε ( x t )从而让模型在潜在表示空间中学习,相应的目标函数可以写成如下形式

28.png


2.1.3. 条件机制(Conditioning Mechanisms)


条件机制,指的是通过输入某些参数来控制图像的生成结果。这主要是通过拓展得到一个条件时序去噪自编码器(Conditional Denoising Autoencoder,CDA)ϵ θ ( z t , t , y ) \来实现的,这样一来我们就可通过输入参数y y来控制图像生成的过程。


具体来说,论文通过在UNet主干网络上增加cross-attention机制来实现CDA,选用UNet网络是因为实践中Diffusion在UNet网络上效果最好。为了能够从多个不同的模态预处理参数y yy,论文引入了一个领域专用编码器(Domain Specific Encoder) τ θ 它将y 映射为一个中间表示 τ θ ( y ) ∈ R M × d r ,这样我们就可以很方便的将y yy设置为各种模态的条件(文本、类别等等)。最终模型就可以通过一个cross-attention层映射将控制信息融入到UNet的中间层,cross-attention层的实现如下:

22.png

其中23.png是UNet的一个中间表征; 24.png分别是三个权重矩阵。此时,带有条件机制的隐扩散模型的目标函数可以写成如下形式:

25.png


2.2. Chinese-CLIP


Chinese-CLIP是OpenAI训练的大规模语言模型,在今年7月份开源在Github上,详情可点击 Chinese-CLIP 查看。它是 CLIP 模型的一个变体,使用大规模中文数据进行训练(超过2亿图文对)。它基于open_clip project建设,经过训练可以识别和分类图像和文本,并针对中文领域数据以及在中文数据上实现更好的效果做了优化,专门适用于处理中文语言和文本。Chinese-CLIP可以理解并生成自然语言文本,以帮助用户快速实现中文领域的图文特征&相似度计算、跨模态检索、零样本图片分类等任务。


21.png


3. 昆仑天工AIGC


3.1. 模型贡献和展望


昆仑天工的这款AI绘画大模型在Stable Diffusion的基础上,利用Chinese-CLIP构造了大规模的中文图文对数据集进行训练,这使得该模型支持中英双语提示词输入实现文字生成图像。总体来说,该模型相较于现有模型有三个大的共享:


在增加中文提示词输入能力的同时兼容原版stable_diffusion的英文提示词模型,之前用户积累的英文提示词手册依然可以在昆仑天工的模型上使用。

使用超过1.5亿级别的平行语料优化提示词模型实现中英文对照,不仅涉及翻译任务语料,还包括了用户使用频率高的提示词中英语料,古诗词中英语料,字幕语料,百科语料,图片文字描述语料等多场景多任务的海量语料集合。

训练时采用模型蒸馏方案和双语对齐方案,使用教师模型对学生模型蒸馏的同时辅以解码器语言对齐任务辅助模型训练,提高模型性能。

同时,该模型具备功能可扩展性,对于之后的技术发展趋势和展望主要集中在:


除中英文外,更多语言的提示词输入支持 ;

更强大的语言生成模型指导图像生成,而非局限于Stable Diffusion;

绘画风格更加多样,增加更多艺术风格的支持;

支持用户对生成的图像进行二次提示词编辑图像功能,方便用户调整生成图像。


3.2. 性能对比


昆仑天工的AIGC模型(prev_online、hide77_gpt2)在Flickr30K-CN数据集上与6个基准算法进行了对比。


实验设置:


Benchmark:采用Chinese-CLIP(CN_CLIP),先根据模型的encoder得到text和image的embedding,再经过统一的KNN检索,Recall,从而计算出检索任务的Recall@1/5/10和mean recall(Recall@1/5/10的均值),得到实验结果。

评估数据集:Flickr30K-CN的Test数据集

采用同级别image encoder模型:ViT-L/14

实验结果如下表所示:

20.png

可以看到,不论是文本生成图像还是图像生成文本任务,昆仑天工在Recall指标上都超越了绝大多数模型。


3.3. 效果展示


为了展示昆仑天工AIGC大模型的效果,我们对多种艺术风格和画面主题的提示词进行了试用,结果如下:

  • 人物立绘(动漫、CG、剪纸、古风)

  • 风景景像(城市、原野、未来、古代)

  • 艺术绘画(油画、水彩、版画、水墨)

  • 平面设计(线性、面性、扁平、手绘)

  • 细节质感(毛发、4K、色彩、局部)

  • 英文提示词


4. 小结


昆仑天工的AIGC大模型包括三大功能:


文本。下游能力包括续写,对话,中英翻译,内容风格生成,推理,诗词对联等。

代码。拥有多种主流编码语言的续写,以及根据(中/英文)注释写代码的能力。

绘画。支持输出多语种提示词,实现文字生成图像的功能。

本次我们测评和解析的是绘画功能,文本及代码两大功能也十分实用,就不在此赘述,感兴趣的伙伴们可以去官网感受体验,一定会有新发现~

19.png

昆仑万维集团作为中国领先的互联网平台出海企业,逐渐在全球范围内形成了海外信息分发及元宇宙平台Opera、海外社交娱乐平台StarX、全球移动游戏平台Ark Games、休闲娱乐平台闲徕互娱、投资板块等五大业务,市场遍及中国、东南亚、非洲、中东、北美、南美、欧洲等地,为全球互联网用户提供社交、资讯、娱乐等信息化服务。截至2022年上半年,全球平均月活跃用户近 4 亿, 海外收入占比达 75%。昆仑万维于2015年登陆创业板,集团旗下的业务和子公司已先后拓展至美国、俄罗斯、日本、韩国、印度,以及欧洲、非洲、东南亚等地的其他国家。

————————————————

版权声明:本文为CSDN博主「白水baishui」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/baishuiniyaonulia/article/details/128277746


相关文章
|
2天前
|
机器学习/深度学习 人工智能 安全
GLM-Zero:智谱AI推出与 OpenAI-o1-Preview 旗鼓相当的深度推理模型,开放在线免费使用和API调用
GLM-Zero 是智谱AI推出的深度推理模型,专注于提升数理逻辑、代码编写和复杂问题解决能力,支持多模态输入与完整推理过程输出。
78 24
GLM-Zero:智谱AI推出与 OpenAI-o1-Preview 旗鼓相当的深度推理模型,开放在线免费使用和API调用
|
3天前
|
数据采集 人工智能 算法
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
Seer是由上海AI实验室与北大等机构联合推出的端到端操作模型,结合视觉预测与动作执行,显著提升机器人任务成功率。
41 20
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
|
7天前
|
机器学习/深度学习 人工智能 编解码
Inf-DiT:清华联合智谱AI推出超高分辨率图像生成模型,生成的空间复杂度从 O(N^2) 降低到 O(N)
Inf-DiT 是清华大学与智谱AI联合推出的基于扩散模型的图像上采样方法,能够生成超高分辨率图像,突破传统扩散模型的内存限制,适用于多种实际应用场景。
54 21
Inf-DiT:清华联合智谱AI推出超高分辨率图像生成模型,生成的空间复杂度从 O(N^2) 降低到 O(N)
|
4天前
|
人工智能 测试技术
陶哲轩联手60多位数学家出题,世界顶尖模型通过率仅2%!专家级数学基准,让AI再苦战数年
著名数学家陶哲轩联合60多位数学家推出FrontierMath基准测试,评估AI在高级数学推理方面的能力。该测试涵盖数论、实分析等多领域,采用新问题与自动化验证,结果显示最先进AI通过率仅2%。尽管存在争议,这一基准为AI数学能力发展提供了明确目标和评估工具,推动AI逐步接近人类数学家水平。
51 37
|
3天前
|
人工智能 编解码 自然语言处理
Aria-UI:港大联合 Rhymes AI 开源面向 GUI 智能交互的多模态模型,整合动作历史信息实现更加准确的定位
Aria-UI 是香港大学与 Rhymes AI 联合开发的多模态模型,专为 GUI 智能交互设计,支持高分辨率图像处理,适用于自动化测试、用户交互辅助等场景。
38 11
Aria-UI:港大联合 Rhymes AI 开源面向 GUI 智能交互的多模态模型,整合动作历史信息实现更加准确的定位
|
9天前
|
人工智能 Python
ImBD:复旦联合华南理工推出 AI 内容检测模型,快速辨别文本内容是否为 AI 生成
ImBD是一款由复旦大学、华南理工大学等机构联合推出的AI内容检测器,能够快速识别机器修订文本,适用于多种场景,显著提升检测性能。
43 8
ImBD:复旦联合华南理工推出 AI 内容检测模型,快速辨别文本内容是否为 AI 生成
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
CogAgent-9B 是智谱AI基于 GLM-4V-9B 训练的专用Agent任务模型,支持高分辨率图像处理和双语交互,能够预测并执行GUI操作,广泛应用于自动化任务。
65 12
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
|
23天前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
94 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
|
7天前
|
人工智能 物联网
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
44 10
|
1月前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
81 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题

热门文章

最新文章