LongAlign:港大推出的提升文本到图像扩散模型处理长文本对齐方法

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: LongAlign是由香港大学研究团队推出的文本到图像扩散模型的改进方法,旨在提升长文本输入的对齐精度。通过段级编码技术和分解偏好优化,LongAlign显著提高了模型在长文本对齐任务上的性能,超越了现有的先进模型。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

技术改进:LongAlign通过段级编码和分解偏好优化,显著提升了长文本对齐精度。
主要功能:支持长文本处理、文本到图像对齐和减少过拟合。
应用场景:广泛应用于艺术创作、游戏开发、电影和娱乐行业、广告和营销、教育和培训等领域。

正文(附运行示例)

LongAlign 是什么

公众号: 蚝油菜花 - LongAlign

LongAlign是香港大学研究团队推出的文本到图像(T2I)扩散模型的改进方法,旨在提升长文本输入的对齐精度。传统的T2I模型在处理长文本时,由于编码模型的输入长度限制,往往难以实现精确的对齐。LongAlign通过段级编码技术,将长文本分割处理,适应编码模型的输入限制,从而有效解决了这一问题。

此外,LongAlign还引入了分解偏好优化,基于区分偏好模型中的文本相关和无关部分,应用不同权重减少过拟合,增强对齐度。经过20小时微调,LongAlign显著提高Stable Diffusion v1.5模型在长文本对齐任务上的性能,超越PixArt-α和Kandinsky v2.2等先进模型。

LongAlign 的主要功能

  • 长文本处理:基于分段级编码方法,处理长文本输入,克服预训练编码模型如CLIP的最大输入长度限制。
  • 文本到图像对齐:提高生成图像与输入文本之间的对齐度,确保图像内容与文本描述的准确性。
  • 减少过拟合:基于偏好分解和重加权策略,LongAlign减少了微调过程中的过拟合问题,提高了模型的泛化能力。

LongAlign 的技术原理

  • 分段级编码:将长文本分割成多个段落(或句子),每个段落独立编码,将编码结果合并。支持模型处理超出最大输入长度限制的文本。
  • 偏好分解:分析偏好模型的评分机制,将偏好分数分解为两部分:文本相关部分(衡量文本到图像的对齐)和文本无关部分(评估图像的其他视觉方面,如美学)。
  • 重加权策略:为解决过拟合问题,LongAlign提出一种为文本相关和无关部分分配不同权重的策略。策略基于减少文本无关部分的权重,增强模型对文本内容的关注,提高对齐度。

如何运行 LongAlign

准备环境

pip install -r requirements.txt
# 如果遇到LoRA错误,请运行 `pip uninstall peft`

准备数据集和检查点

训练原始 Stable Diffusion

# 支持长文本输入
bash run_unet.sh align ct5f
# 请将 {args.output_dir}/s{global_step_}_lora_vis.pt 移动到 {args.output_dir}/lora_vis.pt 等

# 长文本对齐的偏好优化
bash run_unet.sh reward test

训练 LCM 版本的 Stable Diffusion

# 支持LCM采样
bash run_unet.sh lcm ct5f

# 长文本对齐的偏好优化
bash run_unet.sh reward_lcm test

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
人工智能 文字识别 安全
关于“文档图像前沿技术探索 —多模态及图像安全”专题报告分享
>10月14日第六届[中国模式识别与计算机视觉大会](https://www.prcv2023.cn/2023prcv)在厦门举办。PRCV 2023由中国计算机学会(CCF)、中国自动化学会(CAA)、中国图象图形学学会(CSIG)和中国人工智能学会(CAAI)联合主办,厦门大学承办,是国内顶级的模式识别和计算机视觉领域学术盛会,CCF推荐会议(C类)。 本届会议主题为“相约鹭岛,启智未来”。会议旨在汇聚国内国外模式识别和计算机视觉理论与应用研究的广大科研工作者及工业界同行,共同分享我国模式识别与计算机视觉领域的最新理论和技术成果。 PRCV2023共设5个大
161 0
|
8天前
|
机器学习/深度学习 人工智能
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
Leffa 是 Meta 开源的图像生成框架,通过引入流场学习在注意力机制中精确控制人物的外观和姿势。该框架不增加额外参数和推理成本,适用于多种扩散模型,展现了良好的模型无关性和泛化能力。
52 11
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
|
2月前
|
编解码 人工智能 数据可视化
imagen: 具有深度语言理解的逼真的文本到图像扩散模型
imagen: 具有深度语言理解的逼真的文本到图像扩散模型
31 0
|
3月前
MUMU:用文本、图像引导,多模态图像生成模型
【9月更文挑战第19天】随着人工智能技术的发展,多模态模型因其能处理文本、图像、音频等多种信息而备受关注。在图像生成领域,一种名为MUMU的新模型展现出巨大潜力。MUMU可接收文本和图像提示并生成相应图像,如根据“一个<图片:男人>男人和他的<图片:狗>狗在一个<图片:卡通>动画风格中”生成图像。通过训练包含文本-图像数据集的视觉-语言编码器及扩散解码器,MUMU能实现风格转换和角色一致性等任务,并在图像编辑和合成方面展示出潜力。然而,其仍受限于复杂场景处理能力和计算资源需求。论文详情见链接:https://arxiv.org/abs/2406.18790。
51 1
|
人工智能 数据挖掘 PyTorch
VLE基于预训练文本和图像编码器的图像-文本多模态理解模型:支持视觉问答、图文匹配、图片分类、常识推理等
VLE基于预训练文本和图像编码器的图像-文本多模态理解模型:支持视觉问答、图文匹配、图片分类、常识推理等
VLE基于预训练文本和图像编码器的图像-文本多模态理解模型:支持视觉问答、图文匹配、图片分类、常识推理等
|
7月前
|
机器学习/深度学习 人工智能 达摩院
DDColor:AI图像着色工具,优秀的黑白图像上色模型,支持双解码器!
DDColor:AI图像着色工具,优秀的黑白图像上色模型,支持双解码器!
399 3
|
7月前
|
自然语言处理 PyTorch 算法框架/工具
视觉Transformers中的位置嵌入 - 研究与应用指南
视觉Transformers中的位置嵌入 - 研究与应用指南
118 0
|
机器学习/深度学习 人工智能 自然语言处理
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
多模态对比语言图像预训练CLIP:打破语言与视觉的界限
|
人工智能 人机交互
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
187 0
|
Web App开发 自然语言处理 图形学
自然语言融入NeRF,给点文字就生成3D图的LERF来了
自然语言融入NeRF,给点文字就生成3D图的LERF来了
152 0

热门文章

最新文章