加速扩散模型,最快1步生成SOTA级图片,字节Hyper-SD开源了

简介: 【5月更文挑战第9天】字节跳动研究团队推出Hyper-SD框架,实现快速图像生成,仅需1步即可达SOTA水平。该框架采用TSCD技术减少误差,整合ReFL优化加速模型,提高图像质量。在1步推理时,Hyper-SDXL在CLIP和Aes Score上超越SDXL-Lightning。开源LoRA插件促进社区发展,但可能牺牲部分模型通用性,未来仍需关注用户需求多样性。[论文链接](https://arxiv.org/abs/2404.13686)

在人工智能领域,图像生成技术一直是研究的热点。随着深度学习技术的不断进步,生成模型的能力也在不断提升。最近,字节跳动公司的研究团队在这一领域取得了显著的进展,他们提出了一种名为Hyper-SD的新型框架,该框架能够在极少的推理步骤下生成高质量的图像,并且在某些情况下,只需1步即可达到SOTA(State of the Art,即业界最佳水平)的性能。这一研究成果不仅在技术上具有创新性,而且对整个图像生成领域的发展具有重要的推动作用。

Hyper-SD框架的核心创新在于其独特的“轨迹分段一致性蒸馏”(Trajectory Segmented Consistency Distillation,简称TSCD)技术。这项技术通过将整个时间步范围分割成多个小段,并在每个小段内进行一致性蒸馏,从而实现了对原始轨迹的精细保留。这种方法有效地减少了模型拟合过程中的累积误差,提高了生成图像的质量。

此外,Hyper-SD框架还整合了人类反馈学习(Human Feedback Learning,简称ReFL)技术,通过优化加速模型的ODE(常微分方程)轨迹,使其更适合少步骤推理。这一技术的运用,使得在某些情况下,加速模型的性能甚至超过了原始模型。

在实验中,Hyper-SD在1到8步推理的情况下,对于SDXL和SD1.5两种架构均展现出了SOTA性能。特别是在1步推理的情况下,Hyper-SDXL在CLIP Score和Aes Score两个指标上分别超过了SDXL-Lightning 0.68和0.51,这一结果在图像生成领域是相当惊人的。

为了更全面地评估模型性能,研究团队还进行了广泛的用户研究。用户研究的结果表明,Hyper-SD在多种设置和方法中获得了显著更多的用户偏好,尤其是在与同一架构的基线模型相比时,Hyper-SD15在用户偏好上拥有超过三分之二的优势。

字节跳动公司的研究团队不仅在技术上取得了突破,还通过开源相关的LoRA(Low-Rank Adaptation)插件,为整个社区的发展做出了贡献。这些插件支持从1到8步的推理,并且提供了一个专门的单步SDXL模型,以进一步推动生成AI社区的发展。

Hyper-SD框架在图像生成领域的贡献是显而易见的。它不仅提高了生成图像的质量和效率,还通过开源其技术,促进了整个行业的技术共享和进步。然而,任何技术都有其局限性。Hyper-SD在实现快速生成高质量图像的同时,也牺牲了一部分模型的通用性。例如,该框架在处理某些特定类型的图像时,可能需要特定的优化策略来进一步提升性能。

此外,尽管Hyper-SD在用户研究中获得了较高的评价,但图像生成的主观性很强,不同用户对图像质量的评价标准可能存在差异。因此,如何进一步提升模型以满足更广泛的用户需求,仍是未来研究需要关注的问题。

论文链接:https://arxiv.org/abs/2404.13686

目录
打赏
0
1
1
0
396
分享
相关文章
|
2月前
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
185 18
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
|
2月前
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
70 2
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
|
6月前
|
StableDiffusion-04 (炼丹篇) 15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
StableDiffusion-04 (炼丹篇) 15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
67 1
|
6月前
|
StableDiffusion-04 (炼丹篇) 15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
StableDiffusion-04 (炼丹篇) 15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
64 0
SVDQuant:MIT 推出的扩散模型后训练的量化技术,能够将模型的权重和激活值量化至4位,减少内存占用并加速推理过程
SVDQuant是由MIT研究团队推出的扩散模型后训练量化技术,通过将模型的权重和激活值量化至4位,显著减少了内存占用并加速了推理过程。该技术引入了高精度的低秩分支来吸收量化过程中的异常值,支持多种架构,并能无缝集成低秩适配器(LoRAs),为资源受限设备上的大型扩散模型部署提供了有效的解决方案。
183 5
SVDQuant:MIT 推出的扩散模型后训练的量化技术,能够将模型的权重和激活值量化至4位,减少内存占用并加速推理过程
|
6月前
|
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
58 1
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
58 0
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024
【5月更文挑战第30天】清华大学研究团队提出的EfficientTrain++是一种新型训练方法,旨在加速视觉基础网络(如ResNet、ConvNeXt、DeiT)的训练,最高可达3倍速度提升,同时保持模型准确性。该方法基于傅里叶谱裁剪和动态数据增强,实现了课程学习的创新应用。在ImageNet-1K/22K数据集上,EfficientTrain++能有效减少多种模型的训练时间,且在自监督学习任务中表现出色。尽管面临适应性与稳定性的挑战,EfficientTrain++为深度学习模型的高效训练开辟了新途径,对学术和工业界具有重要意义。
102 4
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等