4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

简介: 英伟达、麻省理工学院与清华大学联合发布Sana,一款高效文本到图像生成框架。Sana通过深度压缩自编码器和线性注意力机制,实现快速高分辨率图像生成,生成1024×1024图像仅需不到1秒。此外,Sana采用解码器专用文本编码器增强文本与图像对齐度,大幅提高生成质量和效率。相比现有模型,Sana体积更小、速度更快,适用于多种设备。

在人工智能技术飞速发展的今天,图像生成领域再次迎来了一次重大突破。英伟达(NVIDIA)与麻省理工学院(MIT)、清华大学联合推出了一款名为Sana的新型文本到图像生成框架,其在生成速度和图像质量上均取得了令人瞩目的成绩。

Sana框架的核心优势在于其能够以极高的效率生成高分辨率图像。根据论文介绍,Sana可以生成分辨率高达4096×4096的图像,而这一过程在笔记本电脑GPU上即可完成。更令人惊讶的是,生成一张1024×1024分辨率的图像,Sana仅需不到1秒的时间。这一速度不仅远超当前市场上的其他图像生成模型,更是将图像生成的效率提升到了一个新的高度。

Sana框架之所以能够实现如此高效的图像生成,离不开其独特的深度压缩自编码器设计。与传统的自编码器不同,Sana的自编码器能够将图像压缩32倍,从而大大减少了潜在标记的数量。这一创新设计不仅提高了图像生成的效率,还有效降低了模型的计算复杂度。

在Transformer模型中,注意力机制是关键组成部分。然而,传统的注意力机制在处理高分辨率图像时往往效率低下。为了解决这一问题,Sana框架引入了线性注意力机制,将所有传统的注意力机制替换为线性注意力。这一改进使得Sana在处理高分辨率图像时更加高效,同时并未牺牲图像质量。

为了进一步提高文本到图像的对齐度,Sana框架还引入了解码器专用文本编码器。该编码器使用现代解码器专用小型LLM(语言模型)取代了传统的T5模型,并通过上下文学习设计了复杂的人类指令,从而增强了图像与文本之间的关联性。这一设计使得Sana生成的图像更加符合用户的描述和意图。

除了上述创新设计外,Sana框架还采用了高效的训练和采样策略。研究团队提出了Flow-DPM-Solver方法,以减少采样步骤,并通过高效的标题标注和选择来加速收敛。这些策略的应用使得Sana的训练过程更加高效,从而进一步提高了图像生成的速度和质量。

在性能对比方面,Sana-0.6B模型表现出了极高的竞争力。与当前市场上的巨型扩散模型(如Flux-12B)相比,Sana-0.6B不仅体积更小(仅为其20分之一),而且速度更快(超过100倍)。这一优势使得Sana能够在更广泛的设备上部署和应用,包括笔记本电脑等资源受限的设备。

论文地址:https://arxiv.org/abs/2410.10629

目录
相关文章
|
15小时前
|
人工智能 自动驾驶 大数据
预告 | 阿里云邀您参加2024中国生成式AI大会上海站,马上报名
大会以“智能跃进 创造无限”为主题,设置主会场峰会、分会场研讨会及展览区,聚焦大模型、AI Infra等热点议题。阿里云智算集群产品解决方案负责人丛培岩将出席并发表《高性能智算集群设计思考与实践》主题演讲。观众报名现已开放。
|
17天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
20天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
11天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
|
5天前
|
人工智能 自然语言处理 前端开发
100个降噪蓝牙耳机免费领,用通义灵码从 0 开始打造一个完整APP
打开手机,录制下你完成的代码效果,发布到你的社交媒体,前 100 个@玺哥超Carry、@通义灵码的粉丝,可以免费获得一个降噪蓝牙耳机。
2522 11
|
12天前
|
人工智能 自然语言处理 前端开发
用通义灵码,从 0 开始打造一个完整APP,无需编程经验就可以完成
通义灵码携手科技博主@玺哥超carry 打造全网第一个完整的、面向普通人的自然语言编程教程。完全使用 AI,再配合简单易懂的方法,只要你会打字,就能真正做出一个完整的应用。本教程完全免费,而且为大家准备了 100 个降噪蓝牙耳机,送给前 100 个完成的粉丝。获奖的方式非常简单,只要你跟着教程完成第一课的内容就能获得。
3288 9
|
10天前
|
人工智能 自然语言处理 前端开发
什么?!通义千问也可以在线开发应用了?!
阿里巴巴推出的通义千问,是一个超大规模语言模型,旨在高效处理信息和生成创意内容。它不仅能在创意文案、办公助理、学习助手等领域提供丰富交互体验,还支持定制化解决方案。近日,通义千问推出代码模式,基于Qwen2.5-Coder模型,用户即使不懂编程也能用自然语言生成应用,如个人简历、2048小游戏等。该模式通过预置模板和灵活的自定义选项,极大简化了应用开发过程,助力用户快速实现创意。
|
24天前
|
缓存 监控 Linux
Python 实时获取Linux服务器信息
Python 实时获取Linux服务器信息
|
6天前
|
人工智能 C++ iOS开发
ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码
本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。
492 4
|
9天前
|
云安全 人工智能 自然语言处理