Nucleus-Image 17B开源:首个MoE架构文生图扩散模型,仅激活2B参数即超越Imagen 4

简介: NucleusAI开源17B参数MoE扩散模型Nucleus-Image,首创稀疏专家架构,前向仅激活约2B参数;纯预训练即达SOTA,在GenEval等三大基准上超越Imagen 4等闭源模型,完全开源(Apache 2.0),支持商业使用。

NucleusAI开源了Nucleus-Image,一个拥有17B 参数的文本到图像扩散模型。该模型首次将稀疏混合专家(Sparse MoE)架构引入扩散模型领域,每次前向传播仅激活约2B参数,在GenEval、DPG-Bench和OneIG-Bench三项基准上匹配或超越GPT Image 1、Imagen 4等闭源模型,且完全来自预训练,未使用任何DPO或RLHF。




开源地址:

  • ModelScope:Nucleus-Image
  • Github: https://github.com/WithNucleusAI/Nucleus-Image

01 核心特性

首个高质量MoE扩散模型 17B参数仅激活约2B,大模型容量、小模型推理成本,首次验证稀疏MoE在扩散模型中的可行性。

纯预训练即达SOTA 无DPO、无RL、无偏好调优,GenEval 0.87、DPG-Bench 88.79(第一)、OneIG-Bench 0.522,超越Imagen 4。

解耦路由机制 将路由与时间步调制解耦,解决LLM式路由在扩散模型中导致专家同质化的根本问题。

文本KV缓存加速 文本token仅提供KV、不进MoE主干,KV张量计算一次即可跨全部去噪步骤复用,一行代码开启。

完全开源 权重采用Apache 2.0许可证,支持商业使用,首个完全开源MoE扩散模型。



02 核心技术与训练

解耦路由:MoE扩散稳定训练的关键

DiT的自适应调制使不同时间步下表示范数相差一个数量级,直接复用LLM式路由会导致logits被时间步尺度主导,专家特化丧失。Nucleus-Image将路由与计算解耦:路由器接收 [x_norm ‖ t_emb](内容决定路由,时间步为加性通道),专家接收完全调制后的 x_mod 保持条件表达能力。解耦路由下专家按空间和语义身份清晰特化,耦合路由则训练不稳定且专家同质化。



文本token作为纯KV参与者

与Flux、SD3双流架构不同,文本token完全不进入MoE主干,仅在联合注意力中贡献KV。路由仅在图像token上操作,简化负载均衡;文本KV无时间步依赖,计算一次即可跨全部去噪步骤复用。

渐进稀疏化

将专家容量因子与分辨率课程学习耦合:256²阶段容量因子8.0保证梯度稳定,1024²阶段降至4.0/2.0实现激进稀疏化,浅层保持广泛混合、深层窄化特化。

Muon + WSM调度

抛弃EMA影子权重和固定学习率衰减,采用Muon+AdamW混合优化器,训练结束后对最近N个检查点做逆平方根加权平均,N=16时GenEval提升+3.2分。

训练数据

7亿张图像、15亿条描述,经多阶段过滤、感知去重和美学评分。每张图像标注质量层级(A1–A5)和课程桶(B1–B8),训练中逐步向高质量倾斜。从第零步起即采用多宽高比分桶训练。64块H100上训练,每GPU一个专家,配合定制Triton核和Flash Attention 3。


03 性能表现

以下所有分数均来自基础模型(无RL、无DPO、无偏好调优),1024×1024分辨率,50步推理,CFG 8.0。

GenEval 组合生成基准 总分0.87,与Qwen-Image和CogView 4并列第一。在6个子项中表现全面:Single 0.99、Two Obj 0.95、Colors 0.92、Position 0.85、Attr. Bind 0.71。其中空间位置子项(0.85)尤为突出,SD3.5 Large和FLUX.1 Dev在该项上分别仅得0.34和0.22,空间布局理解正是MoE专家特化特别擅长捕获的能力。



DPG-Bench 密集提示遵循基准 总分88.79,排名第一,领先第二名Qwen-Image(88.32)0.47分。在6个维度中拿下4项第一:实体93.08、属性92.20、其他93.62、总分88.79,仅在Relation(93.56,差1.29)和Global(85.10,差9.21)两项上未登顶。



OneIG-Bench方面,Nucleus-Image得分0.522,超越Imagen 4(0.515)和Recraft V3(0.502),风格子项表现突出(0.430)。

04 推理代码:

使用diffusers进行推理的脚本如下:

import torch
from diffusers import DiffusionPipeline, TextKVCacheConfig
pipe = DiffusionPipeline.from_pretrained(
    "NucleusAI/NucleusMoE-Image", torch_dtype=torch.bfloat16
).to("cuda")
pipe.transformer.enable_cache(TextKVCacheConfig())  # cache text KV across steps
image = pipe(
    prompt="A weathered lighthouse on a rocky coastline at golden hour, "
           "waves crashing against the rocks, seagulls overhead, "
           "dramatic amber-and-violet clouds",
    width=1344, height=768,
    num_inference_steps=50, guidance_scale=4.0,
    generator=torch.Generator(device="cuda").manual_seed(42),
).images[0]
image.save("nucleus_output.png")

开箱支持的宽高比:1:1(1024²)、16:9、9:16、4:3、3:4、3:2、2:3。

05 总结

Nucleus-Image通过稀疏MoE架构在文生图扩散模型中实现了容量与计算的解耦,以17B参数的知识容量和约2B参数的推理成本,在多项基准上达到或超越当前最强闭源模型。解耦路由、文本KV缓存、渐进稀疏化等一系列架构创新为MoE在扩散模型中的应用提供了完整的技术方案。作为首个完全开源的高质量MoE扩散基座模型,Nucleus-Image为社区的后训练优化、可控生成和更高分辨率扩展提供了坚实的起点。


链接:https://modelscope.cn/models/NucleusAI/Nucleus-Image


目录
相关文章
|
16天前
|
人工智能 测试技术 调度
移动端 RPA 的架构重构:基于多模态视觉大模型的自动化调度系统压测复盘
本文复盘企业级移动端RPA重构实践,介绍如何以“侠客工坊”AI数字员工平台替代传统坐标录制方案:基于多模态大模型实现视觉语义决策、高并发多机型调度、零代码编排、异常自愈及MCP协议集成,显著提升自动化鲁棒性与运维效率。
136 10
|
22天前
|
人工智能 运维 前端开发
Kimi K2.6开源:编码能力比肩闭源顶级模型,支持300智能体协同
Moonshot AI开源Kimi K2.6,主打长时编码、智能体协同与前端设计生成。在Terminal-Bench 2.0、SWE-Bench Pro等基准上达开源SOTA,逼近GPT-5.4与Claude Opus 4.6;智能体集群扩展至300个子智能体、4000协调步。
913 6
|
21天前
|
机器学习/深度学习 物联网 Serverless
Qwen3.6发布27B Dense模型,提供旗舰级编程能力,魔搭Serverless训练服务Day0支持
Qwen3.6-27B是通义千问全新推出的27B Dense架构开源大模型,部署友好、推理高效,智能体编程能力达旗舰水平(Terminal-Bench打平Claude 4.5 Opus),原生支持多模态与思考/非思考双模式,已上线魔搭并获Serverless训练Day-0支持。
1241 3
|
7天前
|
测试技术 API 数据处理
Claude API 接入方案解析:国内业务落地要关注哪些限制
Claude API 的基础接入并不复杂,但企业落地不能只看 Demo。模型版本、地区限制、网络链路、限流策略和成本治理,都会影响最终稳定性。
239 7

热门文章

最新文章