告别“扁平思维”:Qwen-Image-Layered 开启 AI 图片的图层革命

简介: Qwen-Image-Layered开启AI图像编辑新纪元,首次实现语义解耦的图层化处理,支持精准移动、无损缩放与局部替换,告别“牵一发而动全身”。通过RGBA-VAE与VLD-MMDiT技术,让AI像设计师一样理解图像结构,重塑生成范式。

你是否有过这样的挫败感:想让 AI 把合照里的路人移开,结果路人消失了,背景却像被抹了一层浆糊;想改一下海报里的字体,结果 AI 把整张图的画风都重绘了。

这种“牵一发而动全身”的翻车现场,本质上是因为 AI 一直在用「扁平图片」思考世界。对模型而言,图片只是像素的堆砌,而非物体的组合


近日, Qwen 团队发布的最新研究 Qwen-Image-Layered 正式宣告:AI 图像编辑的“图层时代”来了!


Technical Report:

https://arxiv.org/abs/2512.15603

Blog: https://www.modelscope.cn/papers/2512.15603

Github: https://github.com/QwenLM/Qwen-Image-Layered

Model: https://www.modelscope.cn/models/Qwen/Qwen-Image-Layered

Demo: https://www.modelscope.cn/studios/Qwen/Qwen-Image-Layered


范式转移:从“改像素”到“动图层”

传统的 AI 修图是全局重采样,就像在湿透的画纸上改色,颜色必然会渗开。而 Qwen-Image-Layered 提出了一种根本性的转变:将图像表示为一组语义解耦的 RGBA 图层。

通过将图片自动“剥洋葱”,每一层都拥有独立的颜色(RGB)和透明度(Alpha)。这种「内生可编辑性」 (Inherent Editability)带来了物理隔离的保护:


精准位移(Reposition): 移动文字或人物,不影响底图任何像素

无损缩放(Resize): 放大主体,背景依然可以“钉”在原处

自由替换(Replace): 只换一件衬衫,不改变模特的脸型

深度解析:像设计师一样“看图”

这项工作不仅是效果的提升,更是从底层重构了 AI 理解图像的逻辑 :

  1. RGBA-VAE:给 AI 装上“透明之眼”
    传统的 VAE 只懂红绿蓝,Qwen 团队研发了全新的 RGBA-VAE,让 RGB 图像和带透明度的 RGBA 图层在同一个潜空间内“对话” ,解决了图层之间分布不均、边界模糊的顽疾。
  2. VLD-MMDiT:支持变长图层的“超级大脑”
    现实世界的图层数是不确定的。VLD-MMDiT 架构能够一次性处理 3 层、10 层甚至更多图层,且层与层之间通过注意力机制协同,不再需要低效的递归拆解 。
  3. 多阶段进化:从生成到拆解
    模型并非生而知之。它经历了从“生成单图”到“生成多层”,最后进化到“拆解任意 RGB 图像”的循序渐进过程,将强大的生成基因转化成了精准的理解力 。


实测代差:图层才是可编辑性的关键

在与主流方案(如 LayerD)的对比中,Qwen-Image-Layered 展示了惊人的统治力:

边界更干净: 在衡量透明度质量的 Alpha soft IoU 指标上显著领先。

背景更完整: 自动补全被遮挡的部分,且没有常见的“补丁”伪影。

编辑更稳定: 相比于 Qwen-Image-Edit 等全局编辑模型,它完全杜绝了像素级漂移。

即刻体验模型训练

魔搭社区的开源项目 DiffSynth-Studio 已率先支持 Qwen-Image-Layered 模型的训练。

Step 1: 安装 DiffSynth-Studio

项目链接:https://github.com/modelscope/DiffSynth-Studio

git clone https://github.com/modelscope/DiffSynth-Studio.git  
cd DiffSynth-Studio
pip install -e .


Step 2: 下载样例数据集

数据集链接:https://modelscope.cn/datasets/DiffSynth-Studio/example_image_dataset/tree/master/layer

modelscope download --dataset DiffSynth-Studio/example_image_dataset --local_dir ./data/example_image_dataset


Step 3: 开始训练 LoRA

accelerate launch examples/qwen_image/model_training/train.py 
  –dataset_base_path data/example_image_dataset/layer 
  –dataset_metadata_path data/example_image_dataset/layer/metadata_layered.json 
  –data_file_keys “image,layer_input_image” 
  –max_pixels 1048576 
  –dataset_repeat 50 
  –model_id_with_origin_paths “Qwen/Qwen-Image-Layered:transformer/diffusion_pytorch_model.safetensors,Qwen/Qwen-Image:text_encoder/model.safetensors,Qwen/Qwen-Image-Layered:vae/diffusion_pytorch_model.safetensors” 
  –learning_rate 1e-4 
  –num_epochs 5 
  –remove_prefix_in_ckpt “pipe.dit.” 
  –output_path “./models/train/Qwen-Image-Layered_lora” 
  –lora_base_model “dit” 
  –lora_target_modules “to_q,to_k,to_v,add_q_proj,add_k_proj,add_v_proj,to_out.0,to_add_out,img_mlp.net.2,img_mod.1,txt_mlp.net.2,txt_mod.1” 
  –lora_rank 32 
  –extra_inputs “layer_num,layer_input_image” 
  –use_gradient_checkpointing 
  –dataset_num_workers 8 
  –find_unused_parameters

更多信息,请参考 DiffSynth-Studio 的文档(https://github.com/modelscope/DiffSynth-Studio/blob/main/docs/zh/Model_Details/Qwen-Image.md)。

结语

AI 图像不应只是一张结果图,而应该是一种“结构化资产”。


当图像天然就是多图层时,AI 与 Photoshop 等专业设计工具的壁垒将被彻底打破。创作流程将从盲目的“抽卡试错”,变成像搭积木一样精准的操作。

Qwen-Image-Layered 补齐了这块缺失已久的地基。这不仅是一项技术的进步,更是图像生成范式的重塑。


点击直达模型:https://www.modelscope.cn/models/Qwen/Qwen-Image-Layered



目录
相关文章
|
2月前
|
人工智能 物联网 测试技术
ModelScope魔搭社区发布月报 -- 25年12月
魔搭社区12月重磅更新DeepSeek 3.2、Mistral-3等模型,Z-Image-Turbo引领文生图生态,平台全面升级加速开源模型落地。
367 8
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Z-Image:冲击体验上限的下一代图像生成模型
通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。
3669 9
|
3月前
|
编解码 物联网 API
码上生花:用API链接Qwen-Image系列及衍生LoRA生态模型
Qwen-Image系列开源三月成爆款,凭借中文场景优势与ModelScope平台深度集成,支持文生图、图像编辑及LoRA生态API调用,助力开发者高效创作。
1231 1
|
4月前
|
测试技术
哪里不对改哪里!全能图像编辑模型Qwen-Image-Edit来啦
Qwen-Image-Edit基于20B Qwen-Image模型,融合视觉语义与外观控制,支持中英文文字精准编辑、风格迁移、IP创作等多重功能,具备SOTA性能,助力低门槛、高精度图像编辑。
2134 23
|
3月前
|
人工智能 双11 开发者
中小电商卖家福音!用AI 3分钟搞定高转化主图+详情页!
还在为电商设计成本高、效率低发愁?阿里云百炼全新推出「一键生成电商组图」功能,AI智能生成主图、详情页等视觉素材,零设计基础也能快速出图!限时参与活动,赢定制好礼,更有超值Tokens优惠包,助力爆款打造!
|
3月前
|
数据采集 人工智能 自然语言处理
Meta SAM3开源:让图像分割,听懂你的话
Meta发布并开源SAM 3,首个支持文本或视觉提示的统一图像视频分割模型,可精准分割“红色条纹伞”等开放词汇概念,覆盖400万独特概念,性能达人类水平75%–80%,推动视觉分割新突破。
1600 59
Meta SAM3开源:让图像分割,听懂你的话
|
5月前
|
编解码 文字识别 自然语言处理
腾讯混元生图模型升级2.1版本:支持写字、2k分辨率,开源!
腾讯混元生图模型升级2.1版本:支持写字、2k分辨率,开源!
412 14

热门文章

最新文章