我们很高兴地宣布,由ModelScope x Muse团队打造的FlowBench客户端,正式开启全面公测!
FlowBench 是以工作流位核心的一站式 AI 工作流创作平台,支持本地与云端资源协同运行,面向开发者、设计师及AI创作者提供高效、稳定、易用的可视化工作流体验。现已全面开放下载公测,原生支持QwenImage,诚邀每一位热爱生成艺术的你,共同开启高效、灵活、可控的 AI 创作新体验!
FlowBench下载地址:
从内测到公测,我们的迭代升级
自内测以来,我们收到了大量宝贵反馈。这一次的开放公测,FlowBench团队带来全面升级。不仅新增了对 QwenImage模型的支持,实现8G显存的生图,更支持本地与云端环境自由切换、多 LoRA 融合、多图批量生成等复杂数组能力的操作,带来性能、体验与功能的全方位进化。
本次公测核心升级亮点:
- 增加对QwenImage的支持,推荐使用QwenImageFP8模型,最低只需要8G显存,32G内存即可本地生图。
- 支持本地与云端环境自由切换,诸多节点增加<本地环境><云端环境>两种模式,可以混合使用本地与云端资源,云端资源与魔搭AIGC专区算力额度共享。
- 增加对多LoRA、多图片展示、生成多张图片等数组能力的支持
- 增加对显存、内存、cpu等资源利用率的显示
- 增加随机数种子-1,每次会随机生成种子从而产生不同的图片
- 为Windows端增加了代码签名认证,现在下载不会被浏览器拦截了
- 增加了诸多防火墙规则,现在FlowBench不会被Windows防火墙拦截了
QwenImage的原生支持
本次FlowBench发布公测的核心功能围绕QwenImage图像生成模型打造,原生支持Qwen图片生成节点。Qwen图片生成节点同时支持<本地环境><云端环境>两种模式,可以混合使用本地与云端资源,云端资源与魔搭AIGC专区算力额度共享。围绕Qwen图片生成节点,FlowBench团队发布了2个示例工作流供大家一键体验,分别是云端多LoRA生图工作流和本地生图工作流。
QwenImage的云端多LoRA生图工作流:
QwenImage的本地生图工作流:
在公测期间FlowBench团队会陆续放出一些画好的工作流给大家体验,大家可以在 商店 - 工作流 中点击下载。如果您有好的工作流想要分享, 也欢迎在 商店-工作流- 发布工作流 共享给社区小伙伴。
QwenImage的本地运行配置要求
QwenImage生图节点的运行环境,目前仅支持Windows电脑和NVIDIA RTX20 系及更新的显卡。如果您的电脑显存大于8GB, 内存大于48GB, 可在本地运行QwenImage的FP8量化版本, 商店直接下载QwenImage本地生图工作流即可尝试。
配置等级 |
显存 |
内存 |
Offload 模式 |
最低配置 |
8GB+ |
48GB+ |
高级 Offload |
中等配置 |
24GB+ |
48GB+ |
普通 Offload |
推荐配置 |
48GB+ |
48GB+ |
无需 Offload,极速生成 |
温馨提示:
-QwenImage 模型体积较大,本地运行建议提前预留 50–100GB 磁盘空间。
-Mac电脑或者配置不足的Windows电脑,建议使用云端环境来运行,无需下载模型。
-云端环境生图使用的算力资源将与 ModelScope AIGC Web端额度共享。
QwenImage的推荐分辨率设置:
分辨率 |
尺寸 |
1:1 |
1328×1328 |
3:4 |
1140×1472 |
9:16 |
928×1664 |
不同Offload 模式下的预计显存占用:
Offload 模式 |
显存占用 |
无 |
43.34GB |
普通 |
21.44GB |
高级 |
仅 1.7GB |
快速开始使用
- 下载或更新 FlowBench客户端
- 进入 商店-节点包,点击下载“FlowBench官方节点包”
- 进入 商店-工作流,点击下载 “QwenImage云端多lora生图” 工作流或其他工作流
- 进入 工作流,打开刚下载的工作流,点击运行!
更多详细的使用教程,请参考官方使用手册
更多功能还在路上,敬请期待!
接下来即将上线:
- 本地与云端视频生成节点(支持动态内容创作)
- 连线视觉全面升级(更清晰、更直观的工作流编辑体验)
欢迎体验,更欢迎反馈!
在使用过程中遇到任何问题,或有功能建议,欢迎通过官方渠道联系我们。你的每一条反馈,都在推动 FlowBench 变得更好。