原生支持QwenImage!FlowBench 正式开启公测!本地 + 云端双模生图,AI创作更自由

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: FlowBench 是由 ModelScope x Muse 团队打造的一站式 AI 工作流创作平台,现已开启全面公测。该平台以工作流为核心,支持本地与云端资源协同运行,面向开发者、设计师及 AI 创作者提供高效、稳定、易用的可视化创作体验。FlowBench 原生支持 QwenImage 图像生成模型,最低仅需 8GB 显存即可实现本地生图,并支持多 LoRA 融合、多图批量生成等强大功能。用户可在 Mac 和 Windows 系统下载使用,同时享受云端与本地自由切换带来的灵活体验。公测期间,FlowBench 团队将持续优化功能,推出更多创新特性,助力用户开启高效 AI 创作之旅。

我们很高兴地宣布,由ModelScope x Muse团队打造的FlowBench客户端,正式开启全面公测!

FlowBench 是以工作流位核心的一站式 AI 工作流创作平台支持本地与云端资源协同运行,面向开发者、设计师及AI创作者提供高效、稳定、易用的可视化工作流体验。现已全面开放下载公测,原生支持QwenImage,诚邀每一位热爱生成艺术的你,共同开启高效、灵活、可控的 AI 创作新体验!


0.png

 FlowBench下载地址

🍎 Mac 版

💻 Windows 版


从内测到公测,我们的迭代升级

自内测以来,我们收到了大量宝贵反馈。这一次的开放公测,FlowBench团队带来全面升级。不仅新增了对 QwenImage模型的支持,实现8G显存的生图,更支持本地与云端环境自由切换、多 LoRA 融合、多图批量生成等复杂数组能力的操作,带来性能、体验与功能的全方位进化。

本次公测核心升级亮点:

  • 增加对QwenImage的支持,推荐使用QwenImageFP8模型,最低只需要8G显存,32G内存即可本地生图。
  • 支持本地与云端环境自由切换,诸多节点增加<本地环境><云端环境>两种模式,可以混合使用本地与云端资源,云端资源与魔搭AIGC专区算力额度共享。
  • 增加对多LoRA、多图片展示、生成多张图片等数组能力的支持
  • 增加对显存、内存、cpu等资源利用率的显示
  • 增加随机数种子-1,每次会随机生成种子从而产生不同的图片
  • 为Windows端增加了代码签名认证,现在下载不会被浏览器拦截了
  • 增加了诸多防火墙规则,现在FlowBench不会被Windows防火墙拦截了

QwenImage的原生支持

本次FlowBench发布公测的核心功能围绕QwenImage图像生成模型打造,原生支持Qwen图片生成节点。Qwen图片生成节点同时支持<本地环境><云端环境>两种模式,可以混合使用本地与云端资源,云端资源与魔搭AIGC专区算力额度共享。围绕Qwen图片生成节点,FlowBench团队发布了2个示例工作流供大家一键体验,分别是云端多LoRA生图工作流和本地生图工作流。

QwenImage的云端多LoRA生图工作流:


640 (6).png

QwenImage的本地生图工作流:


640 (7).png


在公测期间FlowBench团队会陆续放出一些画好的工作流给大家体验,大家可以在  商店 - 工作流 中点击下载。如果您有好的工作流想要分享, 也欢迎在 商店-工作流- 发布工作流 共享给社区小伙伴。

QwenImage的本地运行配置要求


QwenImage生图节点的运行环境,目前仅支持Windows电脑和NVIDIA RTX20 系及更新的显卡。如果您的电脑显存大于8GB, 内存大于48GB, 可在本地运行QwenImage的FP8量化版本, 商店直接下载QwenImage本地生图工作流即可尝试。


配置等级

显存

内存

Offload 模式

最低配置

8GB+

48GB+

高级 Offload

中等配置

24GB+

48GB+

普通 Offload

推荐配置

48GB+

48GB+

无需 Offload,极速生成

温馨提示:

-QwenImage 模型体积较大,本地运行建议提前预留 50–100GB 磁盘空间。

-Mac电脑或者配置不足的Windows电脑,建议使用云端环境来运行,无需下载模型。

-云端环境生图使用的算力资源将与 ModelScope AIGC Web端额度共享。

QwenImage的推荐分辨率设置:

分辨率

尺寸

1:1

1328×1328

3:4

1140×1472

9:16

928×1664

不同Offload 模式下的预计显存占用:

Offload 模式

显存占用

43.34GB

普通

21.44GB

高级

仅 1.7GB

快速开始使用


  • 下载或更新 FlowBench客户端
  • 进入 商店-节点包,点击下载“FlowBench官方节点包”
  • 进入 商店-工作流,点击下载 “QwenImage云端多lora生图” 工作流或其他工作流
  • 进入 工作流,打开刚下载的工作流,点击运行!

更多详细的使用教程,请参考官方使用手册

更多功能还在路上,敬请期待!

接下来即将上线:

  • 本地与云端视频生成节点(支持动态内容创作)
  • 连线视觉全面升级(更清晰、更直观的工作流编辑体验)

欢迎体验,更欢迎反馈!  

在使用过程中遇到任何问题,或有功能建议,欢迎通过官方渠道联系我们。你的每一条反馈,都在推动 FlowBench 变得更好。

相关文章
|
8天前
|
人工智能 前端开发 Docker
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
在 AI 智能体开发中,开发者常面临本地调试与云端部署的矛盾。本文介绍如何通过 Docker Compose 与 Docker Offload 解决这一难题,实现从本地快速迭代到云端高效扩容的全流程。内容涵盖多服务协同、容器化配置、GPU 支持及实战案例,助你构建高效、一致的 AI 智能体开发环境。
135 0
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
|
3天前
|
SQL 人工智能 Linux
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
62 5
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
|
6天前
|
人工智能 编解码 自然语言处理
重磅更新!ModelScope FlowBench 支持视频生成 + 图像编辑,AI创作全面升级!
很高兴地向大家宣布,ModelScope FlowBench 客户端迎来重大功能升级! 本次更新不仅正式支持了视频节点功能,还新增了图像编辑与IC-Light智能打光等实用功能,同时对多个图像处理节点进行了深度优化和扩展。现在,您只需在 FlowBench 中轻松串联节点,即可使用 Wan2.1/Wan2.2、Qwen-Image-Edit、FLUX Kontext、IC-Light等强大模型,轻松实现创意内容的生成与编辑。 无论你是内容创作者、视觉设计师,还是AI技术爱好者,这次更新都将为你打开全新的创作边界。
133 14
|
1月前
|
SQL 人工智能 Linux
SQL Server 2025 RC0 发布 - 从本地到云端的 AI 就绪企业数据库
SQL Server 2025 RC0 发布 - 从本地到云端的 AI 就绪企业数据库
111 5
|
8月前
|
人工智能 监控 安全
云端问道18期实践教学-AI 浪潮下的数据安全管理实践
本文主要介绍AI浪潮下的数据安全管理实践,主要分为背景介绍、Access Point、Bucket三个部分
307 54
|
4月前
|
SQL 人工智能 数据库
SQL Server 2025 - 从本地到云端的 AI 就绪企业数据库
SQL Server 2025 - 从本地到云端的 AI 就绪企业数据库
272 0
SQL Server 2025 - 从本地到云端的 AI 就绪企业数据库
|
8月前
|
人工智能 自然语言处理 算法
云端问道11期实践教学-创建专属AI助手
本次分享意在帮助用户更加全面、深入地了解百炼的核心产品能力,并通过实际操作学会如何快速将大模型与自己的系统及应用相结合。主要包括以下三个方面: 1. 阿里云百炼产品定位和能力简介 2. 知识检索 RAG 智能体应用能力和优势 3. 最佳落地案例实践分享
350 56
|
8月前
|
人工智能 搜索推荐 Serverless
云端问道22期——AI智能语音实时互动
《云端问道22期——AI智能语音实时互动》分享了构建用户与AI智能语音实时互动的方法,涵盖七个部分:进入解决方案页、方案介绍、操作步骤、创建AI智能体、实时工作模版、部署应用及应用体验。通过阿里云平台,用户可以快速部署并体验AI语音通话功能,包括语音转文字、文字转语音、个性化定制智能体人设及接入私有知识库等。整个过程简单流畅,适合开发者和企业快速上手。
418 8
|
8月前
|
人工智能 自然语言处理 搜索推荐
云端问道12期实操教学-构建基于Elasticsearch的企业级AI搜索应用
本文介绍了构建基于Elasticsearch的企业级AI搜索应用,涵盖了从传统关键词匹配到对话式问答的搜索形态演变。阿里云的AI搜索产品依托自研和开源(如Elasticsearch)引擎,提供高性能检索服务,支持千亿级数据毫秒响应。文章重点描述了AI搜索的三个核心关键点:精准结果、语义理解、高性能引擎,并展示了架构升级和典型应用场景,包括智能问答、电商导购、多模态图书及商品搜索等。通过实验部分,详细演示了如何使用阿里云ES搭建AI语义搜索Demo,涵盖模型创建、Pipeline配置、数据写入与检索测试等步骤,同时介绍了相关的计费模式。
233 3
|
8月前
|
人工智能 弹性计算 自然语言处理
云端问道 6 期实践教学-创意加速器:AI 绘画创作
本文介绍了在阿里云平台上一键部署Demo应用的步骤。部署完成后,通过公网地址体验Demo应用,包括文本生成图像等功能。
157 10

热门文章

最新文章