实战 | 猫猫、少女、FLUX、ControlNet

简介: 魔搭社区集结了来自多个组织的 FLUX ControlNet 模型,魔搭社区的开源项目 DiffSynth-Studio 为这些模型提供了支持,今天就随我们一起,体验一下这些 FLUX ControlNet 模型的神奇生成能力。

文生图模型 FLUX 发布之后,开源社区为其适配了用于控制生成内容的模型——ControlNet,如今魔搭社区集结了来自多个组织的 FLUX ControlNet 模型,魔搭社区的开源项目 DiffSynth-Studio 为这些模型提供了支持,今天就随我们一起,体验一下这些 FLUX ControlNet 模型的神奇生成能力。

开源项目:

https://github.com/modelscope/DiffSynth-Studio

运行样例代码

下载并安装 DiffSynth-Studio:

git clone https://github.com/modelscope/DiffSynth-Studio.git
cd DiffSynth-Studio
pip install -e .

运行样例脚本,即可生成文章中所有的图片:

python examples/ControlNet/flux_controlnet.py

Canny/Depth/Normal: 点对点结构控制

结构控制是 ControlNet 模型最基础的能力,通过使用 Canny 提取出边缘信息,或者使用深度图和法线贴图,都可以用于表示图像的结构,进而作为图像生成过程中的控制信息。

例如,我们生成一只猫猫,然后使用支持多控制条件的模型 InstantX/FLUX.1-dev-Controlnet-Union-alpha,同时启用 Canny 和 Depth 控制,让环境变为黄昏。

FLUX.1-dev-Controlnet-Union-alpha

https://www.modelscope.cn/models/InstantX/FLUX.1-dev-Controlnet-Union-alpha

ControlNet 对于结构的控制力度是可以调节的,例如在下面这里例子中,我们把小姐姐从夏天移动到冬天时,适当调低 ControlNet 的控制力度,模型就会根据画面内容作出调整,为小姐姐换上温暖的衣服。

Upscaler/Tile/Blur: 高清图像生成

支持高清化的 ControlNet 模型有很多,例如

Flux.1-dev-Controlnet-Upscaler

https://www.modelscope.cn/models/jasperai/Flux.1-dev-Controlnet-Upscaler

FLUX.1-dev-Controlnet-Union-alpha

https://www.modelscope.cn/models/InstantX/FLUX.1-dev-Controlnet-Union-alpha

FLUX.1-dev-ControlNet-Union-Pro

https://www.modelscope.cn/models/Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro


这些模型可以把模糊的、含噪点的低质量图像处理成清晰的图像。在 DiffSynth-Studio 中,框架原生支持的高分辨率分块处理技术可以突破模型的分辨率限制,实现 2048 甚至更高分辨率的图像生成,进一步放大了这些模型的能力。在下面的例子中,我们可以看到高清放大到 2048 分辨率的图片中,猫猫的毛发纤毫毕现,人物的皮肤纹理精致逼真。

Inpaint: 局部重绘

往期文章中,我们提到了阿里妈妈团队训练的 Inpaint ControlNet 模型,这个模型可以对图像中的特定区域进行重绘,比如,我们可以给猫猫戴上墨镜。


FLUX.1-dev-Controlnet-Inpainting-Beta

https://www.modelscope.cn/models/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Beta

但是我们注意到,猫猫的头部动作发生了变化,如果我们想要保留原来的结构特征,可以使用 canny、depth、normal 模型,DiffSynth-Studio 为不同结构的 ControlNet 提供了无缝的兼容支持。配合一个 normal ControlNet,我们可以保证局部重绘时画面结构不变。

Flux.1-dev-Controlnet-Surface-Normals

https://www.modelscope.cn/models/jasperai/Flux.1-dev-Controlnet-Surface-Normals


MultiControlNet+MultiDiffusion: 精细的高阶控制

DiffSynth-Studio 不仅支持多个不同结构的 ControlNet 同时生效,还支持使用不同提示词分区控制图中内容,还支持超高分辨率大图的分块处理,这让我们能够作出极为精细的高阶控制。接下来,我们展示一张精美图片的创作过程。

首先使用提示词“a beautiful Asian woman and a cat on a chair. The woman wears a T-shirt.”生成一只猫猫和一位少女。

然后,启用 Inpaint ControlNet 和 Canny ControlNet

FLUX.1-dev-Controlnet-Inpainting-Beta

https://modelscope.cn/models/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Beta

FLUX.1-dev-Controlnet-Union-alpha

https://modelscope.cn/models/InstantX/FLUX.1-dev-Controlnet-Union-alpha


分两个区域进行控制:

生成的结果:


背景有点模糊,我们使用去模糊 LoRA,进行图生图

FLUX.1-dev-LoRA-AntiBlur

https://modelscope.cn/models/LiblibAI/FLUX.1-dev-LoRA-AntiBlur

整个画面清晰多了,接下来使用高清化模型,把分辨率增加到 4096*4096!


Flux.1-dev-Controlnet-Upscaler

https://modelscope.cn/models/jasperai/Flux.1-dev-Controlnet-Upscaler

放大来看看

这个例子可以用下面的 Python 代码“一条龙”式地生成。

from diffsynth import ModelManager, FluxImagePipeline, ControlNetConfigUnit, download_customized_models
import torch
from PIL import Image
import numpy as np
model_manager = ModelManager(torch_dtype=torch.bfloat16, model_id_list=[
    "FLUX.1-dev",
    "InstantX/FLUX.1-dev-Controlnet-Union-alpha",
    "alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Beta",
    "jasperai/Flux.1-dev-Controlnet-Upscaler",
])
pipe = FluxImagePipeline.from_model_manager(model_manager, controlnet_config_units=[
    ControlNetConfigUnit(
        processor_id="inpaint",
        model_path="models/ControlNet/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Beta/diffusion_pytorch_model.safetensors",
        scale=0.9
    ),
    ControlNetConfigUnit(
        processor_id="canny",
        model_path="models/ControlNet/InstantX/FLUX.1-dev-Controlnet-Union-alpha/diffusion_pytorch_model.safetensors",
        scale=0.5
    ),
])
image_1 = pipe(
    prompt="a beautiful Asian woman and a cat on a chair. The woman wears a T-shirt.",
    height=1024, width=1024,
    seed=1000
)
image_1.save("image_13.jpg")
mask_global = np.zeros((1024, 1024, 3), dtype=np.uint8)
mask_global = Image.fromarray(mask_global)
mask_global.save("mask_13_global.jpg")
mask_1 = np.zeros((1024, 1024, 3), dtype=np.uint8)
mask_1[400: -10, 50: 440] = 255
mask_1 = Image.fromarray(mask_1)
mask_1.save("mask_13_1.jpg")
mask_2 = np.zeros((1024, 1024, 3), dtype=np.uint8)
mask_2[500:, 440: -140] = 255
mask_2 = Image.fromarray(mask_2)
mask_2.save("mask_13_2.jpg")
image_2 = pipe(
    prompt="a beautiful Asian woman and a cat on a chair. The woman wears a T-shirt.",
    controlnet_image=image_1, controlnet_inpaint_mask=mask_global,
    local_prompts=["an gray cat, highly detailed", "a girl wearing a pink T-shirt, pure color pink T-shirt"], masks=[mask_1, mask_2], mask_scales=[10.0, 100.0],
    height=1024, width=1024,
    seed=1010
)
image_2.save("image_14.jpg")
model_manager.load_lora("models/lora/FLUX-dev-lora-AntiBlur.safetensors", lora_alpha=1)
image_3 = pipe(
    prompt="a beautiful Asian woman wearing a pink T-shirt and an gray cat on a chair. clear background.",
    negative_prompt="blur, blurry",
    input_image=image_2, denoising_strength=0.7,
    height=1024, width=1024,
    cfg_scale=2.0, num_inference_steps=50,
    seed=10201
)
image_3.save("image_15.jpg")
pipe = FluxImagePipeline.from_model_manager(model_manager, controlnet_config_units=[
    ControlNetConfigUnit(
        processor_id="tile",
        model_path="models/ControlNet/jasperai/Flux.1-dev-Controlnet-Upscaler/diffusion_pytorch_model.safetensors",
        scale=0.7
    ),
])
image_4 = pipe(
    prompt="a beautiful Asian woman wearing a pink T-shirt and an gray cat on a chair. highly detailed, delicate skin texture, clear background.",
    controlnet_image=image_3.resize((2048, 2048)),
    input_image=image_3.resize((2048, 2048)), denoising_strength=0.99,
    height=2048, width=2048, tiled=True,
    seed=103
)
image_4.save("image_16.jpg")
image_5 = pipe(
    prompt="a beautiful Asian woman wearing a pink T-shirt and an gray cat on a chair. highly detailed, delicate skin texture, clear background.",
    controlnet_image=image_4.resize((4096, 4096)),
    input_image=image_4.resize((4096, 4096)), denoising_strength=0.99,
    height=4096, width=4096, tiled=True,
    seed=104
)
image_5.save("image_17.jpg")

DiffSynth-Studio 和 ControlNet 的强大潜力已经展现在你的眼前了,快去体验 AIGC 技术的乐趣吧!


附:目前 DiffSynth 支持的 FLUX ControlNet 列表

相关文章
|
5月前
|
移动开发 前端开发 JavaScript
一个GPT3.5调教出来的下雪特效代码
一个GPT3.5调教出来的下雪特效代码
|
7月前
|
固态存储 算法 计算机视觉
CV目标检测 Task04:不讲武德-炼丹与品尝 终于,神功初成,可以开始施展拳脚了 打卡笔记
CV目标检测 Task04:不讲武德-炼丹与品尝 终于,神功初成,可以开始施展拳脚了 打卡笔记
91 0
|
7月前
|
人工智能 IDE 开发工具
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
129 0
|
人工智能 并行计算 PyTorch
YOLOv5项目搭建(AI识别皮卡丘)
在网上看了很多关于yolov5的博客,很多都是解读参数配置,或者是解析它的底层原理什么的,对新手不是特别友好,我认为学一样东西,先不管其他的,先把这个东西做出来,然后再去学习内部的原理,这样学习起来就不会那么枯燥乏味了,本篇博客就是纯手把手教你yolov5的搭建、训练、识别。
273 1
|
人工智能 IDE 物联网
【古风女孩-InsCode Stable Diffusion 美图活动一期】
【古风女孩-InsCode Stable Diffusion 美图活动一期】
127 1
|
人工智能 IDE 开发工具
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
|
程序员
『中秋赏月』程序员用文心大模型带你玩转不一样的中秋
『中秋赏月』程序员用文心大模型带你玩转不一样的中秋
142 1
『中秋赏月』程序员用文心大模型带你玩转不一样的中秋
|
人工智能 PyTorch 算法框架/工具
【超牛的】文心一言体验纪实【战力+999】
【超牛的】文心一言体验纪实【战力+999】
470 0
|
人工智能 JSON 前端开发
Star量近8万,大火AutoGPT星标超PyTorch,网友:看清它的局限性
Star量近8万,大火AutoGPT星标超PyTorch,网友:看清它的局限性
|
机器学习/深度学习
本科生60行代码教你手搓GPT大模型,技术介绍堪比教程(2)
本科生60行代码教你手搓GPT大模型,技术介绍堪比教程
167 0
下一篇
DataWorks