StyleMapGAN、有趣的风格迁移——评测【一】

简介: 一文读懂
🥇 版权: 本文由【墨理学AI】原创、各位大佬、一文读懂、敬请查阅
🎉 声明: 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
声明:本博文按照官方readMe步骤,对测试实验过程进行简洁记录,仅供参考,码字不易,感谢支持

📔 StyleMapGAN 继 StyleGAN2 发扬光大

论文摘要

生成对抗网络 (GAN) 从随机潜在向量合成逼真的图像。 尽管操纵潜在向量控制了合成输出,但使用 GAN 编辑真实图像存在以下问题:i) 将真实图像投影到潜在向量的优化耗时,ii) 或通过编码器嵌入不准确。 我们提出 StyleMapGAN:中间潜在空间具有空间维度,并且空间变体调制替代了 AdaIN。 它使通过编码器的嵌入比现有的基于优化的方法更准确,同时保持 GAN 的特性。 实验结果表明,我们的方法在各种图像处理任务(例如本地编辑和图像插值)中明显优于最先进的模型。 最后但并非最不重要的一点是,GAN 上的传统编辑方法在我们的 StyleMapGAN 上仍然有效。

📕 环境搭建

服务器:ubuntu1~18.04 Quadro RTX 5000 16G

1-0

#!/bin/bash

conda install -y pytorch=1.4.0 torchvision=0.5.0 -c pytorch
conda install -y numpy=1.18.1 scikit-image=0.16.2 tqdm
conda install -y -c anaconda ipython=7.13.0
pip install lmdb==0.98 opencv-python==4.2.0.34 munch==2.5.0
pip install -U scikit-image==0.15.0 scipy==1.2.1 matplotlib scikit-learn
pip install flask==1.0.2 pillow==7.0.0
我博文已经搭建了很多环境,因此这里直接 activate 一个即可
conda activate torch15

📗 测试数据 + 预训练模型准备

2-0

这里 下载 afhq 相关数据 + 模型,对其进行测试
# Download raw images and create LMDB datasets using them
# Additional files are also downloaded for local editing
bash download.sh create-lmdb-dataset afhq

# Download the pretrained network (256x256)
bash download.sh download-pretrained-network-256 afhq

# Download the pretrained network (1024x1024 image / 16x16 stylemap / Light version of Generator)
bash download.sh download-pretrained-network-1024 ffhq_16x16


__

📘 Generate images 测试

__

🔴 Reconstruction

Reconstruction Results are saved to expr/reconstruction.
python generate.py --ckpt expr/checkpoints/afhq_256_8x8.pt --mixing_type reconstruction --test_lmdb data/afhq/LMDB_test
单卡 GPU 占用 11073MiB

3-0

reconstruction 目录下是对 afhq_raw\raw_images\test\images 目录下 500 test 图像的 重建:

3-1

🔴 Unaligned transplantation

Unaligned transplantation Results are saved to expr/transplantation. It shows local transplantations examples of AFHQ.
python generate.py --ckpt expr/checkpoints/afhq_256_8x8.pt --mixing_type transplantation --test_lmdb data/afhq/LMDB_test
transplantation 目录下是一个图像的合成转换:

3-2

🔴 w_interpolation

Results are saved to expr/w_interpolation.
python generate.py --ckpt expr/checkpoints/afhq_256_8x8.pt  --mixing_type w_interpolation --test_lmdb data/afhq/LMDB_test
单卡 GPU 占用 8769MiB

3-3

🔴 local_editing

Results are saved to expr/local_editing. We pair images using a target semantic mask similarity.
目标 mask 语义修复
python generate.py --ckpt expr/checkpoints/afhq_256_8x8.pt --mixing_type local_editing --test_lmdb data/afhq/LMDB_test
单卡 GPU 占用 9013MiB
  • mask 图像

3-4

local_editing\afhq\synthesized_image

3-5

🔴 Random Generation

Random Generation Results are saved to expr/random_generation. It shows random generation examples.
python generate.py --mixing_type random_generation --ckpt expr/checkpoints/afhq_256_8x8.pt
单卡 GPU 占用 12995MiB

3-6

🔴 Style Mixing

Style Mixing Results are saved to expr/stylemixing. It shows style mixing examples.
python generate.py --mixing_type stylemixing --ckpt expr/checkpoints/afhq_256_8x8.pt --test_lmdb data/afhq/LMDB_test
单卡 GPU 占用 8765 MiB
  • 粗修复结果: 124_coarse.png

3-7

  • 细修复结果: 124_fine.png

3-8

🔴 Semantic Manipulation 【 celeba_hq 可正常运行】

Semantic Manipulation Results are saved to expr/semantic_manipulation.
It shows local semantic manipulation examples.
python semantic_manipulation.py --ckpt expr/checkpoints/afhq_256_8x8.pt --LMDB data/afhq/LMDB --svm_train_iter 10000
单卡 GPU 占用 6455MiB
遇到报错 | Semantic Manipulation 应该暂时只有 celeba_hq 可以使用和运行
validate boundary.
Accuracy for validation set: 535 / 999 = 0.535536
classifier.coef_.shape (1, 4096)
boundary.shape (64, 8, 8)
30000 images, 16130 latent_codes
Traceback (most recent call last):
  File "semantic_manipulation.py", line 348, in <module>
    assert total_number == len(latent_codes)
AssertionError

📙 博主 AI 领域八大干货专栏、诚不我欺


📙 预祝各位 2022 前途似锦、可摘星辰

🎉 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
❤️ 如果文章对你有帮助、 点赞、评论鼓励博主的每一分认真创作
❤️ 比寻找温暖更重要的是,让自己成为一盏灯火 ❤️

8.png

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能 安全
千帆大模型平台再升级:接入大模型最多、Prompt模板最全面
千帆大模型平台再升级:接入大模型最多、Prompt模板最全面
225 1
文档智能服务功能评测
评测第二部分 文档解析(大模型版)服务体验评测
|
22天前
|
机器学习/深度学习 Java API
阿里云文档智能解析——大模型版能力最佳实践与体验评测
阿里云文档智能解析(大模型版)在处理非结构化数据方面表现优异,尤其是在性能和可扩展性上具有明显优势。虽然存在一些待完善之处,但其强大的基础能力和广泛的适用场景使其成为企业数字转型过程中的有力助手。随着技术的不断进步和完善,相信它会在更多领域展现出更大的价值。
66 5
阿里云文档智能解析——大模型版能力最佳实践与体验评测
|
17天前
|
自然语言处理 数据可视化 BI
文档解析(大模型版)服务体验评测
体验文档解析(大模型版)服务时,清晰的入门指南、操作手册和FAQ至关重要。若存在不足,需增加直观的操作流程说明(如动画演示)、深化高级功能文档,并提供实时在线支持,帮助用户快速解决问题。
|
22天前
|
弹性计算 自然语言处理 数据可视化
|
22天前
|
人工智能 自然语言处理 监控
文档解析(大模型版)能力最佳实践测评
文档解析(大模型版)能力最佳实践测评
41 7
|
4月前
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
136540 29
|
2月前
|
人工智能 自然语言处理 API
阿里云百炼平台上线首个最新文生图模型FLUX中文优化版
由Stable Diffusion团队推出的开源文生图模型FLUX风靡全球,其生成质量媲美Midjourney,被誉为“开源王者”。阿里云百炼平台首发FLUX中文优化版,提升了中文指令的理解与执行能力。开发者可直接在平台上体验并调用FLUX模型,且享有1000张图像的免费生成额度,有效期180天。无需额外部署,即可轻松利用这一先进模型创造高质量图像。
|
2月前
|
人工智能 数据可视化 数据处理
推荐2款免费开源的标注工具,支持大模型对话标注
【LabelLLM】一款开源免费的大模型对话标注平台,专为优化大型语言模型的数据标注过程设计。支持灵活配置与多模态数据(音频、图像、视频),具备全面任务管理和AI辅助标注功能,大幅提升标注效率与准确性。了解更多请前往https://github.com/opendatalab/LabelLLM 【LabelU】一款轻量级开源标注工具,支持图像、视频、音频的高效标注。特色功能包括多功能图像处理、视频和音频分析等,简易灵活,支持多种数据格式输出。了解更多请前往https://github.com/opendatalab/labelU
197 11
|
3月前
|
存储 人工智能 自然语言处理
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
在人工智能领域,大型语言模型的发展日新月异,它们在自然语言处理、机器翻译、智能助手等多个领域展现出了前所未有的能力。
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
下一篇
无影云桌面