我用Stable diffusion复活了一个动漫女孩lofi girl

简介: 通过Stable diffusion的img2img功能,借助control net 把动漫人物还原成真实人物使用到的技术Stable diffusion web ui、control net、img2img以及prompt进行微调

1、先看效果

原图和结果对比.png


2、环境搭建

1.安装control_sd15_canny模型

!wget  https://huggingface.co/lllyasviel/ControlNet/resolve/main/models/control_sd15_canny.pth  -O /content/stable-diffusion-webui/extensions/sd-webui-controlnet/models/control_sd15_canny.pth


3、操作步骤汇总

1.基于原图+prompt生成第一版

2.把第一版的结果作为新的原图进行细节微调,生成第二版

3.把第二版的结果作为新的原图进行细节微调,生成最终结果

通过以上三步完成想要的结果(如果过程不理想可能还需要增加更多步骤)


4、详细操作步骤

4.1、基于原图+prompt生成第一版

参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: 3242059520, Size: 1024x560, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, Denoising strength: 0.45

这一步的作用是通过img2img生成图片的整体风格、人、物、关系等主要元素,这里生成的结果一定不是完美的(基本接近了),没关系,这一步就会把90%的图片内容生成了,剩下的10%,我们要调整细节,为了可以快速选出生成质量优秀的图,这里可以把Batch size 调大一点,这样一次可以出来多张图,在里面选一个最优的即可。

效果如下:

第一步的效果.jpg


Denoising 不能设置的太高,否则就以提示词为准了,与原图有较大差异,我设置的是0.45


我们选一张比较好的保存下来,用于微调,比如这个基本接近原图了,但是右手和左手看着有点“残疾”,需要进行局部微调

我的办法是每次重绘一个地方,左右手分两次重绘(如果两处同时重绘且同时绘制完美的概率低)


4.2、把第一版的结果微调

目标:修复右手

我们借助controlnet进行右手重绘,参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: Euler a, CFG scale: 8, Seed: 1134728641, Size: 1024x560, Model hash: f93e6a50ac, Model: uberRealisticPornMerge_urpmv13, Denoising strength: 0.25, Mask blur: 4, ControlNet Enabled: True, ControlNet Module: canny, ControlNet Model: control_sd15_canny [fef5e48e], ControlNet Weight: 0.35, ControlNet Guidance Start: 0, ControlNet Guidance End: 1


33.png

通过多张图可以看到中间的差异,重点看右手的位置,通过controlnet控制完成了局部重绘

44.gif


调整后效果如下,这里可以看到右手基本正常了,接下来重绘左手

45.png


4.3、第二版微调

目标:修复左手

把调整好右手的图保持下来,当做原图在此上传到系统上,同时借助controlnet进行左手重绘



46.png


4.4、第三版微调

目标:提升整体画质(细节)可以使用control_sd15_depth


47.png


相关文章
|
机器学习/深度学习 编解码 人工智能
阿里云Stable Diffusion操作教程
阿里云Stable Diffusion操作教程
|
机器学习/深度学习
基于PaddleGAN精准唇形合成模型实现美女表白视频
基于PaddleGAN精准唇形合成模型实现美女表白视频
949 0
基于PaddleGAN精准唇形合成模型实现美女表白视频
|
弹性计算 网络协议 Linux
阿里云搭建我的世界服务器
以阿里云ECS服务器作为frp内网穿透中转,搭建我的世界服务器。
4663 0
|
6月前
|
Serverless 人机交互 UED
鸿蒙特效教程01-哔哩哔哩点赞与一键三连效果实现教程
本教程面向HarmonyOS初学者,详细讲解如何实现类似哔哩哔哩APP中的点赞与一键三连效果。内容涵盖基础布局、状态切换、点击动画、长按手势识别、旋转缩放动画以及粒子爆炸效果的实现。通过ArkUI布局系统、状态管理、手势处理和动画技术,逐步完成从简单到复杂的交互设计。最终效果包括图标变色、缩放、旋转及粒子动画,为用户提供流畅生动的体验。适合希望掌握HarmonyOS开发技巧的开发者学习参考。
289 68
鸿蒙特效教程01-哔哩哔哩点赞与一键三连效果实现教程
|
5月前
|
人工智能 并行计算 测试技术
从商业海报到二次元插画多风格通吃!HiDream-I1:智象未来开源文生图模型,17亿参数秒出艺术大作
HiDream-I1是智象未来团队推出的开源图像生成模型,采用扩散模型技术和混合专家架构,在图像质量、提示词遵循能力等方面表现优异,支持多种风格生成。
494 2
从商业海报到二次元插画多风格通吃!HiDream-I1:智象未来开源文生图模型,17亿参数秒出艺术大作
|
人工智能 编解码 算法
Stable Diffusion超详细教程!从0-1入门到进阶
本文提供了Stable Diffusion AI绘画工具的超详细入门到进阶教程,包括本地部署、界面基础、模型选择、ControlNet安装与使用,以及如何通过不断学习和调试提升使用效果。
Stable Diffusion超详细教程!从0-1入门到进阶
|
6月前
|
前端开发 数据安全/隐私保护 CDN
二次元聚合短视频解析去水印系统源码
二次元聚合短视频解析去水印系统源码
174 4
|
搜索推荐
Stable Diffusion 人物发型提示词大全,中英文列表!
使用发型提示词能更精确描述所需图像的发型特征,如卷发、短发、颜色和风格。结合正负提示词,确保生成图片符合预期。尝试使用工具如[PromptChoose](https://promptchoose.com/)来创建个性化图像描述,包含多种发型选项,如刘海、马尾、波浪发型等,以增强图像细节和个性化。负面提示词防止不合适内容。利用提示词工具可提高生成图片的准确性和满足度。
|
人工智能 编解码
|
移动开发 HTML5
动漫二次元漂亮的网站导航HTML5源码
二次元漂亮网站导航HTML源码,页面中还调用了很多外站的图片等链接需自行更换。
388 4