我用Stable diffusion复活了一个动漫女孩lofi girl

简介: 通过Stable diffusion的img2img功能,借助control net 把动漫人物还原成真实人物使用到的技术Stable diffusion web ui、control net、img2img以及prompt进行微调

1、先看效果

原图和结果对比.png


2、环境搭建

1.安装control_sd15_canny模型

!wget  https://huggingface.co/lllyasviel/ControlNet/resolve/main/models/control_sd15_canny.pth  -O /content/stable-diffusion-webui/extensions/sd-webui-controlnet/models/control_sd15_canny.pth


3、操作步骤汇总

1.基于原图+prompt生成第一版

2.把第一版的结果作为新的原图进行细节微调,生成第二版

3.把第二版的结果作为新的原图进行细节微调,生成最终结果

通过以上三步完成想要的结果(如果过程不理想可能还需要增加更多步骤)


4、详细操作步骤

4.1、基于原图+prompt生成第一版

参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: 3242059520, Size: 1024x560, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, Denoising strength: 0.45

这一步的作用是通过img2img生成图片的整体风格、人、物、关系等主要元素,这里生成的结果一定不是完美的(基本接近了),没关系,这一步就会把90%的图片内容生成了,剩下的10%,我们要调整细节,为了可以快速选出生成质量优秀的图,这里可以把Batch size 调大一点,这样一次可以出来多张图,在里面选一个最优的即可。

效果如下:

第一步的效果.jpg


Denoising 不能设置的太高,否则就以提示词为准了,与原图有较大差异,我设置的是0.45


我们选一张比较好的保存下来,用于微调,比如这个基本接近原图了,但是右手和左手看着有点“残疾”,需要进行局部微调

我的办法是每次重绘一个地方,左右手分两次重绘(如果两处同时重绘且同时绘制完美的概率低)


4.2、把第一版的结果微调

目标:修复右手

我们借助controlnet进行右手重绘,参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: Euler a, CFG scale: 8, Seed: 1134728641, Size: 1024x560, Model hash: f93e6a50ac, Model: uberRealisticPornMerge_urpmv13, Denoising strength: 0.25, Mask blur: 4, ControlNet Enabled: True, ControlNet Module: canny, ControlNet Model: control_sd15_canny [fef5e48e], ControlNet Weight: 0.35, ControlNet Guidance Start: 0, ControlNet Guidance End: 1


33.png

通过多张图可以看到中间的差异,重点看右手的位置,通过controlnet控制完成了局部重绘

44.gif


调整后效果如下,这里可以看到右手基本正常了,接下来重绘左手

45.png


4.3、第二版微调

目标:修复左手

把调整好右手的图保持下来,当做原图在此上传到系统上,同时借助controlnet进行左手重绘



46.png


4.4、第三版微调

目标:提升整体画质(细节)可以使用control_sd15_depth


47.png


相关文章
|
12月前
|
编解码 人工智能 物联网
少年侠客【InsCode Stable Diffusion美图活动一期】
lnscode提供了学习和使用Stable Diffusion的环境,已经安装了相关软件和组件库,可直接启动Stable Diffusion WebUI进行创作
118 1
|
2月前
|
搜索推荐
Stable Diffusion 人物发型提示词大全,中英文列表!
使用发型提示词能更精确描述所需图像的发型特征,如卷发、短发、颜色和风格。结合正负提示词,确保生成图片符合预期。尝试使用工具如[PromptChoose](https://promptchoose.com/)来创建个性化图像描述,包含多种发型选项,如刘海、马尾、波浪发型等,以增强图像细节和个性化。负面提示词防止不合适内容。利用提示词工具可提高生成图片的准确性和满足度。
|
2月前
ChatGPT4最新大招!DALL·E 图片可以编辑了!
本教程详细介绍了如何使用 DALL·E 编辑功能来修改图片。它覆盖了从基本的图片选择和编辑到更高级的操作,如添加、移除或更新图片中的元素。教程还解释了如何通过对话框直接输入编辑需求,以及如何在 ChatGPT 手机应用上使用这些工具。
44 0
ChatGPT4最新大招!DALL·E 图片可以编辑了!
|
10月前
|
存储 人工智能 Serverless
【收藏】制作艺术二维码,用 Stable Diffusion 就行!
艺术永远都不至于一种方式,基于函数计算部署 Stable Diffusion 制作艺术二维码,把你的艺术作品藏在二维码里面!
|
2月前
|
机器学习/深度学习 人工智能 计算机视觉
【计算机视觉】不来试试图片轮廓提取?
🚩 前言 最近学到了深度学习的卷积操作,在卷积神经网络出现之前,就已经有使用卷积核 (也叫滤波器),但那时的卷积核依靠人工的经验和知识来进行设计,而不能像卷积神经网络中那样让机器自己学习出合适的卷积核参数。 下面就介绍通过卷积来获取图像轮廓图的操作。
60 1
|
2月前
|
人工智能 IDE 开发工具
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
84 0
|
9月前
|
人工智能 IDE 物联网
【古风女孩-InsCode Stable Diffusion 美图活动一期】
【古风女孩-InsCode Stable Diffusion 美图活动一期】
|
人工智能 算法 Ubuntu
【朱颜不曾改,芳菲万户香。AIGC人物图片创作---InsCode Stable Diffusion 美图活动一期】
【朱颜不曾改,芳菲万户香。AIGC人物图片创作---InsCode Stable Diffusion 美图活动一期】
624 2
|
人工智能 IDE 开发工具
二次元美少女【InsCode Stable Diffusion 美图活动一期】
InsCode是一个集成了在线IDE、在线AI编程、在线算力租赁、在线项目部署以及在线SD 模型使用的综合代码开发平台。不论你是初级软件工程师,还是AI大模型爱好者,InsCode都能帮助你快速编写代码,运行项目。甚至在这里你还可以一键购买算力,训练大模型,开发自己的AI应用程序。
232 0
二次元美少女【InsCode Stable Diffusion 美图活动一期】
|
11月前
|
人工智能 IDE 开发工具
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】