Stable Diffusion修复老照片-图生图

简介: 修复老照片的意义就不多说了,相信大家都明白,这里直接开讲方法。

修复老照片的意义就不多说了,相信大家都明白,这里直接开讲方法。

1、原理


这个方法需要一个真实模型,以便让修复的照片看起来比较真实,我这里选择:realisticVisionV20,大家有更好的给我推荐哦。还需用搭配两个特殊设置:

ControlNet Tile:这是一个ControlNet模型,用于放大和补充细节。

ADetailer:这是一个插件,用于修复人脸,也需要加载对应的模型。我从网上找了一张比较模糊的照片(如有侵权,请告知替换)。


2、实操

打开Stable Diffusion WebUI,进入“图生图”界面。

(1)选择好大模型,填写合适的提示词和反向提示词。


注意提示词需要匹配照片。不会写的同学,可以使用WebUI中的反向推导工具先生成一个,然后再进行修改,我这里贴出这张图的提示词:
提示词:ultra detailed, masterpiece, best quality, an photo of a old man in a hat and a hat on his heads, with greying temples, (looking at viewer), a character portrait, mingei,simple background, clean反向提示词:easy_negative, NSFW, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, skin spots, acnes, skin blemishes,age spot, (ugly:1.331), (duplicate:1.331),(morbid:1.21), (mutilated:1.21), (tranny:1.331),flower,lines,white point,plant,  

(2)基础生成参数设置。
图生图这里上传待修复的图片:



缩放模式:裁剪,不改变尺寸的情况下这个没影响,改变尺寸的时候会截取。
采样器:Euler a
采样步数;20
尺寸:768*1064,想要出图的尺寸,一般原图尺寸就可以,生成好了再裁减。
提示词引导系数:7,这是默认值,出图不满意的时候可以调整试试。
重绘强度:这里选择1,以更好的补充细节,可以根据实际情况调整 。
图像生成种子:-1,代表随机种子,建议不要固定,否则每次出来的都一样。


(3)设置ControlNet Unit
在第一个Unit中上传原图;勾选“启用”,否则ControlNet不生效;勾选“Pixel Perfect”,勾选“Allow Preview”。



这里选择Control类型为 Tile,注意预处理器和模型都要对应上,都是包含tile的,一般WebUI会自动选择上,没有自动的需要自己选择;
Control Weight 用来控制Tile的权重;
Starting Control Step 和 Ending Control Step 用来控制ControlNet介入图像生成的步骤。
如果想让SD更自由发挥一下,可以调整下权重和介入步数,这里采用默认值。



(4)修脸插件
对于修复大爷的照片,这里感觉没什么用,如果生成效果不好的话,可以试试它。


(5)最后点击生成,看看效果,还不错!


3、相关下载


修脸插件:看我另一篇文章,其中人像插件部分有介绍怎么安装。

真实模型:C站可以下载,不方便访问的可以关注公众号:萤火遛AI(yinghuo6ai), 发消息:真实模型,即可获得下载地址。



OK,以上就是本文的主要内容,感谢阅读。若有收获,就点个赞吧


相关文章
|
7月前
|
机器学习/深度学习 自然语言处理
文生图模型-Stable Diffusion | AIGC
所谓的生成式模型就是通过文本或者随机采样的方式来得到一张图或者一段话的模型,比如文生图,顾名思义通过文本描述来生成图像的过程。当前流行的文生图模型,如DALE-2, midjourney以及今天要介绍的Stable Diffusion,这3种都是基于Diffusion扩散模型【1月更文挑战第6天】
874 0
|
7月前
Stable Diffusion文生图-图生图-ControINet插件-线稿上色-生产全套表情包-3D Openpose-局部重绘-换衣服,换姿势人设三视图一键生成教程大全(二)
Stable Diffusion文生图-图生图-ControINet插件-线稿上色-生产全套表情包-3D Openpose-局部重绘-换衣服,换姿势人设三视图一键生成教程大全(二)
280 4
|
7月前
|
编解码 人工智能 自然语言处理
Stable Diffusion文生图-图生图-ControINet插件-线稿上色-生产全套表情包-3D Openpose-局部重绘-换衣服,换姿势人设三视图一键生成教程大全(一)
Stable Diffusion文生图-图生图-ControINet插件-线稿上色-生产全套表情包-3D Openpose-局部重绘-换衣服,换姿势人设三视图一键生成教程大全(一)
533 1
|
7月前
|
传感器 自动驾驶 机器人
【Stable Diffusion】通过ControlNet修复手臂
【Stable Diffusion】通过ControlNet修复手臂
103 0
|
7月前
Stable Diffusion——尝试如何正确的使用【AnimateDiff】生成动图——4种方法测试
Stable Diffusion——尝试如何正确的使用【AnimateDiff】生成动图——4种方法测试
130 0
|
7月前
|
机器学习/深度学习 算法 安全
Stable Diffusion使用窍门
Stable Diffusion使用窍门
521 1
|
机器学习/深度学习 数据可视化 算法框架/工具
使用稳定扩散(Stable Diffusion)生成图片的步骤
生成模型一直是计算机图形学和深度学习领域备受瞩目的研究方向之一。稳定扩散(Stable Diffusion)是一种最新的生成模型框架,它可以用来生成高质量、多样化的图像。本博客将介绍使用稳定扩散生成图片的步骤,让您了解如何使用这一强大的技术。
536 3
|
人工智能 编解码 数据可视化
Stable Diffusion基础:精准控制之ControlNet
在AI绘画中精确控制图片的生成是一件比较困难的事情,炼丹师们经常需要大量抽卡才能得到一张满意的图片,不过随着 ControlNet 的诞生,这一问题得到了很大的缓解。 ControlNet 提供了十几种控制网络模型,有的可以控制画面的结构,有的可以控制人物的姿势,还有的可以控制图片的画风,这对于提高绘画质量、提升生图速度特别有用;基于 ControlNet 的能力,炼丹师们还可以将AI绘画拓展到更多的应用场景,比如艺术二维码、光影文字、线稿上色、老照片修复、图片风格转绘等等。
672 0
Stable Diffusion基础:精准控制之ControlNet
|
存储 人工智能 Serverless
玩转 ControlNet:Stable Diffusion 制作光影文字效果
基于函数计算部署Stable Diffusion, 制作光影文字可以作为进阶 Stable Diffusion 的必备一课
1612 3
|
人工智能 算法
AI 绘画Stable Diffusion 研究(九)sd图生图功能详解-老照片高清修复放大(2)
AI 绘画Stable Diffusion 研究(九)sd图生图功能详解-老照片高清修复放大
840 0
下一篇
DataWorks