Stable Diffusion 本地安装 | AIGC

简介: 今天要介绍Stable Diffusion webUI则第三方通过Gradio搭建的Stable Diffusion的web前端,功能丰富,而且所有功能都是开源的。 【1月更文挑战第7天】

Stable Diffusion 本地安装

关于Stable Diffusion webUI

Stable Diffusion是Stability-AI出的文生图开源模型,DreamStudio是Stable Diffusion的官方操作界面(即调用和使用模型的web应用程序),有付费功能;最近Stability-AI也推出了DreamStudio的开源实现StableStudio。

今天要介绍Stable Diffusion webUI则第三方通过Gradio搭建的Stable Diffusion的web前端,功能丰富,而且所有功能都是开源的。

image.png

Stable Diffusion webUI安装和注意事项

Stable Diffusion webUI是通过gradio搭建的,同时运行Stable Diffusion模型需要python和pytorch环境,以及GPU硬件设备支持。

所以我们先来盘点下安装的前置条件:

安装依赖

  • python环境:3.8以上,windows 推荐3.10.6
  • git:为了下载软件包 git版本最好在2.x版本
  • pytorch环境:可用最新的2.x
  • GPU:支持Nvidia GPU和AMD GPU
  • 操作系统:支持win10 、 linux 和 Apple

安装脚本

conda create -n sd_py38  python=3.8
source activate sd_py38
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

cd stable-diffusion-webui
pip install requirements.txt

sh webui.sh --listen --port 8081  --api --xformers --enable-insecure-extension-access --device-id 2

# http://x.x.x.x:8081/?__theme=dark

win 10


git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
pip install requirements.txt
执行 webui-user.bat

http://127.0.0.1:7860/?__theme=dark

linux安装过程中可能会出现ERROR: This script must not be launched as root, aborting...,可以webui.sh中注释掉root

webui界面介绍

webui重要目录:

- models # 涉及到所有模型文件
├── BLIP
├── Codeformer
├── ControlNet # ControlNet模型
├── deepbooru
├── deepdanbooru
├── Deforum
├── ESRGAN # 上采样超分模型
├── GFPGAN 
├── hypernetworks
├── karlo
├── LDSR
├── Lora   # Lora模型
├── RealESRGAN
├── Stable-diffusion # 主模型
├── SwinIR # 上采样超分模型
├── torch_deepdanbooru
├── VAE # VAE
└── VAE-approx
- embeddings # 词嵌入模型
- extensions # ui扩展

从界面功能上最主要的功能是:

  • txt2img: 文生图
  • img2img:图生图
  • Extras: 主要是图片放大功能
  • extensions:ui扩展管理

image.png

从模型上,我们可以结合Stable Diffusion模结构来看下:

  • 左边为VAE模块,有的模型可以替换这个VAE的模块
  • 中间的Diffusion生成模型:通常是主模型(Stable-diffusion目录,当然主模型也可以所有模型),或者主模型微调的部分参数Lora模型
  • 右边为条件输入:如果输入是文本,可以是定制的embedding模型(embeddings目录),如果是想控制可以添加ControlNet

image.png

从Stable Diffusion的关键输入和参数来看:

  • 正向提示词:你要生成图像的描述
  • 负向提示词:不希望出现的情况,比如低质量,多个手指等
  • 采样器:加速图像生成
  • 采样步数
  • CFG scale:图像和提示词之间的关联性,越大关联性越小,随机性越大
  • batch:每次生图的数量

image.png

推荐安装视频指导

推荐一个B站的入门级学习视频,相信学习完可以有一个很好的入门。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
4月前
|
人工智能 搜索推荐
AIGC工具——Stable Diffusion
【1月更文挑战第11天】AIGC工具——Stable Diffusion
376 2
AIGC工具——Stable Diffusion
|
4月前
|
机器学习/深度学习 自然语言处理
文生图模型-Stable Diffusion | AIGC
所谓的生成式模型就是通过文本或者随机采样的方式来得到一张图或者一段话的模型,比如文生图,顾名思义通过文本描述来生成图像的过程。当前流行的文生图模型,如DALE-2, midjourney以及今天要介绍的Stable Diffusion,这3种都是基于Diffusion扩散模型【1月更文挑战第6天】
733 0
|
4月前
|
编解码 人工智能 自然语言处理
AIGC基础模型——扩散模型(Diffusion Model)
【1月更文挑战第23天】AIGC基础模型——扩散模型(Diffusion Model)
390 1
AIGC基础模型——扩散模型(Diffusion Model)
|
2月前
|
机器学习/深度学习 数据采集 人工智能
「AIGC」Stable Diffusion教程详解
**Stable Diffusion教程摘要:** Stable Diffusion是AI绘画工具,利用GAN学习艺术家风格。基础教程涵盖软件介绍、配置需求(NVIDIA GPU、Windows 10/11)、安装及基础操作,如模型切换、VAE使用、采样步数调整等。AI作画原理涉及U-net、Diffusion模型、文本映射(如CLIP)和条件生成。Stable Diffusion运用Latent Diffusion Model从潜在空间生成高清图像,开源且在艺术创作中广泛应用。
84 0
|
4月前
|
人工智能 运维 API
基于PAI-EAS一键部署Stable Diffusion AIGC绘画
教程中,您将学习如何使用阿里云模型在线服务(PAI-EAS)的预置镜像,快速部署AIGC Stable Diffusion SDWebUI绘画的AI-Web应用,以及启动WebUI进行模型推理。
|
2月前
|
存储 自然语言处理 API
通义万相AIGC技术Web服务体验评测
随着人工智能技术的不断进步,图像生成技术已成为创意产业的一大助力。通义万相AIGC技术,作为阿里云推出的一项先进技术,旨在通过文本到图像、涂鸦转换、人像风格重塑及人物写真创建等功能,加速艺术家和设计师的创作流程。本文将详细评测这一技术的实际应用体验。
130 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
|
1月前
|
机器学习/深度学习 数据采集 人工智能
作为AIGC技术的一种应用-bard
8月更文挑战第22天
38 15
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
|
1月前
|
人工智能
AIGC图生视频技术下的巴黎奥运高光时刻
图生视频,Powered By「 阿里云视频云 」
98 4