【Stable Diffusion】SD 能做啥?

简介: 【Stable Diffusion】SD 能做啥?

研究 stable diffusion 也有一阵子了,确实支持文字生成图片,也支持图片生成图片。对于 Control Net 插件也略懂一二,知道 【normal bae】可以在保留较精确的角色细节下,生成一张新的照片(例如换衣服的颜色);知道【depth】可以利用深度图像产生的轮廓,描绘上新的概念(例如换衣服的款式);知道【tile】可以忽略图像中的细节,并生成新的细节,能用于扩大图片的分辨率。


先输出两张图片,

image.png



image.png


但从最近的使用来看,我面临着以下几个问题:


  1. 不知 AI 生成的角色,如何固定脸型等能彰显角色的特征,生成动作差异性比较大的图片?(解决这个问题,可以那生成表情包简直不用太简单了)


  1. 看起来 AI 绘画已经很牛了,网上的教程也层出不穷(就像 chat某某t 一样,各种软文都在说能用在什么领域什么领域,教各种使用的教程,但对实际生产的实际帮助却鲜有提及),但与自己的主业如何契合?


  1. 和主业相关的问题:如何用 AI 绘图软件生成软件系统架构图(可以告诉AI,架构图里的各个元素,以及层级关系等等)用于ppt介绍?如何用 AI 绘图制作网页 button,图标按钮,直接用于前端网页代码?如何用 AI 绘图制作网站上展示的轮播图(同样可以告诉AI,我希望轮播图上有啥——实际使用中,AI 给我的感觉是:我希望的元素,必须在AI的模型训练数据中出现过!这就导致了一个新的问题:如果我想要的元素有10种,AI模型训练的原始数据中只有5种……)?


目前觉得生成生成壁纸还不错,继续再深入了解下这类技术吧!也许现在的这些疑惑只是因为了解的太少。







目录
相关文章
|
9月前
|
机器学习/深度学习 自然语言处理 算法
Stable Diffusion WebUI 从零基础到入门
Stable Diffusion WebUI 从零基础到入门
572 1
|
Serverless
使用ControlNet控制Stable Diffusion时
使用ControlNet控制Stable Diffusion时
169 3
|
8月前
|
算法 算法框架/工具 计算机视觉
Stable diffusion采样器详解
在我们使用SD web UI的过程中,有很多采样器可以选择,那么什么是采样器?它们是如何工作的?它们之间有什么区别?你应该使用哪一个?这篇文章将会给你想要的答案。
Stable diffusion采样器详解
|
8月前
|
机器学习/深度学习 人工智能 编解码
原来Stable Diffusion是这样工作的
初中生都能听懂的Stable Diffusion的工作原理,看完还不会你来找我
原来Stable Diffusion是这样工作的
|
8月前
|
关系型数据库 数据库 开发工具
Stable Diffusion 本地部署教程
Stable Diffusion 本地部署教程
232 0
|
9月前
|
Python
stable diffusion本地部署教程
stable diffusion本地部署教程
126 1
|
9月前
|
人工智能 异构计算
Stable Diffusion 3.0的特点
【2月更文挑战第5天】Stable Diffusion 3.0的特点
371 2
Stable Diffusion 3.0的特点
|
9月前
|
机器学习/深度学习 算法 PyTorch
Stable Diffusion 介绍与入门
Stable Diffusion 介绍与入门,简单的介绍
1663 2
Stable Diffusion 介绍与入门
|
9月前
|
数据可视化 图形学 C++
【Stable Diffusion】——ipDESIGN3D_v20模型使用
【Stable Diffusion】——ipDESIGN3D_v20模型使用
91 0
|
Serverless
ControlNet控制Stable Diffusion
ControlNet控制Stable Diffusion
92 3