最新版本 Stable Diffusion 开源AI绘画工具之部署篇

简介: AI 绘画让设计师走向失业

🎈 AI绘画

  • 关于 AI 绘画最近有多火,既然你有缘能看到这篇文章,那么相信也不需要我过多赘述了吧?
  • 随着 AI 绘画技术的发展,最新感到压力山大的应该属于那些设计师了吧,AI 不仅作图效率其高,而且画面超级逼真,甚至在很多细节处理方面都已经超过专业设计师的级别,是不是瞬间感觉自己的饭碗保不住了。
  • 虽然很多人听说了这项技术,但是对于部署还是一知半解,到现在也只是只闻其声不见其物。这篇文章主要就是教大家如何部署最新版本的 Stable Diffusion 绘画工具。

111111.jpg



🎈 本地环境要求

  • 在下载 AI 绘画工具前,电脑上需要提前下载一些运行的环境
    首先本地机器最好是英伟达的N卡,并且至少需要 4GB 显存才能在本地运行,当然,A卡也是可以玩起来的,因为绘画对显卡是有着很高的要求的。不然的话,即使安装成功,得到的图片结果可能也是全黑图或者是根本无法进行绘制
    安装的时候,需要打开魔法上网,不然无法下载绘画所需要的一些依赖
    另外本地需要有 python 环境,官方要求下载 Python 3.10.6 版本
    其中 python 的下载地址:https://www.python.org/downloads/
    另外还需要安装 Git,下载地址:https://git-scm.com/downloads/
    python 安装完成后,我们运行以下命令,将 pip 升级到最新
python -m pip install --upgrade pip


🎈 下载 Stable Diffusion

22222.png


🎈 运行启动

  • 下载到本地后,如果你是 windows 系统,直接双击文件夹中的 webui-user.bat
    如果你是 MACOS 或者 Linux 系统,请运行命令 ./webui.sh
    第一次启动会下载各种依赖,时间比较久,而且最新版加入了一个近 4GB 的默认模型 v1-5-pruned-emaonly.safetensors 也是要下载的,所以耐心等就可以了。
    如果想要加快下载速度的话,可以提前下载好这个模型,然后放到 models/Stable-diffusion 文件夹中即可,然后再启动 webui-user.bat,这样就不会再重新下载这个模型了
    模型默认官方下载地址:https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
    如果觉得官方默认下载缓慢,评论区我也贴上了百度云默认模型的下载地址,请自行选择
    如果安装过程顺利,直接在浏览器打开 http://127.0.0.1:7860
    访问成功即是安装成功,打开的页面大概如下

33333.png


🎈 启动参数

  • 如果你是 windows 系统,可以在 webui-user.bat 中的 set COMMANDLINE_ARGS 中配置启动参数
  • 如果你是 MacOS 系统,可以在 webui-macos-env.sh 中的 export COMMANDLINE_ARGS 中配置启动参数
  • 常见的启动参数如下:
  • --server-name: 默认启动绑定的 ip 是 127.0.0.1,只能是你自己电脑可以访问 webui,如果你想让同个局域网的人都可以访问的话,可以配置该参数
  • --port: 默认端口是 7860,如果想换个端口,可以配置该参数,例如:--port 8888
  • --gradio-auth username:password: 如果你希望给 webui 设置登录密码,可以配置该参数,例如:--gradio-auth tinygeeker:123456
  • --use-cpu:默认使用 GPU 算力(需要 Nvidia 显卡),如果没显卡,可以配置该参数,改用 CPU 算力
  • --medvram:为低显存(比如:4G)启用模型优化,会牺牲一点速度
  • --lowvram:为极低显存(比如:2G)启用模型优化,会牺牲很多速度
  • --autolaunch:启动时自动打开浏览器访问 webui
  • --api:可以在启动 stable-diffusion-webui 的同时,启动一个接口服务
# 常用 Nvidia 显卡启动参数COMMANDLINE_ARGS=--xformers--autolaunch# 常用 AMD 显卡启动参数COMMANDLINE_ARGS=--precision full --no-half--opt-sub-quad-attention--lowvram--disable-nan-check--autolaunch
相关文章
|
16天前
|
人工智能 文字识别 算法
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!
X-AnyLabeling是一款强大的辅助标注工具,集成了AI推理引擎和丰富功能,为图像数据工程师提供一站式解决方案。它支持图像和视频文件的自动标注,提供了包括矩形框、多边形在内的七种标注样式,适应多样化的训练场景需求。X-AnyLabeling内置了多种SOTA级AI模型,如YOLO、SAM系列等,并支持GPU加速和多种数据集格式的导入导出,确保高效的数据处理。此外,它还具备良好的跨平台兼容性,可在多种操作系统上运行,并提供详尽的帮助文档和社区支持,帮助用户轻松上手并解决使用过程中遇到的问题。
77 2
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!
|
5天前
|
人工智能 自然语言处理 数据挖掘
【通义】AI视界|性能超越GPT-4o?最强大的开源AI模型来了……
本文介绍了五项最新AI技术动态,包括性能超越GPT-4o的开源AI模型Reflection70B、智谱清言App限时免费的视频通话功能、哈佛医学院研发的癌症诊断AI模型CHIEF、Replit推出的AI编程助手,以及英特尔与日本AIST合作设立的芯片制造研发中心。这些进展展示了AI领域的快速创新与广泛应用。更多详情,请访问通义官网体验。
|
3天前
|
人工智能 Linux iOS开发
AI超强语音转文本SenseVoice,本地化部署教程!
【9月更文挑战第7天】以下是AI超强语音转文本工具SenseVoice的本地化部署教程:首先确保服务器或计算机满足硬件和软件要求,包括处理器性能、内存及操作系统等。接着从官网下载适合的安装包,并按操作系统进行安装。配置音频输入设备和语言模型后,启动SenseVoice并测试其语音转文本功能。最后根据实际使用情况进行优化调整,并定期更新以获取最新功能。详细步骤需参照官方文档。
|
3天前
|
机器学习/深度学习 人工智能 测试技术
AI计算机视觉笔记二十五:ResNet50训练部署教程
该项目旨在训练ResNet50模型并将其部署到RK3568开发板上。首先介绍了ResNet50网络,该网络由何恺明等人于2015年提出,解决了传统卷积神经网络中的退化问题。项目使用车辆分类数据集进行训练,并提供了数据集下载链接。环境搭建部分详细描述了虚拟环境的创建和所需库的安装。训练过程中,通过`train.py`脚本进行了15轮训练,并可视化了训练和测试结果。最后,项目提供了将模型转换为ONNX和PT格式的方法,以便在RK3568上部署。
|
11天前
|
人工智能 计算机视觉 Python
AI计算机视觉笔记八:基于mediapipe的虚拟绘画
该项目利用MediaPipe手部关键点识别技术,实现了隔空绘画功能。用户可以通过手势控制绘画工具,选择颜色或橡皮擦。环境配置基于`mediapipe_env`,在PyCharm中运行。项目包括两个文件:`AiVirtualPainter.py`负责绘画逻辑,`HandTrackingModule.py`用于手部关键点检测。此项目展示了AI技术在互动应用中的潜力,适合初学者实践与学习。
31 10
|
17天前
|
人工智能
|
20天前
|
人工智能 搜索推荐 机器人
阿里云AI助手部署体验报告
阿里云AI助手部署体验报告
46 3
|
4天前
|
机器学习/深度学习 人工智能 计算机视觉
AI计算机视觉笔记二十三:PP-Humanseg训练及onnxruntime部署
本文介绍了如何训练并使用PaddleSeg的人像分割模型PP-HumanSeg,将其导出为ONNX格式,并使用onnxruntime进行部署。首先在AutoDL服务器上搭建环境并安装所需库,接着下载数据与模型,完成模型训练、评估和预测。最后,通过paddle2onnx工具将模型转换为ONNX格式,并编写预测脚本验证转换后的模型效果。此过程适用于希望在不同平台上部署人像分割应用的开发者。
|
14天前
|
人工智能 安全 Anolis
专访英特尔:开源与 AI 迅猛发展,龙蜥社区提供高效合作平台
龙蜥社区为开源技术、AI 技术提供了一个非常好的高效合作的平台。
|
18天前
|
机器学习/深度学习 人工智能 前端开发
AI计算机视觉笔记三:WEB端部署YOLOv5
本文档介绍了如何将YOLOv5目标检测模型部署到Web端的方法,包括基于Flask和Streamlit两种实现方案。首先创建Python虚拟环境并安装必要的依赖库。接着详细展示了Flask方案下的前端HTML页面与后端Python逻辑代码,该方案利用Flask框架搭建服务器,处理实时视频流,并显示检测结果。随后介绍了Streamlit方案,该方案更简洁直观,适合快速开发交互式的机器学习应用。通过`streamlit run`命令即可启动应用,支持图像、视频及实时摄像头的目标检测演示。两种部署方式各有优势,Flask灵活性高,适用于复杂项目;而Streamlit则易于上手,便于快速原型设计。

热门文章

最新文章