玩转AIGC | 5分钟使用PAI一键部署Stable Diffusion AI绘画应用

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 本文将展示如何通过阿里云机器学习PAI 快速部署SD文生图模型并启动WebUI 进行推理服务。

AIGC(AI-Generated Content)指通过人工智能技术自动生成内容的生产方式,其中Stable Diffusion文生图模型是开源社区非常流行的跨模态生成模型,它能基于用户给定的文本自动生成匹配的图像。Stable Diffusion WebUI提供了网页端交互界面,支持低代码化的文图生成配置。


本文将展示如何通过阿里云机器学习平台PAI的模型在线服务PAI-EAS来快速部署Stable Diffusion文生图模型和启动WebUI进行推理服务。与部署到本地的方式相比,通过PAI-EAS可以快速拉起稳定的在线AI绘图应用,并具备按需弹性扩缩容、多实例集群版、管理模型及插件等企业级能力。


准备工作

  • 已开通PAI-EAS并创建默认工作空间;
  • 如果您是PAI-EAS的新用户,也可以免费领取PAI-EAS的免费试用名额开启实验,详情请参见本文“05 免费体验”。


部署EAS服务

将Stable Diffusion模型部署为AI-Web应用服务,具体操作步骤如下。

1.  进入PAI EAS模型在线服务页面。

a.  通过PAI官网首页登录PAI控制台。

https://www.aliyun.com/product/bigdata/learn

b.  在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。

c.  在工作空间页面的左侧导航栏选择模型部署 > 模型在线服务(EAS),进入PAI EAS模型在线服务页面。

11.png

2.  在PAI EAS模型在线服务页面,单击部署服务。

3.  在部署服务页面,配置以下关键参数。

参数

描述

服务名称

自定义服务名称。本案例使用的示例值为:sdwebui_demo。

部署方式

选择镜像部署AI-Web应用。

镜像选择

在PAI平台镜像列表中选择stable-diffusion-webui;镜像版本选择2.2。

资源组种类

选择公共资源组。

资源配置方法

选择常规资源配置。

资源配置选择

必须选择GPU类型,实例规格推荐使用ml.gu7i.c8m30.1-gu30(性价比最高)。

镜像配置完成后,系统会自动配置运行命令、端口号等参数,您无需修改配置。若您是免费试用用户,资源部署信息选择试用活动的机型。

22.png

4.  单击部署,等待一段时间即可完成模型部署。当模型状态为运行中时,服务部署成功。


启动WebUI进行模型推理

1.  单击目标服务服务方式列下的查看Web应用。

33.png

2.  在WebUI页面,进行模型推理验证。

在文生图页签提示词(Prompt)区域,自定义输入内容,单击生成,即可开启您的AIGC之旅。

本案例在提示词(Prompt)区域输入cute dog,单击生成,推理结果如下图所示。

44.png

常见问题及解决方法

4.1  图片生成速度慢怎么办?

您可以通过开启Blade或xFormers的方法进行模型服务加速。Blade和xFormers方法使用优势如下。

  • Blade是由PAI平台提供的加速工具,在不同的图像尺寸和迭代步数下有不同的加速效果,最高可实现3.06倍的加速效果,为您的AIGC之旅带来更高性能和更低延时。
  • xFormers是SDWebUI自带的开源加速工具,拥有更广泛的模型适配性。

开启Blade或xFormers的方法如下。

  • 开启Blade方法

a.  单击服务操作列下的更新服务。

b.  在部署服务页面运行命令中增加--blade指令,即./webui.sh --listen --port=8000 --blade。

55.png

c.单机部署。

  • 开启xFormers方法

a.  单击服务操作列下的更新服务。

b.  在部署服务页面运行命令中增加--xformers指令,即./webui.sh --listen --port=8000 --xformers。

66.png

c.  单机部署


4.2  您自己的模型及输出目录等内容如何挂载?

如果您自己在开源社区下载了模型或自己训练得到了Lora或SD等模型要用于SDWebUI,或您需要保存输出数据到您自己的OSS Bucket目录,或需要进行一些第三方的配置和插件安装等,您可以通过如下文件挂载方式来实现。1.  前往阿里云对象存储OSS,创建一个Bucket和空文件目录。

例如:oss://bucket-test/data-oss/,其中:bucket-test为OSS Bucket名称;data-oss为该Bucket下的空文件目录。

2.  单击服务操作列下的更新服务。

3.  在模型服务信息区域,配置以下参数。

77.png

参数

描述

模型配置

单击填写模型配置,进行模型配置。

  • 模型配置选择OSS挂载,将OSS路径配置为步骤1中创建的OSS Bucket路径。例如:oss://bucket-test/data-oss/。
  • 挂载路径:将您配置的OSS文件目录挂载到镜像的/code/stable-diffusion-webui路径下。例如配置为:/code/stable-diffusion-webui/data-oss。
  • 是否只读:开关关闭。

运行命令

在运行命令中增加--data-dir 挂载目录,其中挂载目录需要与模型配置中挂载路径的最后一级目录一致。例如:./webui.sh --listen --port=8000 --data-dir data-oss。


4.  单击部署,更新模型服务。

PAI会自动在您配置的OSS空文件目录下创建如下目录结构,并复制必要的数据到该目录下。因此,建议您在服务启动成功后,再向指定的目录上传数据。

88.png

5.  OSS目录结构自动创建成功后,您可以将已下载的或训练获得的模型上传到models下指定的模型目录中,单击目标服务操作列下的>重启服务,服务重启成功后,即可生效。


后续您可以单击目标服务服务方式列下的查看Web应用,启动WebUI。在WebUI页面Stable Diffusion模型(ckpt)下拉列表中切换指定模型,进行模型推理验证。

1.png

4.3  如何更方便的管理自己的文件系统?

如果您想要更方便地和本地文件系统进行交互,在WebUI应用页面直接打开文件系统,您可以参照以下步骤进行设置。

1.  您可以在挂载OSS路径的情况下(4.2 详情请参见您自己的模型及输出目录等内容如何挂载?)在创建或更新服务时,在运行命令文本框中增加--filebrowser指令,即./webui.sh --listen --port=8000 --blade --data-dir data-oss --filebrowser。

2.png

2.  服务部署完成后,单击服务方式列下的查看Web应用。

3.  在WebUI页面,单击FileBrowser页签。您可以直接看到文件系统,并且可以上传本地的文件到文件系统中,也可以下载文件到本地。

4.png

免费体验

从2023年4月起,阿里云产品试用中心正式开放 PAI-EAS 的试用活动,如果您是 PAI-EAS 的新用户且通过阿里云实名认证,即可免费体验 PAI-EAS 模型推理服务。

阿里云试用中心地址:

https://free.aliyun.com/

选择“AI与机器学习”分类 -> “机器学习平台 PAI” -> “模型在线服务PAI-EAS”。


5.png


【往期回顾】:

  1. 快速玩转 Llama2!机器学习 PAI 最佳实践(一)—低代码 Lora 微调及部署
  2. 快速玩转 Llama2!机器学习 PAI 最佳实践(二)—全参数微调训练
  3. 快速玩转 Llama2!机器学习 PAI 最佳实践(三)—快速部署WebUI
相关实践学习
使用PAI-EAS一键部署ChatGLM及LangChain应用
本场景中主要介绍如何使用模型在线服务(PAI-EAS)部署ChatGLM的AI-Web应用以及启动WebUI进行模型推理,并通过LangChain集成自己的业务数据。
机器学习概览及常见算法
机器学习(Machine Learning, ML)是人工智能的核心,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。 本课程将带你入门机器学习,掌握机器学习的概念和常用的算法。
目录
打赏
0
19
7
0
3588
分享
相关文章
多模态AI核心技术:CLIP与SigLIP技术原理与应用进展
近年来,多模态表示学习在人工智能领域取得显著进展,CLIP和SigLIP成为里程碑式模型。CLIP由OpenAI提出,通过对比学习对齐图像与文本嵌入空间,具备强大零样本学习能力;SigLIP由Google开发,采用sigmoid损失函数优化训练效率与可扩展性。两者推动了多模态大型语言模型(MLLMs)的发展,如LLaVA、BLIP-2和Flamingo等,实现了视觉问答、图像描述生成等复杂任务。这些模型不仅拓展了理论边界,还为医疗、教育等领域释放技术潜力,标志着多模态智能系统的重要进步。
41 13
多模态AI核心技术:CLIP与SigLIP技术原理与应用进展
帮你整理好了,AI 网关的 8 个常见应用场景
通过 SLS 还可以汇总 Actiontrail 事件、云产品可观测日志、LLM 网关明细日志、详细对话明细日志、Prompt Trace 和推理实时调用明细等数据汇总,从而建设完整统一的可观测方案。
36.7K star!拖拽构建AI流程,这个开源LLM应用框架绝了!
`Flowise` 是一款革命性的低代码LLM应用构建工具,开发者通过可视化拖拽界面,就能快速搭建基于大语言模型的智能工作流。该项目在GitHub上线不到1年就斩获**36.7K星标**,被开发者誉为"AI时代的乐高积木"。
AI职场突围战:夸克应用+生成式人工智能认证,驱动“打工人”核心竞争力!
在AI浪潮推动下,生成式人工智能(GAI)成为职场必备工具。文中对比了夸克、豆包、DeepSeek和元宝四大AI应用,夸克以“超级入口”定位脱颖而出。同时,GAI认证为职场人士提供系统学习平台,与夸克结合助力职业发展。文章还探讨了职场人士如何通过加强学习、关注技术趋势及培养合规意识,在AI时代把握机遇。
Java也能快速搭建AI应用?一文带你玩转Spring AI可落地性
Java语言凭借其成熟的生态与解决方案,特别是通过 Spring AI 框架,正迅速成为 AI 应用开发的新选择。本文将探讨如何利用 Spring AI Alibaba 构建在线聊天 AI 应用,并实现对其性能的全面可观测性。
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
1182 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
【AI落地应用实战】大模型加速器2.0:基于 ChatDoc + TextIn ParseX+ACGE的RAG知识库问答系统
本文探讨了私有知识库问答系统的难点及解决方案,重点分析了企业知识管理中的痛点,如信息孤岛、知识传承依赖个人经验等问题。同时,介绍了IntFinQ这款知识管理工具的核心特点和实践体验,包括智能问答、深度概括与多维数据分析等功能。文章还详细描述了IntFinQ的本地化部署过程,展示了其从文档解析到知识应用的完整技术闭环,特别是自研TextIn ParseX引擎和ACGE模型的优势。最后总结了该工具对企业和开发者的价值,强调其在提升知识管理效率方面的潜力。
AI程序员:通义灵码 2.0应用VScode前端开发深度体验
AI程序员:通义灵码 2.0应用VScode前端开发深度体验,在软件开发领域,人工智能技术的融入正深刻改变着程序员的工作方式。通义灵码 2.0 作为一款先进的 AI 编程助手,与广受欢迎的代码编辑器 Visual Studio Code(VScode)相结合,为前端开发带来了全新的可能性。本文将详细分享通义灵码 2.0 在 VScode 前端开发环境中的深度使用体验。
159 2
牛逼,这款开源聊天应用竟能一键召唤多个AI助手,跨平台通话神器!
`JiwuChat`是一款基于Tauri2和Nuxt3构建的轻量化多平台即时通讯工具,仅约8MB体积却集成了**AI群聊机器人**、**WebRTC音视频通话**、**屏幕共享**等前沿功能。一套代码适配Windows/macOS/Linux/Android/iOS/Web六大平台,堪称开发者学习跨端开发的绝佳样板!
一键轻松打造你的专属AI应用!
函数计算提供免运维、Serverless GPU,具备极致弹性与按量付费优势,助您一键部署AI大模型,加速业务创新。

热门文章

最新文章

相关产品

  • 人工智能平台 PAI