算力赋能AIGC专题训练营:基于机器学习平台PAI的AI绘画最佳实践
课程地址:https://developer.aliyun.com/trainingcamp/5c9aaef8f02e49dbb0a8dc961ac71248
十三、PAI-SD-API-方案优势和举例报价
来说我们这个优势,首先第一点,我们原生的支持整个开源设计stability fusion的开源社区。包括里面的文生图,图生图,包括这个laura模型,control net模型是完美的融合。第二点是这两套diffuser API的方案跟SDWebUI的方案。您需要哪一种触手可及,很快速的就可以把它拉起来,并且保证它的稳定性。第三点是我们的极致的性价比,我们提供极致的便宜的高效的计算资源,结合sport incense,刚才讲的抢占型实例,包括这个异步的推理,您可以通过一个队列,这样的话不需要实时返回,更大限度的去提升你的GPU的利用率。再包括通过我们的blade的优化,让您的这个出图速度变得更快,而再次降低你的成本。真正的做到这个行业里面的大杀器。
这个方案其实也非常的简单,最简单来说就是最开始前面这一套其实是一套异步的推理的方案。因为API 保证这个集群的使用率,然后底层用整个的弹性扩缩容的能力,保证您底层资源的最大限度的使用,并且在整个您部署的易用性上面,你可以非常方便的去运维,去管理您自己的服务,让你自己的服务可以更快速的被自己的这个游戏或者是应用所集成。并且带来稳定高效、便宜的这样的一套使用体验。
最后也是报价这。其实跟刚才讲到的报价其实是差不多一样的。因为它本质上都是布了一套SD的东西,只不过有的是web UI使用,而这个是API的使用。今天给了一个blade的性能的对比分析。可以看到在blade加速的情况之下,在A十的这个机型上面,今天加速比达到了2.34倍。那相当于整个达到了原来速度的两倍以上。让您出图的效率更高,并降低更多的成本。
十四、AIGC 模型训练及微调
刚才讲到的两个场景,第一个是美术社的场景,他需要去做这个AI绘画,他需要用来外部UI。第二种就是API的场景,它需要通过调API的形式去完成AI绘画。AI绘画它过程中一定需要模型去进行绘画,今天完全纯通用的像C站横滨face model scope上面的模型,它很多情况下不会满足客户真实的生产场景的需求。这也是为什么像mid journey这样的产品,很难被B端的客户所应用。因为B端的客户他一定会有自己的定制化的需求。比如原神,我拥有那么多的IP,我需要围绕我这个IP去进行绘画,不能随便给画一个不认输IP的东西。那这个时候就需要您对它的原来的模型去做一些模型的训练,SD的搬运,以及生成您自己的lower模型。
在这个领域,现在火遍这个市场的一个工具叫做kohya-SS。这个东西在B站上有大量的教程,我感觉美术师比我们玩的都厉害的多。我今天去拜访了非常多的客户,华东的华南的非常多的游戏公司、互娱的公司。我每次去跟他们去做交流的时候,我发现其实并不是我给他们在灌输什么,是他们在给我讲,他们在说网上在B站上,他们学到了什么样的就是怎么样去拉起kohya,拉起SDWebUI怎么去弄,问怎么支持。然后我回来开始疯狂的补习这样的功课。所以我们今天也推出了这样的方案,您今天不用再单击的去这个相对麻烦的垃圾和kohya-SS的这样一个训练的工具。我们自动的集成了它整个镜像,开源社区的镜像,然后帮助您也是一键式的拉起这样一套kohya-SS的一套工具。然所有的美术师都比我熟的多去用这个东西,你可以看到他的这个训练过程中,是生成自己的lora模型。今天看到其实每一个美术师,他都有自己几百个lora模型,他们真的是深度用户,比我们玩的都熟的多。他们怎么去训练lorar模型,然后lora型怎么使用,我们更多的其实就是把这个工具变得极其的好用,并且极其的便宜,提供给我们的客户。
说完美术师之后,还是回到开发者。我天开发者就想写代码去翻译模型怎么办,没问题,我们提供PAI DSW这款产品,让您通过w get代码的方式,去通过改代码的方式去对模型进行翻新的训练。快速开始针对于完全小白的客户,我们今天提供了快速开始的一款产品。
在这个里面您不需要写任何一行代码,不需要看任何东西,只是需要准备好这样的数据集,通过点点点的形式就可以完成您自己的lora模型或者是大模型的翻新训练。
十五、LLM 大模型训练和部署
讲完这个AIGC这个场景,再换句话回过来另一个场景就是大规模原理模型LLM这样的场景。在这些的领域,其实平台也做了非常多的集成。我们来一起来看一看怎么去用。
首先还是第一点,今天在ES上面集成了这个一键可以部署一个chat GLM的这个web UI的应用,以及您可以通过long chain去集成您自己的业务数据。这两个也都是非常火爆,我们现在最火的两个大模型,一个是这开源大模型,一个是chat GLM,一个是拉马,然后最火的这个插件,开源设计应用lang chain,都有很好的集成。因为我们都通过镜像的方式集成,你可以一键式的把这样一套GLM去把它拉起来。并且可以看快速的跟它去对话,并且你也可以通过lang chain去把自己的业务数据,通过这个vector的形式,知识库文件的现代化的形式,很快速的去集成到自己的chat的boat中,可以跟他对话,去产生您自己的业务价值。让它在一个真正的生产场景,而不是demo场景中变得有用,去让您真正的生产业务中去发挥它的价值。
包括在我们的DSW里面,你也可以通过代码化的方式去快速的去进行这个chat GLM模型的翻圈训练,以及模型的拉起。
十六、PAI 灵骏智算服务
刚才讲的是开源大模型怎么去应用,今天如果您有自己训练超大模型的这样的需求,我们也提供了一个超算平台-PAI灵骏智算服务,它里面提供的是超高能的络,什么RDMA以及超大规模的存储CPFS,以及超高规格的算力。这个A800H800的机器,让您在上面可以做大规模分布式的一套训练,包括这包括部署的能力,满足您自建大大模型一套需求的平台。今天我们这款产品叫做PAI灵骏智算服务,也已经向大家公开的使用了。
十七、客户使用产品观点
这个刚才讲的是我我们自己PAI,我们自己说自己多么好多么厉害。今天其实客户更想听到别人客户是怎么用的,别人客户是怎么想的。这对大家可能更有价值。
今天也以一个公司为例,这个具体的名字我就不展开讲了。这是我们合作的非常紧密的一个客户,上海市的一个大型的游戏公司。他们在整个端游领域和手游领域都有非常大规模的游戏进展,然后公司的盈利规模也是非常大的。在整个的这套平台实践之中,这个公司跟我们一起做了两套整个的解决方案。
第一套就是我刚才讲的SDWebUI,针对他们自己内部的美术师,批量的做了很大规模的SDWebUI的实践里面的美术设计师,他们内部的账号体系就跟阿里云SSO完全打通。可以一站式把SDWebUI的入口嵌入到他们的套装里面,直接去使用,方便了他们美术师真正使用这个过程。并且在整个过程中也可以去按工作日去隔离资源,去弄自己的模型,去出自己的图,并且互相是完全分离开的,可以出自己的账单。并且多人可以共用同一张卡,极大的降低了他们的成本。第二块就是他们在游戏里面面向C端做了很多SDAPI的集成,也是刚才讲到的。然后在这个里面他们用到了异步推理,用到了整套弹性伸缩,用到了博列的加速,进一步的去降低他们的成本。
再以一个性能case的去举例,在相同的这个情况之下,我们用的模型是这个国风模型,然后正向的promise。这个negative的promise
在整个测试场景之中,我们是分别用了原生的SDVUI和启动x formose加速的。x formose是这个SDW UI自带的一套加速的体系,以及使用我们自己PAI自研的blade加速。我们会在这些场景中发现,尤其是更大规模的场景,我们的生产效率直接提高了2倍到3倍,相当于您直接减省了2倍到3倍,这是一个非常可怕的效率。今天PAI更好的去让您去在这个平台上做AI绘画。整个AIGC的创新之旅的实现。
十八、产品介绍
最后如果您对我们的产品感兴趣的话,可以通过扫这个二维码去立刻免费试用。PAI EAS推出了500块钱的免费试用礼盒包。只要您是我们的新客户,都可以免费去领取,免费去试用。更多的问题也可以加入我们的群,跟我们一起去交流。我们可以一起去看看更多的业务场景,让我们在AIGC这个行业里面去看看有没有更多好玩的东西,让我们一起去尝试一下。
十九、产品试用展示
最后我会给大家做一些demo的展示,刚才说了很多之后,来展示一下,从头来说,比如第一步,进到产品先进到阿里云的官网。在产品里面去找到人工智能机器学习平台PAI,点击查看控制台。如果您第一次的话需要先开通,也很简单。刚才也讲到了,如果您是第一次的使用,也可以去领取我们的免费试用包。这个EAS提供500块钱的免费试用包,您可以去尽情的使用。
找到在这个里面,我们我刚才提到了我们数据准备有i tag我们的开发有这个designer和DSW。我们的模型训练有DLC,然后模型部署有EAS。点击到EAS进入到一个工作空间。这个里面其实有一些文档,可以造出我们的很多的产品的最佳时间的文档来,在的文档里面,实践教程里面有AIGC,然后五分钟部署这个应用,这里面有详记得去部署的方法的介绍。
具体实操一下,简单其实很简单,点击一个部署服务
输入一个名字比如说这个SD web UI demo001,然后选择AI这个镜像部署AI外部应用,然后选spread diffusion的web UI,然后选镜像或者选一个3.0镜像,把这个勾选上。这个地方可以去做模型的挂载。刚才有也有说到,今天如果你有自己的下载好的或者训练的loar模型等等,那您可以通过这种方式去挂载进来和OSS、nas都可以。
比如OSS的话,那您可以去选自己一个OSS目录,这个是之前都创建好的,您可以在OSS的控制台去找到这样的目录,然后去找到一个样的文件。
然后挂载的路径,直接copy下来,在这个解决方案的文档里面都有,大家可以直接去copy挂载模型。这边单独写了一张,找到这个路径,给它挂进去。
这个路径的不用写死,这个dota OSS可以随便换的。比如说你可以自定,比如test,这个你可以随便写。
但是在这个地方启动命令的时候,data-dil,这个地方要跟它去做一个对应,写相对路径就好Data test,然后选资源。刚才提到了,这个超级便宜,挺好用的GU30的这款机型选择,它如果是您第一次也可以参加这样的试用活动,去免费体验这个计算资源。
然后可以选这样的计算资源,然后点击部署就ok了。
刚才讲的是OSS,你也可以去挂载nas你可以选择nas,然后选择nas的一个文件系统。然后在那里里面你可以选择不同的容量型的性能的nas。根据您自己的业务需求,然后选择挂载点,然后把路径挂载上。这个挂载路径是一样的。比如这个是nas,我就写成nas,这个地方就是挂载的nas,把这个OSS去掉,就挂载一个就行了。是为了方便,所以给大家展示了两个。
然后再把这个地址填进来,这挂载的路径,这个地方你直接copy过来就好了。就是随便自定义,只要跟他对齐就好了。这个名称是可以自己定义的。然后点击部署,换个志愿组,对换安全组,点击部署,然后再等一段时间就可以把这个服务器下来了,非常的方便。
今天为了效率,找一个我之前部署好的,比如找一个之前部署好的SDWebUI的服务。您点击这个查看web UI,点击查看web UI你就可以进到SDWebUI里面了,在这个里面你可以切换自己的大模型。
我之前准备了很多的模型,可以去切换。切换好了之后,你可以去输入一个词,QQ dog的语录,然后点击生成。就可以快速的生成你自己想要的这样的一些图片,非常的丝滑顺滑,丝滑且便利。
除了SDWebUI的这套以外,我们也支持你部署一套chain BLM。就是说我再部署一个chat GLM demo001AIY应用,然后选chat GL MIUI,然后选版本,然后勾选。
这个里面你也可以去挂载自己的OSS,你可以挂载自己的这样一些LLM的大模型。这边就不做挂载的演示了。然后这边你去选一个GPU的资源,还是选这个GU30然后点击部署。
可以看到这个过程非常的简单,基本不需要写任何的东西,很快的就可以把它补起来,然后等它去这个运行就好了。
我也找一个我之前部署好的,点击进去,那我就进到了这样一套chat GLM的界面里面,比如输入这个请介绍,你是谁,这个点发送,他是他就开始跟他对话。比如请给我介绍一个两天的学习理财计划,然后他就可以开始给你置顶,就正常的像chat GPT1样去找他聊天,快速拉起您自己的一套SDWebUI的是chat GLM的这样一套大模型的SDWebUI这个chat GLM的web UI。
你也可以通过launching去拖入您自己的一个业务数据。
这个自己之前找到的一个MD的这个是read MI markdown的一个文档。这个文档里面主要是讲deep speed的一个安装和用法。然后上传上来之后,点击一个知识库文件的限量化。然后它已经加载完成了。比如加载完成之后就可以问他了。比如我问他如何下载deep speed,然后点击发送。
然后他就可以把这个文件里面加载的这个知识快速的给您吐出来。其实这个只是一个例子,让你更好的集成自己的业务数据,去使用整个大模型的推理的这样一套业务,今天的分享就到这。