三张搞定AI形象照,开启GPU即刻体验

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于网站搭建
简介: 整个过程分为三步:第一步是开通FaceChain服务并创建实例;第二步是使用已开通的FaceChain服务进行训练;第三步是选择风格并生成个人的数字写真。


本文将为您演示如何使用GPU加计算巢来生成个人的数字写真。整个过程分为三步:第一步是开通FaceChain服务并创建实例;第二步是使用已开通的FaceChain服务进行训练;第三步是选择风格并生成个人的数字写真。在每一步中,都给出了具体的操作指引和注意事项。

活动入口:https://developer.aliyun.com/topic/ai/gpuperson

第一步:使用计算巢开通FaceChain服务

1.首先从官网上进入计算巢的控制台,并登录管理控制台。

2.选择用户控制台界面,找到FaceChain服务,点击正式创建。

3.选择资源部署的地域和实例规格,填写实例密码。实例规格建议选择A10卡gn7i(ecs.gn7i-c16g1.4xlarge

注:如果遇到实例规格列表为空的情况,可能是当前地域的库存不足,请切换其他地域重试!

4.填写软件登陆名和密码。

注:一定要记住自己的密码,否则后面无法登陆软件

5.配置可用区和专有网络。

6.点击“下一步:确认订单”跳转,勾选“我已阅读并同意《计算巢服务协议》”,点击立即创建。

7.提交成功后点击去列表查看即可看到部署进度。

8.等待状态变为“已部署”后,点击详情跳转到服务实例详情页。

  • 点击Endpoint,输入刚刚设置的用户名和密码即可登陆FaceChain界面开始创作啦!


第二步:使用FaceChain服务开始训练


1.选择基础模型首先选择感兴趣的基础模型,不同的基础模型包含的风格类型不同

2.上传照片,输入当前人物名称,点击选择图片上传,为了保证质量,选择清晰的头肩照为宜。

3.开始训练,在上面图片全部加载出来后,点击“开始训练”,然后就耐心等待,直到输出信号出现“训练已经完成!”,这时候就可以愉快地进行下一步啦!


第三步:训练完成后选择自己的想要的风格生成个人的数字写真。


1.切换到“无限风格形象写真”tab,选择刚刚训练好的基础模型,找到你的人物LoRA。

2.接着点击选择你喜欢的风格类型,输入想要生成的图片数量,或者也可以在高级选项中进行各种高级操作~包括prompt优化,参数调整等等。

3.等待生成完毕后,即可获取自己的数字形象啦!


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
1月前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
3月前
|
存储 机器学习/深度学习 人工智能
GPU云存储性能:加速AI与高性能计算的关键
在人工智能(AI)、机器学习(ML)和高性能计算(HPC)飞速发展的今天,数据存储和处理的效率已成为决定项目成败的关键因素。传统的云存储方案往往无法满足GPU密集型工作负载的需求,而GPU云存储性能的优化正成为企业提升计算效率、降低延迟的核心突破口。本文将深入探讨GPU云存储性能的重要性、关键技术及优化策略,助您在数据驱动的竞争中占据先机。
|
1月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
222 4
|
2月前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管理 GPU 云服务器集群进行图片 AI 训练。
1291 0
GPU AI 模型训练
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管 理 GPU 云服务器集群进行图片 AI 训练。
19764 0
GPU AI 模型训练
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
413 29
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
807 43
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
465 29

热门文章

最新文章

相关产品

  • GPU云服务器