三张搞定AI形象照,开启GPU即刻体验

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 1GiB,适用于搭建电商独立站
简介: 整个过程分为三步:第一步是开通FaceChain服务并创建实例;第二步是使用已开通的FaceChain服务进行训练;第三步是选择风格并生成个人的数字写真。


本文将为您演示如何使用GPU加计算巢来生成个人的数字写真。整个过程分为三步:第一步是开通FaceChain服务并创建实例;第二步是使用已开通的FaceChain服务进行训练;第三步是选择风格并生成个人的数字写真。在每一步中,都给出了具体的操作指引和注意事项。

活动入口:https://developer.aliyun.com/topic/ai/gpuperson

第一步:使用计算巢开通FaceChain服务

1.首先从官网上进入计算巢的控制台,并登录管理控制台。

2.选择用户控制台界面,找到FaceChain服务,点击正式创建。

3.选择资源部署的地域和实例规格,填写实例密码。实例规格建议选择A10卡gn7i(ecs.gn7i-c16g1.4xlarge

注:如果遇到实例规格列表为空的情况,可能是当前地域的库存不足,请切换其他地域重试!

4.填写软件登陆名和密码。

注:一定要记住自己的密码,否则后面无法登陆软件

5.配置可用区和专有网络。

6.点击“下一步:确认订单”跳转,勾选“我已阅读并同意《计算巢服务协议》”,点击立即创建。

7.提交成功后点击去列表查看即可看到部署进度。

8.等待状态变为“已部署”后,点击详情跳转到服务实例详情页。

  • 点击Endpoint,输入刚刚设置的用户名和密码即可登陆FaceChain界面开始创作啦!


第二步:使用FaceChain服务开始训练


1.选择基础模型首先选择感兴趣的基础模型,不同的基础模型包含的风格类型不同

2.上传照片,输入当前人物名称,点击选择图片上传,为了保证质量,选择清晰的头肩照为宜。

3.开始训练,在上面图片全部加载出来后,点击“开始训练”,然后就耐心等待,直到输出信号出现“训练已经完成!”,这时候就可以愉快地进行下一步啦!


第三步:训练完成后选择自己的想要的风格生成个人的数字写真。


1.切换到“无限风格形象写真”tab,选择刚刚训练好的基础模型,找到你的人物LoRA。

2.接着点击选择你喜欢的风格类型,输入想要生成的图片数量,或者也可以在高级选项中进行各种高级操作~包括prompt优化,参数调整等等。

3.等待生成完毕后,即可获取自己的数字形象啦!


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
人工智能 并行计算 Linux
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
斯坦福大学推出的FramePack技术通过压缩输入帧上下文长度,解决视频生成中的"遗忘"和"漂移"问题,仅需6GB显存即可在普通笔记本上实时生成高清视频。
1165 19
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
|
2月前
|
存储 人工智能 编解码
阿里云GPU云服务器深度评测:算力怪兽如何重塑AI与图形处理的未来?
在AI与高性能计算需求激增的今天,传统CPU已难满足“暴力计算”需求。阿里云GPU云服务器依托NVIDIA顶级显卡算力,结合专为GPU优化的神行工具包(DeepGPU),为深度学习、科学计算、图形渲染等领域提供高效、弹性的算力支持。本文全面解析其产品优势、工具链及六大真实应用场景,助你掌握AI时代的算力利器。
阿里云GPU云服务器深度评测:算力怪兽如何重塑AI与图形处理的未来?
|
3月前
|
人工智能 运维 Serverless
GPU 降成本免运维,睿观 AI 助手选择函数计算
从跨境电商 ERP 到“睿观 AI 助手”,阿里云函数计算的支持下,深圳三态股份利用 AI 技术快速完成专利、商标、版权等多维度的侵权风险全面扫描。结合函数计算实现弹性算力支持,降低成本并提升效率,实现业务的快速发展。
|
5月前
|
人工智能 并行计算 监控
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
1694 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
|
6月前
|
人工智能 自然语言处理 API
8.6K star!完全免费+本地运行+无需GPU,这款AI搜索聚合神器绝了!
FreeAskInternet是一款革命性的开源项目,它完美结合了多引擎搜索和智能语言模型,让你在不联网、不花钱、不暴露隐私的情况下,获得媲美ChatGPT的智能问答体验。这个项目最近在GitHub上狂揽8600+星,被开发者称为"本地版Perplexity"。
215 2
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管理 GPU 云服务器集群进行图片 AI 训练。
1253 0
GPU AI 模型训练
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管 理 GPU 云服务器集群进行图片 AI 训练。
19629 0
GPU AI 模型训练
|
6天前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
|
12天前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
204 12
|
8天前
|
设计模式 机器学习/深度学习 人工智能
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?

热门文章

最新文章

相关产品

  • GPU云服务器