CodeFormer的二次封装使用-针对人脸处理(需要有显卡最低4G显存)

简介: CodeFormer的二次封装使用-针对人脸处理(需要有显卡最低4G显存)

CodeFormer能做什么

CodeFormer是一种基于AI技术深度学习的人脸复原模型,由南洋理工大学和商汤科技联合研究中心联合开发。该模型通过结合了VQGAN和Transformer等技术,可以通过提供模糊或马赛克图像来生成清晰的原始图像。它的主要功能有:

  • 旧照片增强;
  • 面部修复(图片不清晰);
  • 面部色彩增强和恢复;
  • 脸部修复(照片缺角或残缺)。

查看显卡信息

nvidia-smi

下载到本地解压缩后直接打开即可。

测试图片:

修复效果:

下载地址:https://download.csdn.net/download/feng8403000/88885979

功能1、针对deepfacelab提取好的人脸图进行清晰化,直接保留deepfacelab相关切脸信息,强化后无需重新提取人脸,可直接用于训练。

功能2、对任意图进行清晰化处理,人脸部分采用codeformer算法处理,非人脸部分使用basicSR处理。适用于deepfacelab合成环节merge文件夹里的图,不适用aligned文件夹里的图。

功能3、直接对视频进行清晰化处理。默认只清晰化脸部,如需额外清晰背景,请勾选背景强化。

视频处理时间较久,请耐心等待。

相关文章
|
3月前
|
缓存 算法 测试技术
|
3月前
|
机器学习/深度学习 人工智能 并行计算
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
49 0
|
5月前
|
小程序 API 调度
消费级显卡,17G显存,玩转图像生成模型FLUX.1!
近期stable diffusion的部分核心开发同学,推出了全新的图像生成模型FLUX.1。
|
7月前
|
运维 并行计算 前端开发
函数计算产品使用问题之在部署 Stable Diffusion 时,是否可以自定义显存占用
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
8月前
|
机器学习/深度学习 编解码 PyTorch
MSLTNet开源 | 4K分辨率+125FPS+8K的参数量,怎养才可以拒绝这样的模型呢?
MSLTNet开源 | 4K分辨率+125FPS+8K的参数量,怎养才可以拒绝这样的模型呢?
122 0
|
人工智能 自然语言处理 测试技术
只用几行代码,我让模型『训练』加速了3倍以上!
只用几行代码,我让模型『训练』加速了3倍以上!
166 0
只用几行代码,我让模型『训练』加速了3倍以上!
|
tengine 数据可视化 API
YOLOv5-Lite 树莓派实时 | 更少的参数、更高的精度、更快的检测速度(C++部署分享)(二)
YOLOv5-Lite 树莓派实时 | 更少的参数、更高的精度、更快的检测速度(C++部署分享)(二)
466 0
|
机器学习/深度学习 缓存 算法
YOLOv5-Lite 树莓派实时 | 更少的参数、更高的精度、更快的检测速度(C++部署分享)(一)
YOLOv5-Lite 树莓派实时 | 更少的参数、更高的精度、更快的检测速度(C++部署分享)(一)
412 0
|
机器学习/深度学习 传感器 人工智能
用少于256KB内存实现边缘训练,开销不到PyTorch千分之一
用少于256KB内存实现边缘训练,开销不到PyTorch千分之一
104 0
|
机器学习/深度学习 人工智能 PyTorch
PyTorch宣布支持苹果M1芯片GPU加速:训练快6倍,推理提升21倍
PyTorch宣布支持苹果M1芯片GPU加速:训练快6倍,推理提升21倍
1336 0

热门文章

最新文章