SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?

简介: SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?



在科技迅速发展的今天,生成式人工智能和计算机图形学领域的研究日益引人注目,影视制作、游戏开发等行业正面临着巨大的挑战和机遇。本文将为您介绍一项 3D 生成领域的研究 ——DreamFace,它是首个支持 Production-Ready 3D 资产生成的文本指导渐进式 3D 生成框架,能够实现文本生成可驱动的 3D 超写实数字人。


这项工作已经被计算机图形领域国际顶级期刊 Transactions on Graphics 接收,并将在国际计算机图形顶级会议 SIGGRAPH 2023 上展示。



项目网站:https://sites.google.com/view/dreamface预印版论文:https://arxiv.org/abs/2304.03117Web Demo: https://hyperhuman.topHuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar


引言


自文本和图像生成技术取得巨大突破以来,3D 生成技术逐渐成为了科研和产业界关注的焦点。然而,目前市面上的 3D 生成技术仍然面临着许多挑战,包括 CG 管线兼容性问题、准确性问题以及运行速度问题。


为了解决这些问题,来自影眸科技与上海科技大学的研发团队提出了一种文本指导的渐进式 3D 生成框架 ——DreamFace。该框架能够直接生成符合 CG 制作标准的 3D 资产,具有更高的准确性、更快的运行速度和较好的 CG 管线兼容性。本文将对 DreamFace 的主要功能进行详细介绍,并探讨其在影视制作、游戏开发等行业的应用前景。


DreamFace 框架概述



DreamFace 框架主要包括三个模块:几何体生成、基于物理的材质扩散生成和动画能力生成。这三个模块相辅相成,共同实现了一种高效而可靠的 3D 生成技术。


几何体生成



几何体生成模块的核心任务是根据文本提示生成与之一致的几何模型。DreamFace 采用了基于 CLIP(Contrastive Language-Image Pre-Training)的选择框架,首先从人脸几何参数空间内随机采样的候选项中选择最佳的粗略几何模型,然后通过隐式扩散模型(LDM)雕刻几何细节,使头部模型更符合文本提示。此外,该框架还支持基于文本提示的发型和颜色生成。



基于物理的材质扩散生成


基于物理的材质扩散生成模块旨在预测与预测几何体和文本提示一致的面部纹理。DreamFace 首先将预先训练的 LDM 在收集的大规模 UV 材质数据集上微调,得到两个 LDM 扩散模型。然后,采用联合训练方案协调两个扩散过程,一个用于直接去噪 UV 纹理贴图,另一个用于监督渲染图像。



为了确保所创建的纹理地图不含有不良特征或照明情况,同时仍保持多样性,设计了一种提示学习策略。团队利用两种方法生成高质量的漫反射贴图:(1)Prompt Tuning。与手工制作的特定领域文本提示不同,DreamFace 将两个特定领域的连续文本提示 Cd 和 Cu 与相应的文本提示结合起来,这将在 U-Net 去噪器训练期间进行优化,以避免不稳定和耗时的手工撰写提示。(2)非面部区域遮罩。LDM 去噪过程将额外地受到非面部区域遮罩的限制,以确保生成的漫反射贴图不含有任何不需要的元素。


最后,通过超分辨率模块生成 4K 基于物理的纹理,以进行高质量渲染。



动画能力生成



DreamFace 生成的模型具备动画能力。通过预测独特的变形,为生成的静息(Neutral)模型赋予动画效果,从而产生个性化的动画。与使用通用 BlendShapes 进行表情控制的方法相比,DreamFace 的神经面部动画方法能够提供更细致的表情细节,并且能够精细地捕捉表演。



应用和展望



DreamFace 框架在名人生成、根据描述生成角色等方面取得了优异的成绩。此外,还支持使用提示和草图进行纹理编辑,实现全局的编辑效果,如老化和化妆。通过进一步结合掩模或草图,可以创建各种效果,如纹身、胡须和胎记。


DreamFace 的渐进式生成框架为解决复杂的 3D 生成任务提供了一种有效的解决方案,有望推动更多类似的研究和技术发展。此外,基于物理的材质扩散生成和动画能力生成将推动 3D 生成技术在影视制作、游戏开发和其他相关行业的应用,让我们拭目以待它在未来的发展和应用。

相关文章
3D大模型助力,15分钟即可训练高质量、个性化的数字人模型,代码已开放
《MimicTalk: 快速生成个性化3D数字人》介绍了一种创新方法,利用3D大模型在15分钟内训练出高质量、个性化的数字人模型。该方法基于NeRF技术,通过“静态-动态混合适应”实现高效训练,显著提升了数字人在视频会议、虚拟现实等领域的应用潜力。论文链接:https://arxiv.org/pdf/2410.06734
102 4
CVPR 2024:文本一键转3D数字人骨骼动画,阿尔伯塔大学提出MoMask框架
【5月更文挑战第12天】CVPR 2024将展出阿尔伯塔大学的MoMask框架,该框架创新性地将文本转化为3D数字人骨骼动画,推动计算机图形学和动画制作的发展。MoMask结合NLP和计算机视觉,由文本编码器解析输入文本,动作生成器则将其转化为骨骼动画。该技术提升动画制作效率,降低门槛,但面临训练数据需求大和生成动画可能有偏差的挑战。[论文链接](https://arxiv.org/abs/2312.00063)
174 2
如何在淘宝人生2一键定制你的专属3D数字人(下)
如何在淘宝人生2一键定制你的专属3D数字人(下):
436 4
如何在淘宝人生2一键定制你的专属3D数字人(上)
如何在淘宝人生2一键定制你的专属3D数字人(上)
1304 3
基于RTMP的智慧数字人|AI数字人传输技术方案探讨
随着智慧数字人、AI数字人的兴起,越来越多的公司着手构建全息、真实感数字角色等技术合成的数字仿真人虚拟形象,通过“虚拟形象+语音交互(T-T-S、ASR)+自然语言理解(NLU)+深度学习”,构建适用于数字客服、虚拟展厅讲解、 智慧城市、智慧医疗、智慧教育等场景,通过人机可视化语音交互,释放人员基础劳动力,降低运营成本,提升智慧交互体验。
194 0
AI 绘画Stable Diffusion 研究(十二)SD数字人制作工具SadTlaker插件安装教程
AI 绘画Stable Diffusion 研究(十二)SD数字人制作工具SadTlaker插件安装教程
1041 0
『GitHub项目圈选周刊01』一款构建AI数字人项目开源了!自动实现音视频同步!
『GitHub项目圈选周刊01』一款构建AI数字人项目开源了!自动实现音视频同步!
1300 0
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
133 24
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
AigcPanel:开源的 AI 虚拟数字人系统,一键安装开箱即用,支持视频合成、声音合成和声音克隆
AigcPanel 是一款开源的 AI 虚拟数字人系统,支持视频合成、声音克隆等功能,适用于影视制作、虚拟主播、教育培训等多种场景。
423 12
AigcPanel:开源的 AI 虚拟数字人系统,一键安装开箱即用,支持视频合成、声音合成和声音克隆
Lobe Vidol:AI数字人交互平台,可与虚拟人和3D模型聊天互动
Lobe Vidol是一款开源的AI数字人交互平台,允许用户创建和互动自己的虚拟偶像。该平台提供流畅的对话体验、丰富的动作姿势库、优雅的用户界面设计以及多种技术支持,如文本到语音和语音到文本技术。Lobe Vidol适用于娱乐互动、在线教育、客户服务、品牌营销和社交媒体等多个应用场景。
237 7
Lobe Vidol:AI数字人交互平台,可与虚拟人和3D模型聊天互动

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等