今天 Epic 发布了一个短片《蓝点》,让你对 MetaHuman Animator 这款神器有进一步的了解。
还记得 Epic Games 炸掉 2023 GDC(游戏开发者大会)场子的 MetaHuman Animator(虚幻引擎 5)吗?
当时,演员对着 iPhone 的前置摄像头讲一段 10 秒钟的话,配合对应的面部动作。仅仅 2 分钟后,新工具就在建模人脸上精准复现了这一段讲话视频,所有面部细节都被高度还原,包括嘴唇,眼神,面部肌肉,光影等。语言发音与动作细节配合完美。
这款新工具现在已提供给开发人员使用。今天,Epic 又发布了一个短片《蓝点》(Blue Dot),让大家对这款神器工具进一步的了解。
,时长03:56
《蓝点》由 Epic Games 的 3Lateral 团队与当地塞尔维亚艺术家合作制作,演员拉迪沃耶・布克维奇(Radivoje Bukvić )根据塞尔维亚诗人 Mika Antic 诗歌进行了一段独白。
短片在 Take One 工作室的动作捕捉舞台上拍摄,摄影师 Ivan Šijak 担任摄影指导。
栩栩如生的动画效果验证了电影制作人在使用 MetaHuman Animator 与立体头戴式摄像头系统和传统电影制作技术时期望实现的保真度。
该团队能够在 MetaHuman Animator 结果的基础上,以最小的干预达到令人印象深刻的动画质量水平。
虽然短片展示了一些令人印象深刻的微妙面部动画,但该公司强调,最大好处是产生结果的速度。
「动画是使用 GPU 硬件在本地制作的,最终动画在几分钟内可用,」该公司的新闻稿中写道。
Epic 认为,工作室不仅可以通过提高表演捕捉效率节约成本,还能变得更具创造力。
图注:从相机捕获的性能数据。
「是要一个演员给你更多,挖掘不同的情感,还是探索一个新的方向?」 Epic 在新闻稿中问道。「让他们再拍一次。你可以在大约煮一杯咖啡的时间内审视这些结果。」
Epic 表示,只需「点击几下」,面部动画就可以应用到任何角色上,系统甚至可以根据表演的音频为角色的舌头制作动画。
图注:短片中,演员 Radivoje Bukvić 的动画人在进行独白。
Epic Games 希望将只有拥有高端捕捉系统的专家才能实现的面部表现捕捉技术,转变为所有创作者都能使用的技术。
最简单的是,MetaHuman Animator 可以在 iPhone (12 或以上) 和台式电脑上使用。这是可能的,因为我们已经更新了 Live Link Face iOS 应用程序来捕获原始视频和深度数据,然后直接从设备摄取到虚幻引擎进行处理。
开发人员还可以将 MetaHuman Animator 与现有的立体头戴式摄像头系统一起使用,以实现更高的保真度。
无论开发人员使用的是 iPhone 还是立体 HMC,MetaHuman Animator 都将提高捕获工作流程的速度和易用性。这使开发人员可以灵活地选择最适合拍摄要求的硬件,以及开发人员希望达到的视觉保真度水平。
因为捕获的动画数据支持时间编码,因此开发人员很容易将面部动画与身体动作、音频对齐,实现角色的完整性。
参考内容: