在数字时代,个性化内容的创造已经成为了一种趋势。人们渴望在虚拟世界中看到自己的形象,无论是在社交媒体上展示独特的艺术风格,还是在视频游戏中扮演自己的角色。然而,现有的技术往往需要大量的数据和复杂的处理过程,才能实现高质量的个性化图像生成。现在,一项名为StableIdentity的新技术正在改变这一现状。
StableIdentity是由一支来自大连理工大学和ZMO AI Inc的研究团队开发的。这项技术的核心在于其能够通过单张面部图像,生成具有一致身份特征的定制化图像。这意味着,用户只需提供一张照片,就能在各种不同的上下文中,如不同的装饰、动作、属性等,看到自己以不同的形象出现。更令人兴奋的是,StableIdentity还能将这些定制化的身份特征应用到视频和3D模型中,而无需对原有模型进行微调。
在以往的技术中,定制化面部身份的生成面临着稳定性和可编辑性的挑战。为了解决这些问题,StableIdentity采用了一种带有身份先验的面部编码器,这种编码器能够捕捉输入面部图像的身份信息,并将其放入一个由名人名字构建的可编辑的先验空间中。这样,学习到的身份特征就能在各种上下文中保持一致性,并且具有高度的可编辑性。
为了进一步提升生成图像的质量,研究者们设计了一种掩蔽的两阶段扩散损失。这种损失机制能够在生成过程中提高输入面部的像素级感知,并保持生成结果的多样性。实验结果表明,StableIdentity在视觉-语言对齐、身份保持、身份一致的多样性和图像质量等方面,均优于以往的定制化方法。
StableIdentity的应用前景非常广阔。它不仅可以用于生成个性化的图像,还可以与ControlNet等现成的图像/视频/3D模型结合使用。例如,通过与ControlNet结合,可以实现姿势控制的定制化图像生成;与ModelScopeT2V结合,可以实现零样本身份驱动的定制化视频生成;与LucidDreamer结合,则可以实现零样本身份驱动的定制化3D生成。这些应用不仅为艺术创作和娱乐产业带来了新的可能性,也为个性化内容的创造提供了更加便捷的工具。