ID-Animator:人物照片定制化视频生成新框架

原文标题:人物照片+文字 = 定制化视频,腾讯光子开源ID-Animator

原文作者:机器之心

冷月清谈:

- **ID-Animator** 是一个人物照片定制化视频生成框架,可以根据给定的参考图片,生成一致性的角色定制视频。 - 腾讯光子团队提出了一种文本驱动的人物视频生成框架 **ID-Animator**,解决了定制化视频生成领域中人物身份一致性、视频数据集稀缺和提取人物身份特征一致性的难题。 - ID-Animator 框架由一个轻量级的人脸适配器模块和一个视频生成主干网络组成,利用现有的 Celebv 数据集构建面向 ID 的视频数据集,并提出随机参考人脸的训练方法,有效地保持生成视频的人物身份一致性。 - ID-Animator 不仅能生成 ID 一致的人类视频,还具备人脸特征融合的能力,并且兼容开源社区上的多种权重。 - ID-Animator 可以在多种应用场景中发挥作用,如上下文重塑、ID 特征融合、与 ControlNet 结合、社区模型推理等。

怜星夜思:

1、你觉得 ID-Animator 最大的优势是什么?
2、ID-Animator 在哪些应用场景中具有潜力?
3、ID-Animator 的未来发展方向有哪些?

原文内容

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]


本论文作者主要来自于腾讯光子工作室团队,一作何炫华 ([email protected]) 是中国科技大学在读的研究生,他的研究方向为图像 / 视频生成模型与底层视觉;作者刘权德 ([email protected])、钱湦钜 ([email protected]),目前就职于腾讯光子工作室,博士均毕业于香港中文大学。


近年来,定制化的人物生成技术在社区中引起了广泛关注。一系列创新性的模型,如 IP-Adapter、Photomaker、InstantID 等,已在图像生成领域取得了令人瞩目的成果。这些定制化内容生成方法逐渐成为主流,其一个重要的优势便是即插即用,取代了那些需要逐例微调的 Dreambooth,LoRA 等方法。


然而,尽管在图像生成领域取得了巨大的成功,这些方法在视频生成领域却遇到了阻碍。相较于图像,视频生成模型的训练需要更大的算力投入。同时,在视频数据集方面,迄今为止仍缺乏类似图像生成领域高质量的文本 - 视频配对人脸数据集。此外,如何提取人物身份一致性的特征也是一个难题。


为了应对这些挑战,腾讯光子近期发布的工作 ID-Animator,提出了一种文本驱动的人物视频生成框架。该框架旨在根据给定的一张参考图片,生成一致性的角色 定制化视频。通过这一创新性技术,研究者可以期待在不久的将来,人们将能够更轻松地实现定制化的人物视频生成,从而为各种应用场景带来更加丰富的视觉体验。



  • 论文地址: https://arxiv.org/abs/2404.15275

  • Github 地址: https://github.com/ID-Animator/ID-Animator

  • Huggingface 地址: https://huggingface.co/spaces/ID-Animator/ID-Animator


首先,让我们直观感受一下 ID-Animator 生成的视频效果,能够轻松的让不同的角色做起丰富的动作:


ID-Animator 不仅能生成 ID 一致的人类视频,还具备人脸特征融合的能力:


此外,ID-Animator 还可以兼容开源社区上的多种权重,为视频生成带来更多可能性:


方法概览


研究团队提出的方法可以概括为三个核心组件,如图所示。这三个部分包括:面向 ID 的视频数据集重构流程、随机人脸参考的训练方法,以及 ID-Animator 模型框架。通过这三个关键组成部分,ID-Animator 成功实现了高保真的一致性人物视频生成。


ID-Animator 框架


ID-Animator 框架由一个轻量级的人脸适配器模块和一个视频生成主干网络组成。其视频生成主干网络权重在训练过程中保持固定,无需微调。人脸适配器模块则由交叉注意力模块和可学习的面部特征查询组成,负责从 CLIP 编码的特征中提取与身份相关的表征,并将身份表征注入主干网络。利用这种轻量级的适配器模块,ID-Animator 只需要很小的训练开销就能实现人物一致性的视频生成。


面向 ID 的数据集构建


为了应对以 ID 为核心的成对视频 - 文本数据集在视频生成领域的稀缺挑战,研究者们提出了一套巧妙的数据集重构策略。他们利用现有的 Celebv-HQ 数据集,将其重构为以 ID 为中心的人类视频数据集。这一策略分为两个主要步骤:文本重写和面部图像资源库构建。


现有的 Celebv 数据集的文本描述采用固定模板,主要关注人物表情的变化,却忽略了人物属性与所处环境,同时缺乏对动作的描述,因此不适用于文本生成视频的训练。为了解决这一问题,研究者们提出了一种新颖的文本重写方法,旨在生成更贴切的人类视频描述文本。考虑到视频整体特征和人物静态属性,他们采用了一种解耦式的文本重写方法,分别描述人物属性和环境,生成人类属性描述;同时描述视频中人物的整体动作,生成动作描述。最后,借助大型语言模型将两种描述整合,生成连贯且丰富的全新文本。


如图所示,重写后的文本描述更接近人类的语言风格,并能更好地描述人物的运动和属性。这一创新性方法为视频生成领域提供了一个更实用、更高质量的数据集基础。


为了进一步提升生成视频的身份保持能力,研究者们引入了一种随机面部提取技术。这种技术的特点在于,它并不直接采用整个视频帧作为生参考图像,而是构建数据集时专门针对人脸区域进行随机采样,从而形成一个独立的面部图像资源库。这一策略有效地过滤了大量非身份决定性的视觉信息,如背景变化、衣着装饰等,使得生成模型能够更加专注于学习和重现个体的面部特征与表情细节。


随机参考人脸训练方法


利用数据集面部资源库,研究者们提出了一种随机参考人脸的训练方法。这种方法的核心在于利用与视频内容弱相关的参考图像作为条件输入,引导模型在生成视频内容时,更多地关注指令指导的动作和 ID 无关特征。


具体操作上,研究者们从人脸资源库中随机选取参考图像,使得每次训练迭代都能为模型提供一个新的、与目标视频序列关联较弱的面部图像作为参考。这种方法实现了视频内容与人脸参考图像的解耦,有助于模型更好地学习和生成符合指令的动作,同时减弱与身份无关的特征的影响。


实验结果


与 IP-Adapter 对比


研究者们首先将 ID-Animator 与常用的零样本定制化图像生成模型 IP-Adapter 的变体进行对比。将零样本定制化图像生成模型直接应用于视频生成时,可能会导致指令跟随能力和 ID 一致性的降低。为了证明 ID-Animator 的优越性能,研究者们展示了在 3 个名人和普通人上的对比结果。


如图所示,ID-Animator 在视频场景下展现出了更强大的指令跟随能力和 ID 保真度。



应用展示


  • 上下文重塑:ID-Animator 能够利用文本引导,动态调整角色的多维度属性,包括发型、服饰、性别,执行特定的动作和改变角色所处环境等。


  • ID 特征融合: ID-Animator 能够将不同身份的特征以不同比例混合,从而生成结合两种身份特征的视频。



  • ControlNet 结合:ID-Animator 具有与 ControlNet 等现有细粒度条件模块的兼容性,这意味着用户能通过上传特定的引导图像或图像序列,精确指引视频中每一帧的生成细节。



  • 社区模型推理:ID-Animator 能够和 Civitai 社区的多种模型兼容,即使在未曾训练过的模型权重上也能保持有效性,能够生成多种风格的视频。


更多详细内容,请阅读原论文。





© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

ID-Animator 另一个优势在于它的兼容性。它不仅可以与开源社区的多种权重兼容,还能够与 ControlNet 等细粒度条件模块结合使用,这为视频生成提供了更多的可能性。

我个人认为 ID-Animator 在虚拟化身生成领域有很大的潜力。随着元宇宙概念的兴起,人们对虚拟身份的需求不断增加。ID-Animator 可以方便地根据用户的照片生成逼真的虚拟化身,为用户提供更沉浸式的虚拟体验。

我认为 ID-Animator 未来可能会朝着两个方向发展。一方面,研究团队可能会进一步探索如何生成更高质量、更逼真的视频。另一方面,他们可能会专注于提高 ID-Animator 的效率和通用性,使其能够应用于更多类型的视频。

我认为 ID-Animator 最大的优势是它的简单易用性。与传统的方法相比,ID-Animator 无需逐例微调,可以即插即用,为定制化视频生成提供了更便捷的途径。

除了上述应用场景外,ID-Animator 还可以用于医疗保健、零售和广告等领域。例如,在医疗保健中,它可以用于创建患者教育视频;在零售中,它可以用于生成产品展示视频;在广告中,它可以用于制作引人入胜的广告视频。

最让我印象深刻的是 ID-Animator 的数据集构建策略。通过重构 Celebv 数据集并引入随机人脸提取技术,研究团队有效地解决了视频生成领域中面向 ID 的数据集稀缺和人物身份一致性难题。这为以 ID 为中心的定制化视频生成奠定了坚实的基础。

未来的发展方向还可能包括探索 ID-Animator 在实时视频生成和协作视频编辑等领域的应用。这些创新将极大地扩展 ID-Animator 的用途和便利性。

我期待看到 ID-Animator 与其他人工智能技术相结合,例如自然语言处理和计算机视觉。这可能会打开新的可能性,例如根据文本描述自动生成视频,或者从视频中提取人物身份信息。

ID-Animator 在各种应用场景中都有潜力,例如电影制作、游戏开发、社交媒体和教育。在电影制作中,它可以用于创建个性化的角色视频;在游戏开发中,它可以用于生成玩家角色的定制动画;在社交媒体上,它可以用于制作有趣的头像视频;在教育中,它可以用于创建交互式学习内容。