DancingBox:手机驱动任意物体,生成高质量角色动画

DancingBox:手机驱动任意物体,捕捉高质量角色动画。简化动画制作流程,降低门槛,人人都能成为动画师!

原文标题:CHI 2026最佳论文提名|一台手机,从任意物体捕捉角色动画

原文作者:机器之心

冷月清谈:

爱丁堡大学、蔚蓝海岸大学、清华大学的研究团队提出了DancingBox,一种新型角色动画生成系统,该系统仅需一部普通手机,即可通过捕捉任意物体的运动,生成高质量的角色动画。DancingBox通过结合视觉基础模型和扩散模型,将粗略的物体运动(包围盒运动序列)转化为精细的角色骨骼动画,简化了传统动画制作流程中对专业设备和动画师的依赖。该系统由粗略动作捕捉(MoCap)和精细动作生成(MoGen)两个模块组成。MoCap模块利用视觉基础模型从2D视频中估计3D包围盒运动序列,MoGen模块则基于扩散模型,将包围盒运动转化为精细的骨骼动画。用户调研表明,DancingBox易于使用,能够帮助用户快速创作角色动画。该研究获得了ACM CHI 2026最佳论文提名。

怜星夜思:

1、DancingBox的核心在于将粗略的物体运动转化为精细的角色动画,那么,除了文中的包围盒方法,是否有可能通过AI直接将物体运动特征映射到角色骨骼动画上?这样做会面临哪些挑战?
2、DancingBox目前依赖于视觉基础模型和扩散模型,未来是否有可能结合其他类型的AI模型,例如Transformer模型或强化学习模型,来进一步提升动画生成的质量和效率?
3、DancingBox的用户调研中提到,用户希望有更灵活自由的物体进行演出,但双手控制多关节物体存在困难。未来在交互设备方面,有哪些可能的创新方向可以提升用户的创作体验?

原文内容


角色动画创作是现代影视游戏行业中艺术张力的基石。然而,创作角色动画并非易事。现有动画创作流程中,动作捕捉系统需要专门的设备和演出团队,导致成本高昂;3D 动画软件则需要专业动画师来操作,因为在 2D 屏幕内编辑 3D 骨骼运动并不符合人类直觉,此类软件往往学习曲线陡峭、经验要求极高。实践中,一段动画从设计到交付的周期较长,一段 15 秒的角色动画往往需要迭代数天才能完工。


为了简化动作创作流程,部分研究者们提出 “数字木偶戏” 问题:希望通过直观操作物理代理,如玩偶、手机、物理传感器、手指等,将物理世界中直观演绎的动作转化为虚拟世界中角色的骨骼动画。然而,现有系统往往采用基于小样本的、特定规则的、手工设计的传统机器学习算法,只能够针对特定的输入物体,产出特定预设的有限几种角色动画。这一技术路线不具有泛化能力,极大限制了此类系统的实际应用价值。


针对这一现状,一个来自爱丁堡大学、蔚蓝海岸大学、清华大学的联合研究团队提出了 DancingBox,并获得了人机交互(Human-Computer Interaction)领域顶会 ACM CHI 2026 的最佳论文提名。



  • 项目主页:https://yyyyyhc.github.io/DancingBox-project-page

  • 论文链接:https://arxiv.org/html/2603.17704v1

  • 代码链接:https://github.com/YYYYYHC/DancingBox


DancingBox 第一次实现了仅需 RGB 相机,对任意物体生效,产出高质量角色动画的能力。下表 1 给出了其与现有工作的对比。


表 1:DancingBox 与现有工作的对比


该团队重新思考了大模型时代的数字木偶戏问题与动作捕捉系统。


他们发现,将现有的几个视觉大模型结合,已经可以实现对任意物体的粗略动作捕捉(包围盒运动序列)。考虑到视觉大模型空间精度有限,且木偶戏类的演出往往缺失细节,本研究进一步利用动作生成模型,将粗略动捕结果 “翻译” 成对应的、精细的角色骨骼动画。


图 1:系统概览。本文展示的带模型角色动画使用默认 mesh 模型,并由 Blender 插件自动重定向。


如图 1,DancingBox 系统仅需一台普通相(如手机),地面标定(如本文使用的视觉标定板等任意平坦物体),及任意演出物体即可工作。能够将粗略的物体演出通过包围盒做中介,转化为对应的真实感角色动画


系统实现


DancingBox 系统分为两个模块:基于视觉基础模型的粗略动作捕捉(MoCap)基于扩散模型的精细动作生成(MoGen)


粗略动作捕捉(MoCap


图 2:MoCap 系统。


如图 2,给定一段用户操作的物体视频,该团队的做法是结合三个视觉基础模型(SAM2, CoTracker3,π3),从 2D 输入中估计出 3D 包围盒运动序列。


具体而言,先使用 π3,将视频逐帧转化为 3D 单目点云。而后为了定位感兴趣的物体和抽象层次,用户与 SAM2-video 交互,将感兴趣物体的各个部分在第一帧内分割出来。


结合这二者,能够获取各个运动部位的逐帧 3D 点云。


此后,为了估计出时空中连续的包围盒序列,从起始帧估计 PCA 包围盒作为初始化,并用 CoTracker3 提取出像素级别的追踪关系,这一关系通过 π3 提供的像素-点云对应,转化为空间中点与点间的帧间对应关系。通过 SVD 分解,便可以解出完整的包围盒运动序列。


读者也许会疑惑计算包围盒的动机:既然 π3 和 SAM2 已经能够给出每帧的空间信号(粗略点云),似乎可以直接将这些点云作为后续精细动作生成的输入,从而省略掉 CoTracker3 模块。


图 3:通过包围盒桥接动作估计模块与动作生成模块,解除数据稀缺的限制。


如图 3,使用包围盒的核心考虑是数据问题:为了训练由空间信号(点云/包围盒序列)约束的动作生成模型,需要该空间信号和真实动作(来自动捕数据集)的数据对。


然而,由于视觉重建方案得出的点云是表面(而非骨骼)的部分采样,仅从动作捕捉数据集的骨骼无法构造出合理的数据对,即无法估计骨骼的 “粗细” 和观测时的 “正反面”。


包围盒序列就是为了解决这一问题:一方面,给定点云的视觉跟踪信号(CoTracker3),包围盒运动信息能够从粗略点云中估计出来;另一方面,从动捕数据集的骨骼运动数据中,可以直接算出对应包围盒序列。只要约定好包围盒大小范围,这一中间表示就能够完美桥接两个系统。


精细动作生成(MoGen)


承接上文,现在我们需要训练以包围盒序列为条件的精细动作生成模型。基于动作捕捉数据集 HumanML3D,先从数据集中真实采集的人体骨骼动画中,按照图 4 所示的包围盒合并策略,计算同一段骨骼运动在各种排布方式下产生的包围盒运动序列。


为了模拟真实场景中估计不准确的问题,再随机放大/缩小/丢弃掉部分包围盒,并向包围盒运动中加入随机速度/位置噪声。


图 4:初始包围盒生成逻辑。


接着再训练一个 ControlNet,向预训练好的文本生成动作模型 (Human-Motion-Diffusion-Model,简称 MDM)注入额外的包围盒控制信号。


图 5:MoGen 系统。


特别地,考虑到包围盒内部的顶点顺序、同一时刻包围盒之间的排列顺序不应该影响该时刻提取出的特征,如图 5 所示,该团队参考 PointNet,用平均与最大值运算保证特征的顺序无关性。


用户调研


本文进行了广泛的用户调研。在用户反馈中,DancingBox 符合直觉,易于使用,即使是新手也可以在短时间内使用系统自由创作。部分问卷结果如图 6。


图 6:部分问卷结果。


特别地,从用户调研中,该团队发现:


  1. 用户希望有更灵活自由的物体,实现精细的多样演出。

  2. 用户认为双手控制多关节物体运动存在困难。同时物体是否容易站立很大程度上影响操作便利性。


该团队表示:「自由度与交互简易度构成了一组 trade-off,我们希望这能够启发后续研究,进一步探索可交互设备的更多可能。」


视频结果展示


图片


图片


图片


更多视频结果,包括正文中各个图片的对应案例,请见项目主页。


作者信息


本文的第一作者袁浩程是爱丁堡大学三年级的博士生,他的研究兴趣是用户友好的计算机辅助设计(CAD),指导老师为爱丁堡大学李昌健助理教授。


DancingBox 系统处于持续研究升级中,欢迎感兴趣的研究人员与动画/游戏行业人员联系作者团队。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

来点不一样的脑洞:

* 脑机接口: 直接通过脑电波来控制角色动画。虽然目前的技术还不够成熟,但脑机接口是未来的发展趋势。想象一下,用户只需要思考,就可以让角色做出各种各样的动作,这将极大地提高动画创作的效率和自由度。(当然,伦理问题也需要考虑)

* 生物反馈: 利用用户的生理数据(例如心率、呼吸)来影响角色动画。例如,如果用户感到紧张,角色的动作可以变得更加急促;如果用户感到放松,角色的动作可以变得更加舒缓。这可以让动画更具表现力,更能够反映用户的情绪。

我觉得关键在于降低操作的复杂性。双手控制多关节物体之所以困难,是因为用户的认知负荷太高。可以考虑引入一些辅助功能来简化操作:

* AI辅助姿态调整: AI可以根据用户的意图,自动调整角色的姿态。例如,如果用户想要让角色跳跃,AI可以自动调整角色的手臂、腿部等各个关节的角度,使其看起来更自然。

* 预设动作库: 提供丰富的预设动作,用户可以直接选择这些动作,而无需手动控制每一个关节。预设动作库可以不断扩充,以满足不同用户的需求。

* 语音控制: 用户可以通过语音指令来控制角色的动作。例如,用户可以说“跳跃”、“跑步”、“挥手”等,系统会自动执行相应的动作。

用户体验至关重要!针对这个问题,我觉得可以从以下几个方向入手:

* 可穿戴设备: 例如手套、臂环等。这些设备可以直接捕捉用户的手部和手臂运动,从而更精确地控制角色动画。而且,可穿戴设备可以提供力反馈,让用户感受到虚拟物体的重量和阻力。

* 空间定位设备: 例如VR/AR设备。这些设备可以提供沉浸式的交互体验,让用户感觉自己身处虚拟世界中,从而更自然地进行动画创作。用户可以直接在虚拟空间中操作物体,而无需通过屏幕进行间接控制。

* 智能玩具: 开发专门用于动画创作的智能玩具。这些玩具可以内置传感器,记录用户的操作,并将数据传输到DancingBox系统。智能玩具可以设计成各种不同的形状和功能,以满足不同用户的需求。

这是一个很好的问题!我觉得结合其他类型的AI模型是很有潜力的。

* Transformer模型: 可以用于学习物体运动和角色动画之间更复杂的时序关系。Transformer模型在处理序列数据方面非常强大,能够捕捉长期依赖关系。例如,可以用Transformer模型来预测未来一段时间的包围盒运动,从而生成更流畅、更自然的动画。

* 强化学习模型: 可以用于优化动画的物理合理性和动作表现力。强化学习模型可以通过与环境交互,学习如何生成更符合物理规律、更富有表现力的动画。例如,可以用强化学习模型来训练一个“动画师AI”,让它根据用户的反馈,不断优化动画效果。

不过,引入新的AI模型也需要谨慎。需要仔细考虑模型的适用性,以及如何将模型与现有系统有效集成。另外,模型的训练也需要大量的计算资源和数据支持。

除了Transformer和强化学习,我觉得图神经网络(GNN)也很有潜力。角色动画实际上是一系列骨骼和关节的运动,而骨骼和关节之间存在复杂的连接关系。GNN可以很好地处理这种图结构数据,学习骨骼之间的依赖关系,从而生成更逼真的动画。

另外,从
数据增强
的角度来看,可以考虑使用GAN来生成更多样化的训练数据。目前的DancingBox依赖于HumanML3D数据集,数据集的规模和多样性可能有限。使用GAN可以生成更多不同类型的包围盒运动和角色动画,从而提高模型的泛化能力。