视频思维链推理来了!视频理解推理飞跃到认知新高度

原文标题:首个视频思维链推理框架Video-of-Thought来了:像人一样从感知到认知全面推理视频

原文作者:机器之心

冷月清谈:

**什么是视频思维链推理(Video-of-Thought, VoT)?**

VoT是一个全新的视频推理框架,将复杂视频推理问题分解为一系列子问题,从低级视觉感知到高级常识认知,综合感知能力和认知能力,实现视频的深入理解和推理。

VoT的五大推理步骤:

  1. **任务定义与目标识别:**明确推理任务和目标对象。
  2. **目标追踪:**追踪目标行为轨迹,生成时空场景图(STSG)。
  3. **行为分析:**结合STSG和常识知识,深入理解目标行为。
  4. **排名机制回答问题:**将问题统一为多选题,根据常识知识评估候选答案可能性。
  5. **答案验证:**从感知和认知角度核实答案,确保准确性。

VoT的优势:

  • 感知能力精准:利用时空场景图(STSG)实现精细的视频感知理解。
  • 认知能力强:融入常识知识,进行深入推理和因果想象。
  • 推理过程清晰可解释:分解推理步骤,确保准确性和可靠性。

VoT的应用:

VoT可用于各种视频理解推理任务,如视频问答、视频动作识别、视频预测等。




怜星夜思:


1、根据文章中的信息,你觉得视频思维链推理中最关键的能力是什么?
2、你觉得VoT框架在哪些实际应用场景中会很有用?
3、如果让你进一步完善VoT框架,你有什么想法?




原文内容



图片
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com


本文作者来自于新加坡国立大学、南洋理工大学以及哈工深。其中,费豪的研究方向为多模态学习、多模态大语言模型。吴胜琼,新加坡国立大学博士生,主要研究方向为多模态大语言模型。吉炜的主要研究方向为多模态学习,多模态内容生成。张含望教授的研究兴趣包含计算机视觉、因果推断。张梅山教授的研究方向包括代码智能,自然语言处理,多模态生成与理解。Mong-Li Lee和Wynne Hsu教授的研究方向为社交媒体分析,协同机器学习等等。


最近,新加坡国立大学联合南洋理工大学和哈工深的研究人员共同提出了一个全新的视频推理框架,这也是首次大模型推理社区提出的面向视频的思维链框架(Video-of-Thought, VoT)。视频思维链VoT让视频多模态大语言模型在复杂视频的理解和推理性能上大幅提升。该工作已被ICML 2024录用为Oral paper。


  • 论文链接: https://openreview.net/pdf?id=fO31YAyNbI
  • 项目链接: http://haofei.vip/VoT/

从感知到认知的飞跃

相比于理解和推理静态的图片,在视觉处理社区,推理视频的难度要复杂困难很多,因为视频天然地存在更具挑战的动态时序特性,以及存在更多冗余的视觉内容。过去的视频理解研究多集中于视频的浅层感知,如视频动作识别、动态识别和视频描述生成。然而,这些方法对复杂视频的深入理解和推理仍存在显著不足。相较于浅层的视频感知,复杂视频的推理不仅需要对视频的时空特性有复杂的理解,还需深刻把握像素背后的内在高阶常识。为了彻底解决这一问题,VoT应运而生。

对于人类而言,理解视频就像吃饭喝水一样简单。那么我们人类是如何进行视频理解推理的呢?我们不妨考虑以下一个案例。以下的这段视频展示了一个场景:一辆高速行驶的汽车与一辆红色油罐卡车在公路上相撞。对应的问题是:“这辆红色油罐卡车会发生什么?” 

当人类拿到这个题目的视频,首先,我们会根据问题确定感兴趣的目标,即红色油罐卡车。然后,我们会仔细观看视频,跟踪目标对象在视频中的动作语义。接着,我们会进行一些深入和高层次的推理,可能会结合一些常识知识。最后,我们给出推理答案:“可能会着火甚至爆炸。”

 
双重能力:感知与认知的完美结合

从以上的人类的认知模式和模式汲取灵感,研究团队指出,要实现复杂视频推理,需要具备两个关键能力:像素理解的感知能力和语义理解的认知能力。并且最重要的是,视频推理可能不是一个瞬时一步到位的过程,而是一个由低级感知到高级认知的多跳过程。

感知能力:为了实现精确的内容感知,必须对视频运动进行细致的像素级理解。这个过程可能需要深入结合给定的视频内容,并且具备精细的内容定位。
 



然而,大多数现有视频理解方法局限于实例分析,缺乏精细的控制和准确的对象级识别或跟踪,更不用说深入的视频理解了。

认知能力:深入的推理需要认知能力,允许模型提供合理的解释甚至因果想象。这个层次需要结合一定的世界常识知识。例如理解「从高处跳下可能导致骨折」,或者「与油罐车相撞可能引发爆炸」。
 



全新推理框架:视频思维链的诞生

为了实现这一目标,研究团队提出了一个全新的推理框架——“视频思维链”。该思维链将复杂的视频推理问题分解为从底层视觉感知到上层常识认知的一系列子问题。

与此同时,为了协助实现上述的细粒度视频感知能力,作者还提出利用时空场景图(Spatial-Temporal Scene Graph, STSG)表征协助推理过程,帮助生成的细粒度感知中间结果,从而实现精细的时空特征理解。

 
并与视频多模态大模型相结合,最终提出了一个全新的视频MLLM, MotionEmpic。
 



实验结果表明,作者提出的全新推理框架可显著提升模型在各类视频QA上的性能,超越了当前所有传统视频MLLM以及CoT方法的表现。

A.视频思维链VoT推理框架

VoT推理框架一共包含5个步骤:

Step-1:任务定义与目标识别

首先,给定输入视频和问题,VoT会识别问题中涉及的所有可能目标。这个过程确保系统明确了解需要分析的对象和相关任务。
 


Step-2:目标追踪

接下来,VoT分析视频内容,追踪问题所涉及的目标行为轨迹,输出感知层面的时空场景图 (STSG)。生成的关于目标轨迹STSG将为下一步行为分析的感知证据。
 


Step-3:行为分析

在这一步中,VoT通过整合STSG中的目标跟踪结果,进一步提示模型考虑更多潜在相关的常识知识,使模型能够将视频像素观察与现实世界联系起来,实现对视频的更深入理解。
 


Step-4:排名机制回答问题

在深入理解了视频中目标行为之后,现在开始回答原始问题。首先,本系统将所有QA问题统一为多项题,即从提供的多个候选答案中选出最终答案。进一步,受人类解答多选题的模式启发,本系统还采用了排名机制来确定最终答案。具体来说,对于每个候选答案,VoT将提示模型根据常识知识评估其可能性(从1到10),并提供相应的理由。最终根据,排名高的候选则为最终回答。
 


Step-5:答案验证

鉴于复杂视频任务通常涉及复杂的问题和答案,并且整个推理过程包含了多个环节,因此核实上一步提供的答案至关重要。本系统的基本核验思路是,假设答案A是正确的,我们将从两个方面回顾性评估答案是否与输入问题和视频内容相矛盾:

  • 感知验证:检查像素定位信息是否与视频中从感知角度呈现的事实一致。
  • 认知验证:从认知角度提示模型,确定答案中固有的常识性知识是否与第三步推理中推断出的主要观察结果相矛盾。
 



最终,确保VoT能够输出最正确的结果。

VoT推理框架的五个步骤,从任务定义与目标识别,到最终的答案验证,全面提升了视频理解和推理的精确性和可靠性,为复杂视频任务提供了强有力的解决方案

B.实验验证

1. 主实验比较

作者首先在多个复杂VideoQA的数据集上进行了测试。实验结果证明VoT在所有的测试集上获得了持续的强于SoTA基线模型的表现,甚至超越传统CoT的性能。



2. Zero-shot结果

接下来,作者比较了不同模型在zero-shot下的性能。值得注意的是,相比较与传统的CoT,VoT性能提升更大、更明显。并且,在两个复杂的视频问答任务上的增强效果比在相对简单的任务(例如,MSR-VTT和ActivityNet)上的增强更为明显。这主要是因为后者的数据集更倾向于感知推理(例如,描述视频中的内容),而不是认知推理(例如,解释、预见)。
 



3. 推理能力详细分析

首先,作者进行了人类评估。如图7上表所示,使用VoT推理框架的MotionEpic取得了相当出色的结果,甚至可以与人类表现相媲美。进一步,作者总结了六种常见的错误案例,并分析六种最常见错误类别的差异。如图下部分所示,MotionEpic(使用VoT)显著降低了VideoLLaVA(使用CoT)的错误率,特别是在动作语义和常识理解方面。


4. 推理过程可视化分析

最后,作者通过一个案例分析直观地展示了VoT的优越性。如图8所示,视频内容显示了“训导员带着小狗跨越各类障碍比赛”的复杂场景,而给定的问题是抽象且复杂,需要结合常识,而不能简单地通过视频本身的感知直接回答。实验结果发现,只有本系统给出了正确的答案。具体地,在内容感知层面,VoT通过基于STSG的视频定位确保了准确且稳健的理解,防止了幻觉,即正确地解释了动物是一只狗,然后从常识推断场景涉及训练者正在训练狗。然后,在认知层面,它分析每个选项以确定最佳答案。通过进一步验证,结果与视频内容和事实常识理解一致。总体而言,通过问题分解,整个推理在每个步骤上大大提高了准确性,同时确保了一个可解释的过程决策理由。


作者还提供了更多的可视化分析:

 






© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

研究VoT在其他认知推理任务中的应用,例如自然语言理解和问题解决。

我觉得两者都重要,缺一不可。视觉感知是理解视频内容的基础,而认知能力是将感知信息整合起来形成推理的關鍵。

医疗诊断:分析医疗视频,如X光片和CT扫描,辅助诊断。

视频监控:识别和预测异常行为,提前发出警报。

视频剪辑:自动生成视频摘要和高光时刻,方便内容创作者。

我认为是认知能力,因为真正的推理和预测需要对场景背后的因果关系和常识知识有深入的理解,而不仅仅是视觉感知。

自动驾驶:预测行人的行为,规划安全的驾驶路线。

探索基于图神经网络或transformer等新兴神经网络架构的VoT模型。

开发轻量级的VoT模型,使其可以在移动设备和嵌入式系统上部署。

建立一个针对VoT特定任务的大型数据集,以促进研究和模型开发。

我认为是人类的常识推理能力,也是这个框架试图模仿的能力,只有真正理解视频中的因果关系、物理规则和社会规范,我们才能做出准确的推理。

根据不同任务和数据集,关键能力可能会有所不同,无法单一判断。论文中提到的几个能力都很重要,就看哪個在特定场景中的权重更高。

我认为可以从物理和因果关系的角度增强推理能力,使它不仅能理解视频中的事件,还能预测未来的事件和潜在后果。

运动分析:评估运动员的技巧和表现,提供有价值的反馈。

五个推理步骤的完整性,因为推理是一个连贯的过程,每个步骤缺失都会影响整体结果。

对时空场景图(STSG)的处理能力也很关键,它提供了视频中物体和动作的精细表示,为后续的感知和认知分析奠定了基础。

社交媒体内容推荐:根据用户兴趣和互动模式展示更有针对性的视频。

教育:生成交互式视频内容,帮助学生更好地理解复杂概念。

视频游戏开发:创建更智能、更具互动性的游戏角色。