字节&中大提出ParGo:高效连接视觉和语言的多模态大模型连接器

字节&中大推出ParGo,一种高效的视觉-语言连接器,通过全局-局部投影,提升多模态大模型的性能。

原文标题:如何高效桥接视觉和语言,字节&中大提出全新多模态大模型连接器ParGo

原文作者:机器之心

冷月清谈:

字节跳动和中山大学的研究团队合作开发了一种名为ParGo的多模态大模型连接器,旨在更高效地桥接视觉和语言信息。ParGo的核心创新在于其全局-局部投影器,它结合了全局视野和局部细节,克服了传统方法过度关注显著区域而忽略细节的缺点。

ParGo模型主要由两个关键模块构成:Partial-Global Perception Block (PGP) 和 Cascaded Partial Perception Block (CPP)。PGP模块使用Partial token和Global token分别提取图像的局部和全局信息,并通过Partial-Global Attention Mask进行处理。CPP模块则通过Cascaded Partial Attention Mask逐步扩展每个Partial token的感知范围,增强对局部信息的捕捉能力。

实验结果表明,ParGo在多项权威基准测试中均取得了优异的成绩,超越了其他类型的投影器。此外,ParGo在不同规模的LLM上都表现良好,显示出其强大的泛化能力。案例分析也证明了ParGo在控制token数量的同时,能够更准确地识别文字、描述图像细节和识别局部元素。

怜星夜思:

1、ParGo这种全局和局部结合的方式,除了在图像处理方面,还能应用在哪些领域?
2、ParGo的代码已经开源了,有没有人实际跑过?效果如何?有没有什么使用上的坑?
3、ParGo相比于传统的视觉-语言连接器,最大的优势是什么?它的局限性又在哪里?

原文内容

图片

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]


在多模态大语言模型(MLLMs)的发展中,视觉 - 语言连接器作为将视觉特征映射到 LLM 语言空间的关键组件,起到了桥梁作用。因此,它几乎成为了所有多模态大语言模型中不可或缺的结构之一。然而,如何高效地将视觉特征映射到 LLM 的探索还有很大提升空间。


字节团队与中大合作提出的 ParGo 模型,通过巧妙地融合全局视野和局部细节,在多项权威基准测试(Benchmark)中表现出色,成功入选了 AAAI 2025。



  • 论文地址:https://arxiv.org/abs/2408.12928

  • 代码地址:   https://github.com/bytedance/ParGo


过去,大多数研究主要依赖线性投影或多层感知机(MLP)将视觉特征直接映射,这种方法难以有效控制输入 LLMs 的视觉 token 数量,特别是在处理细粒度特征时,导致计算成本极高。另一类基于注意力机制的方法(如 Q-former)通过注意力操作将图像特征投射为固定数量的视觉 token,虽然大幅减少了计算成本,但往往使得生成的 token 集中在图像的显著区域,忽略了细节部分。


为了解决这一问题,ParGo 提出了一种创新的全局 - 局部投影器来连接视觉与文本,通过结合全局视野和局部细节的双重视角,克服了传统方法对显著区域的过度聚焦,使得视觉特征能够在更细腻的层面上得到全面展现,同时有能有效控制过长的 token 带来的计算成本的升高,进而实现了视觉特征和 LLM 的高效连接。


全局 + 局部视角联合


方法


ParGo (Partial-Global) 采用两种类型的可学习 token, 利用 attention 机制,同时从局部和全局视角将视觉特征映射到大语言模型(LLM)中。该框架包含两个关键模块:Partial-Global Perception Block (PGP) 和 Cascaded Partial Perception Block (CPP)。这两个模块共同作用,实现了高效的视觉 - 语言连接,既捕捉了图像的全局信息,又能精细地提取局部特征,从而提升了多模态大语言模型的效果。


图 1: ParGo 模型框架图


核心模块


  • Partial-Global Perception Block (PGP)


在 ParGo 中,视觉编码器的特征被映射为两种不同类型的 token:Partial token 和 Global token,从而能够分别提取图像的局部和全局信息。具体来说:


  • Partial tokens:每个 token 仅与部分视觉特征进行交互,专注于图像的局部信息

  • Global tokens:全局 token 则与所有视觉特征进行交互,捕捉图像的全局信息


ParGo 采用了一种新的交叉注意力掩码设计(Partial-Global Attention Mask),如图 1 (b) 所示,来处理输入的视觉特征。该设计能够同时输出包含图像局部和全局信息的特征,即 Partial tokens 和 Global tokens。具体的公式如下:


图片


  • Cascaded Partial Perception Block (CPP)


此外,考虑到不同局部物体在图像中的占比不同,为了进一步增强对多种局部信息的完整捕获能力,ParGo 在 Partial-Global Perception 模块之前引入了 Cascaded Partial Perception (CPP) 模块。


CPP 模块 的核心是一个带有特殊设计掩码的自注意力机制,如图 1 (b) 中的  Cascaded Partial  Attention Mask。随着层数的增加,每个 Partial token 能够访问到更多的相邻 token,从而逐步扩展其感知范围。该过程可以通过以下公式表示:



实验效果


论文重点对比了当前不同类型的 Projector(投射器),在一些通用的 MLLM 的 benchmark 的效果,均取得了优异的效果。



为了进一步进行公平对比,论文在相同数据集和实验参数下,比较了三种主流的投影器(Projector)。结果显示,ParGo 依然取得了最佳的性能表现。另外,在不同基座 LLM 下,ParGo 均表现良好,体现出了更好的泛化性能。


不同 Projector 之间的比较


换用不同的基座 LLM 的比较


案例分析


为了能进一步展现 ParGo 在控制 token 数量的情况下,依然能做到细粒度和空间关系的准确捕获,作者对比了 ParGo 和 Q-former 这两种均是基于注意力机制的 Projector(投射器)在相同 tokens 下的效果:


文字识别更加准确


图像的细节描述程度更好


局部元素识别效果更好


结论


本研究提出了 ParGo(局部 - 全局投影器),一种创新的视觉 - 语言投影方案,旨在提升多模态大语言模型(MLLMs)中视觉和语言模态的对齐效果。ParGo 通过结合局部 token 和全局 token,并使用精心设计的注意力掩码分别提取局部和全局信息,在控制 token 数量的同时增强了局部区域之间的关系建模,充分考虑了图像的细节与全局视角,从而克服了传统方法中忽视细节的问题。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

跑是跑起来了,但是发现数据集的预处理有点麻烦。文档里写得不是很清楚,我花了不少时间才搞明白。建议作者能把文档写得更详细一些,方便大家使用。

ParGo的这种思路让我想到了医学影像分析。全局视角可以帮助医生快速了解整体情况,而局部视角则可以关注到病灶的细节特征。如果能将ParGo应用于医学影像分析,说不定可以提高诊断的准确性和效率,想想还挺 exciting 的。

我觉得ParGo的局限性可能在于它的计算复杂度。虽然它比一些基于Transformer的模型要高效一些,但是仍然需要较大的计算资源。在一些资源受限的场景下,可能不太适用。

我觉得在自然语言处理领域也可能有用武之地。比如在文本摘要中,可以将全局信息理解为文章的主旨,而局部信息则是具体的细节。这样结合起来,或许可以生成更全面、更准确的摘要。

ParGo的创新之处在于其全局-局部投影器,能够在控制token数量的同时,兼顾图像的全局信息和局部细节。不过,目前的实验主要集中在图像领域,其在其他模态数据上的泛化能力还有待进一步验证。

我试了一下,ParGo的代码写得还不错,比较容易上手。在一些公开数据集上测试了一下,效果确实比之前的模型要好一些。不过,训练ParGo需要比较大的显存,如果你的GPU不够强劲,可能会比较吃力。

ParGo最大的优势就在于它能够兼顾全局和局部信息,从而更全面地理解图像内容。传统的连接器要么只关注全局信息,丢失了细节;要么只关注局部信息,缺乏整体性。ParGo很好地解决了这个问题。

我用ParGo做了一个图像描述的任务,效果比之前的Q-former要好不少。特别是对于一些细节比较丰富的图像,ParGo生成的描述更加准确。不过,训练时间确实比较长,需要耐心等待。

搞芯片设计的应该也能用上吧?全局视角看芯片整体布局,局部视角关注具体电路模块的设计和优化。感觉能帮助工程师更好地平衡芯片的性能、功耗和面积。