CLIP与LLM结合,推动多模态表示新高度

LLM2CLIP通过少量数据微调,显著提升CLIP在多模态学习中的表现。

原文标题:跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

原文作者:机器之心

冷月清谈:

在多模态学习领域,CLIP作为一种强大的视觉与文本对齐模型,通过对大规模图文数据的对比学习极大地推动了视觉基础模型的发展。然而,CLIP在处理复杂文本和长篇内容时的能力较弱。针对这一挑战,来自同济大学和微软的研究团队提出了LLM2CLIP方法,将大型语言模型(LLM)作为CLIP强力的‘私教’。这一创新方案通过少量数据的高效微调,使CLIP能够获得开放世界的知识,提高文本理解能力,显著提升了其在零样本检索任务中的表现。不仅如此,LLM2CLIP还令原本使用英文训练的CLIP模型在中文任务中表现超越同类中文模型。此外,应用于多模态大模型如LLaVA后,LLM2CLIP显著增强了其复杂视觉推理能力。该技术的目标是推动多模态社区的发展,为基础模型的预训练方法带来突破,赋予现有模型更强大、更灵活的能力。

怜星夜思:

1、CLIP在处理长文本时的挑战有哪些?
2、LLM2CLIP的影响会如何改变未来的多模态研究方向?
3、在中文检索任务中,LLM2CLIP如何超越中文CLIP?

原文内容

机器之心报道

机器之心编辑部


在当今多模态领域,CLIP 模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。CLIP 通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间中,受到了广泛应用。


然而,CLIP 的文本处理能力被广为诟病,难以充分理解长文本和复杂的知识表达。随着大语言模型的发展,新的可能性逐渐显现:LLM 可以引入更丰富的开放时间知识、更强的文本理解力,极大提升 CLIP 的多模态表示学习能力。


在此背景下,来自同济大学和微软的研究团队提出了 LLM2CLIP。这一创新方法将 LLM 作为 CLIP 的强力 「私教」,以少量数据的高效微调为 CLIP 注入开放世界知识,让它能真正构建一个的跨模态空间。在零样本检索任务上,CLIP 也达成了前所未有的性能提升。


  • 论文标题:LLM2CLIP: POWERFUL LANGUAGE MODEL UNLOCKS RICHER VISUAL REPRESENTATION
  • 论文链接:https://arxiv.org/pdf/2411.04997
  • 代码仓库:https://github.com/microsoft/LLM2CLIP
  • 模型下载:https://huggingface.co/collections/microsoft/llm2clip-672323a266173cfa40b32d4c

在实际应用中,LLM2CLIP 的效果得到了广泛认可,迅速吸引了社区的关注和支持。

HuggingFace 一周内的下载量就破了两万,GitHub 也突破了 200+ stars!


值得注意的是, LLM2CLIP 可以让完全用英文训练的 CLIP 模型,在中文检索任务中超越中文 CLIP。

此外,LLM2CLIP 也能够在多模态大模型(如 LLaVA)的训练中显著提升复杂视觉推理的表现。

代码与模型均已公开,欢迎访问 https://aka.ms/llm2clip 了解详情和试用。
 

LLM2CLIP 目前已被 NeurIPS 2024 Workshop: Self-Supervised Learning - Theory and Practice 接收。

研究背景

CLIP 的横空出世标志着视觉与语言领域的一次革命。不同于传统的视觉模型(如 ImageNet 预训练的 ResNet 和 ViT)依赖简单的分类标签,CLIP 基于图文对的对比学习,通过自然语言的描述获得了更丰富的视觉特征,更加符合人类对于视觉信号的定义。

这种监督信号不仅仅是一个标签,而是一个富有层次的信息集合,从而让 CLIP 拥有更加细腻的视觉理解能力,适应零样本分类、检测、分割等多种任务。可以说,CLIP 的成功奠基于自然语言的监督,是一种新时代的 「ImageNet 预训练」。

虽然 CLIP 在视觉表示学习中取得了成功,但其在处理长文本和复杂描述上存在明显限制。而大语言模型(LLM)例如 GPT-4 和 Llama,通过预训练掌握了丰富的开放世界知识,拥有更强的文本理解和生成能力。

将 LLM 的这些能力引入到 CLIP 中,可以大大拓宽 CLIP 的性能上限,增强其处理长文本、复杂知识的能力。借助 LLM 的知识扩展,CLIP 在图文对齐任务中的学习效率也得以提升。


原始的 LLM 无法给 CLIP 带来有意义的监督

事实上,将 LLM 与 CLIP 结合看似简单粗暴,实际并非易事。直接将 LLM 集成到 CLIP 中会引发「灾难」,CLIP 无法产生有效的表示。

这是由于 LLM 的文本理解能力隐藏在内部,它的输出特征空间并不具备很好的特征可分性。

于是,该团队设计了一个图像 caption 到 caption 的检索实验,使用 COCO 数据集上同一张图像的两个不同 caption 互相作为正样本进行文本检索。

他们发现原生的 llama3 8B 甚至无法找到十分匹配的 caption,例如 plane 和 bat 的距离更近,但是离 airplane 的距离更远,这有点离谱了,因此它只取得了 18.4% 的召回率。

显然,这样的输出空间无法给 CLIP 的 vision encoder 一个有意义的监督,LLM 无法帮助 CLIP 的进行有意义的特征学习。

 
图像描述对比微调是融合 LLM 与 CLIP 的秘诀

从上述观察,研究团队意识到必须对提升 LLM 输出空间对图像表述的可分性,才有可能取得突破。

为了让 LLM 能够让相似的 caption 接近,让不同图像的 caption 远离,他们设计了一个新的图像描述对比微调 ——Caption-Contrastive(CC)finetuning。

该团队对训练集中每张图像都标注了两个以上 caption,再采用同一个图像的 caption 作为正样本,不同图像的 caption 作为负样本来进行对比学习,来提升 LLM 对于不同画面的描述的区分度。


实验证明,这个设计可以轻易的提升上述 caption2caption 检索的准确率,从上述 cases 也可以看出召回的例子开始变得有意义。

高效训练范式 LLM2CLIP
SOTA 更加 SOTA

LLM2CLIP 这一高效的训练范式具体是怎么生效的呢?

首先,要先使用少量数据对 LLM 进行微调,增强文本特征更具区分力,进而作为 CLIP 视觉编码器的强力 「教师」。这种设计让 LLM 中的文本理解力被有效提取,CLIP 在各种跨模态任务中获得显著性能提升。

实验结果表明,LLM2CLIP 甚至能在不增加大规模训练数据的情况下,将当前 SOTA 的 CLIP 性能提升超过 16%
 

英文训练,中文超越,CLIP 的语言能力再拓展

一个令人惊喜的发现是,LLM2CLIP 的开放世界知识不仅提升了 CLIP 在英文任务中的表现,还能赋予其多语言理解能力。

尽管 LLM2CLIP 仅在英文数据上进行了训练,但在中文图文检索任务上却超越了中文 CLIP 模型。这一突破让 CLIP 不仅在英文数据上达到领先水平,同时在跨语言任务中也展现了前所未有的优势。

 
提升多模态大模型的复杂视觉推理性能

LLM2CLIP 的优势还不止于此。当该团队将 LLM2CLIP 应用于多模态大模型 LLaVA 的训练时,显著提升了 LLaVA 在复杂视觉推理任务中的表现。

LLaVA 的视觉编码器通过 LLM2CLIP 微调后的 CLIP 增强了对细节和语义的理解能力,使其在视觉问答、场景描述等任务中取得了全面的性能提升。
 
总之,该团队希望通过 LLM2CLIP 技术,推动大模型的能力反哺多模态社区,同时为基础模型的预训练方法带来新的突破。

LLM2CLIP 的目标是让现有的预训练基础模型更加强大,为多模态研究提供更高效的工具。

除了完整的训练代码,他们也逐步发布了经过 LLM2CLIP 微调的主流跨模态基础模型,期待这些模型能被应用到更多有价值的场景中,挖掘出更丰富的能力。

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]


从长远看,LLM2CLIP为多模态模型引入开放世界知识,或许会促使研究者探索如何在不同领域之间实现更好的个性化应用。

我认为,CLIP对长文本的处理能力不足是因为它主要依赖于短语级别的对比学习,无法充分捕捉到长文本的结构和语义深度。

我觉得LLM2CLIP不仅仅是一个技术突破,更可能是推动智能服务向更加个性化和智能化发展的重要一步。多模态交互一定会更加普遍!

在我看来,也许可以尝试通过改进模型的输入方式,比如将文本通过段落划分来逐步处理,从而提升整体的语境理解。

CLIP在处理长文本时主要难以理解上下文关系和长段落中的细节,这限制了它在复杂任务中的应用。想要克服这些问题,或许需要引入更先进的文本处理策略。

LLM2CLIP通过引入英文数据的丰富知识,更好地理解了语言之间的关联,从而在多语言任务中展现出超越其原生语言模型的能力。

这让我想到,可能是因为LLM2CLIP整合了语言模型的知识,有助于其在做分类和检索时,提升其基础语义结构分析。

或许是LLM2CLIP的模型设计让它在处理数据时具有更强的泛化能力,可以归纳出跨语言间的共性,进而提升中文的表现。

LLM2CLIP的提出无疑为多模态研究提供了新的思路,让我们看到了大语言模型在视觉理解中的潜力。未来我们可能会看到更多此类结合的研究。