Meta AI 新品:SAM 2.1 来了,可用数据帮 AI 自我评估!

Meta 发布了一系列人工智能研究和模型,包括 SAM 2.1、Spirit LM、Layer Skip、Lingua 和 MEXMA,以推进高级机器智能的发展。其中,自学习评估器可生成合成数据,无需人工标注即可训练奖励模型,节省了大量标注成本。

原文标题:SAM 2.1上新、Lingua代码库发布,一大波Meta开源工具来袭

原文作者:机器之心

冷月清谈:

- **SAM 2.1 升级:**Meta 增强了 SAM 2 的视觉处理能力,可更好地识别遮挡物体和小型物体。
- **Spirit LM:**Meta 开发了跨模态模型 Spirit LM,将语音和文本无缝集成,生成更自然的语音表达。
- **Layer Skip:**Meta 推出 Layer Skip,一种优化大型语言模型推理速度和效率的技术,可节省能源和成本。
- **Lingua:**Meta 发布了 Lingua 代码库,简化了大规模语言模型的训练,加速研究进程。
- **MEXMA:**Meta 提出跨语言句子编码器 MEXMA,在句子分类等任务中表现出色,覆盖 80 种语言。
- **自学习评估器:**Meta 开发了无需人工标注即可生成合成偏好数据的自学习评估器,用于训练奖励模型。

怜星夜思:

1、除了在语言模型领域,Layer Skip 这种优化技术在哪些领域还有应用前景?
2、Meta 自学习评估器的潜力体现在哪些方面?
3、Lingua 和 MEXMA 这两个工具在促进自然语言处理研究方面有什么优势?

原文内容

机器之心报道
机器之心编辑部

今天,Meta 分享了一系列研究和模型,这些研究和模型支撑 Meta 实现高级机器智能(AMI)目标,同时也致力于开放科学和可复现性。

这些工作侧重于 AMI 的构建模块,包括感知、语音和语言、推理、具身智能和对齐。研究工作包括 SAM 2.1、Spirit LM、Layer Skip、自学习评估器等。


SAM 2.1

SAM 2 已经被应用于跨学科(包括医学图像、气象学等)研究,并且产生了良好的影响。现在,Meta 宣布推出性能更强的 SAM 2.1。


Meta 引入了额外的数据增强技术来模拟 SAM 2 之前遇到的视觉相似物体和小物体的存在,通过在较长的帧序列上训练模型并对空间和物体指针内存的位置编码进行一些调整,提高了 SAM 2 的遮挡处理能力。


  • 项目链接:https://github.com/facebookresearch/sam2

Spirit LM

大型语言模型经常被用于构建文本到语音 pipeline,其中语音通过自动语音识别 (ASR) 进行转录,然后由 LLM 生成文本,最终使用文本到语音 (TTS) 转换为语音。然而,这个过程损害了语音表达。

为了解决这一限制,Meta 构建了开源多模态语言模型 Spirit LM,实现了语音和文本的无缝集成。


Spirit LM 在语音和文本数据集上使用词级交织方法进行训练,以实现跨模态生成。Meta 开发了两个版本的 Spirit LM,以展示文本模型的语义生成能力和语音模型的表达能力。


  • 论文链接:https://arxiv.org/abs/2402.05755
  • 代码链接:https://github.com/facebookresearch/spiritlm
  • 模型权重:https://ai.meta.com/resources/models-and-libraries/spirit-lm-downloads/

Layer Skip

大型语言模型已在各个行业中广泛采用,但其高计算和内存要求会消耗大量能源,并且可能带来高昂的经济成本。为了应对这些挑战,Meta 提出了一种端到端解决方案 ——Layer Skip,以加快 LLM 在新数据上的生成时间,而无需依赖专门的硬件或软件。



  • 论文链接:https://arxiv.org/abs/2404.16710
  • 代码链接:https://github.com/facebookresearch/LayerSkip
  • 权重链接:https://huggingface.co/collections/facebook/layerskip-666b25c50c8ae90e1965727a

Layer Skip 通过执行其层的子集并利用后续层进行验证和校正来加速 LLM。现在,Meta 又要发布 Layer Skip 的推理代码和微调检查点。Llama 3、Llama 2 和 Code Llama 等模型已经使用 Layer Skip 进行了优化。Layer Skip 可以将模型性能提升高达 1.7 倍。

Lingua

Lingua 是一个轻量级且独立的代码库,旨在助力大规模训练语言模型。Lingua 将使人们更容易将概念转化为实际实验,并优先考虑简单性和可复用性以加速研究。高效且可定制的平台还允许研究人员以最少的设置快速测试他们的想法。


  • 项目链接:https://github.com/facebookresearch/lingua


MEXMA

MEXMA 是一种新型预训练跨语言句子编码器。在训练过程中,通过结合 token 层级和句子层级的目标,MEXMA 的表现优于以往的方法。

研究团队发现,之前用于训练跨语言句子编码器的方法仅通过句子表征来更新编码器,而通过引入 token 层级的目标,研究者可以更好地更新编码器,从而改进性能。


MEXMA 覆盖了 80 种语言,并且在句子分类等下游任务中表现出色。


  • 论文链接:https://arxiv.org/abs/2409.12737
  • 模型链接:https://huggingface.co/facebook/MEXMA
  • 代码链接:https://github.com/facebookresearch/mexma

自学习评估器

Meta 在 8 月发表了一篇题为《Self-Taught Evaluators》的论文,提出了自学习评估器,用于生成合成偏好数据来训练奖励模型,无需依赖人工标注。


  • 论文链接:https://arxiv.org/abs/2408.02666
  • 代码链接:https://github.com/facebookresearch/RAM/tree/main/projects/self_taught_evaluator
  • 访问合成数据:https://huggingface.co/datasets/facebook/Self-taught-evaluator-DPO-data
  • 模型链接:https://huggingface.co/facebook/Self-taught-evaluator-llama3.1-70B

同时,Meta 发布了使用直接偏好优化训练的模型。实验结果表明,在 RewardBench 上,虽然在训练数据创建中未使用任何人工标注,但其表现优于更大的模型或使用人工标注标记的模型,如 GPT-4、Llama-3.1-405B-Instruct 和 Gemini-Pro。


参考链接:
https://ai.meta.com/blog/fair-news-segment-anything-2-1-meta-spirit-lm-layer-skip-salsa-lingua/?utm_source=twitter&utm_medium=organic_social&utm_content=thread&utm_campaign=fair


© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com

Layer Skip 可以应用于任何涉及大量计算和内存需求的机器学习任务,例如计算机视觉、自然语言处理和强化学习。它可以帮助在不牺牲准确性的情况下加速模型推理,从而节省时间和资源。

Layer Skip 还可以用于优化涉及时间序列预测或序列建模的任务。通过跳过冗余层,模型可以更快地处理数据并识别模式,从而提高预测的准确性和实时性。

MEXMA 作为跨语言句子编码器,弥合了不同语言之间的鸿沟,使研究人员能够在多语言环境中进行更有效的文本处理和理解。这将促进跨文化交流和信息共享,并推动全球人工智能的发展。

自学习评估器还可以帮助解决标注偏差和主观性问题。人工标注不可避免地会引入人类偏见,而合成数据可以提供更客观和一致的偏好信息,从而提高模型的公平性和鲁棒性。

自学习评估器最大的潜力在于它可以显著降低训练奖励模型的数据标注成本。通过生成合成偏好数据,研究人员和开发者可以避免昂贵的人工标注,从而加快模型开发并使其更具可扩展性。

Lingua 通过提供一个简单易用的平台,降低了进入语言模型训练的门槛。研究人员可以专注于探索新想法和创新,而无需担心底层基础设施的复杂性。这将加速语言模型的研究和应用。

将 Layer Skip 与边缘计算相结合也是一个有趣的应用场景。边缘设备通常具有有限的计算能力和资源,Layer Skip 可以帮助在这些设备上部署和运行复杂模型,从而实现分布式人工智能和实时决策。哈哈,想象一下你的手机上运行一个轻量级的 GPT-4,这可太酷了!

Lingua 和 MEXMA 的结合为研究人员提供了强大的工具集,可以推进自然语言处理的各个方面,从机器翻译和问答到文本摘要和情感分析。期待看到它们对这个领域的未来贡献!

此外,自学习评估器为探索新的奖励设计和优化策略开辟了可能性。通过迭代式地生成和使用合成偏好数据,研究人员可以优化奖励函数并训练出更符合特定目标和价值观的人工智能系统。