苹果发布DCLM-7B小模型,全面开源!

原文标题:权重、代码、数据集全开源,性能超越Mistral-7B,苹果小模型来了

原文作者:机器之心

冷月清谈:

苹果公司在Hugging Face上开源了其DCLM-7B语言模型,该模型性能超越了Mistral-7B,并逼近了其他领先的开源模型(如Llama 3和Gemma)。

DCLM-7B是真正意义上的开源模型,因为它不仅开源了模型权重,还开源了训练代码和预训练数据集。这使得研究人员可以更轻松地复制和改进模型。

该模型采用基于OpenLM框架的预训练方案,在MMLU基准上5-shot准确率达到64%,与Mistral-7B-v0.3(63%)和Llama 3 8B(66%)相当。DCLM-7B在53个自然语言理解任务上的平均表现也可与Mistral-7B-v0.3和Llama 3 8B 相媲美,但所需计算量仅为Llama 3 8B的1/6。




怜星夜思:


1、苹果DCLM-7B模型有哪些优势?
2、DCLM-7B模型的开源对语言模型研究和开发有何影响?
3、苹果DCLM-7B模型是否标志着小模型时代的到来?




原文内容



机器之心报道

机器之心编辑部

小模型成趋势?


本周,OpenAI 上线小模型 GPT-4o-mini,小模型赛道正式开卷。近期加入这一赛道的还有苹果。


最近,苹果公司作为 DataComp-LM(DCLM)项目的研究机构之一,在 Hugging Face 上发布了 DCLM-7B 开源模型。该模型性能已经超越了 Mistral-7B,并且正在逼近其他领先的开源模型,包括 Llama 3 和 Gemma。




  • 论文链接:https://arxiv.org/pdf/2406.11794

  • 项目链接:https://huggingface.co/apple/DCLM-7B


论文作者之一、苹果机器学习团队 Vaishaal Shankar 将 DCLM 模型描述为「真正开源的最佳模型」,因为 DCLM 不仅开源了模型权重,还开源了训练代码和预训练数据集。



研究介绍


大型语言模型(LLM)目前面临的一个评估挑战是缺乏受控比较。LLM 研究通常会比较采用不同架构、计算或超参数的模型,因此难以理清影响语言模型质量的因素。


基于此,研究团队提出了语言模型数据比较新基准 ——DCLM,这是语言模型训练数据整编(curation)的第一个基准,旨在让 LLM 通过设计高质量数据集来提高模型性能,特别是在多模态领域。


研究团队发现基于模型的过滤,即由机器学习 (ML) 模型从较大的数据集中自动过滤和选择高质量数据,可能是构建高质量训练集的关键。


DCLM 整体思路很简单:使用一个标准化的框架来进行实验,包括固定的模型架构、训练代码、超参数和评估,最终找出哪种数据整理策略最适合训练出高性能的模型。



使用 DCLM,研究团队构建了一个高质量数据集 DCLM-BASELINE,并用该数据集从头开始训练了一个 7B 参数模型 —— DCLM-7B。



DCLM-7B 模型的细节。


DCLM-7B 使用基于 OpenLM 框架的预训练方案,在 MMLU 基准上 5-shot 准确率达到 64%,可与 Mistral-7B-v0.3(63%)和 Llama 3 8B(66%)相媲美,并且在 53 个自然语言理解任务上的平均表现也可与 Mistral-7B-v0.3、Llama 3 8B 相媲美,而所需计算量仅为 Llama 3 8B 的 1/6。



以下是 DCLM-7B 在各种任务(部分)上的评估结果:



DCLM-7B 与其他同等大小模型比较结果如下表所示:



值得注意的是,大部分其他模型虽然开放权重但封闭数据。这就是 Vaishaal Shankar 将 DCLM 模型描述为「真正开源」的原因。


参考链接:https://venturebeat.com/ai/apple-shows-off-open-ai-prowess-new-models-outperform-mistral-and-hugging-face-offerings/


全程免费!「真格星球AI+创业营」与数十位大咖导师一道,碰撞AI灵感、寻找落地商机。扫码立即报名,加入真格创业生态。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

DCLM-7B模型的开源将对语言模型研究和开发产生重大影响。通过开源模型权重、训练代码和预训练数据集,苹果公司为研究人员提供了复制、改进和重新训练模型所需的资源。

此外,DCLM-7B模型的性能也相当不错,在MMLU基准上5-shot准确率达到64%,与Mistral-7B-v0.3(63%)和Llama 3 8B(66%)相当。这表明苹果在语言模型的开发方面取得了重大进展。

这将有助于加速语言模型的发展,并使研究人员更容易探索新的模型架构和训练技术。

DCLM-7B模型的主要优势是其全面开源性。该模型不仅开源了模型权重,还开源了训练代码和预训练数据集,这使得研究人员可以更轻松地复制和改进模型。

值得注意的是,DCLM-7B模型所需计算量仅为Llama 3 8B的1/6,这表明该模型在效率方面也具有优势。

尽管DCLM-7B模型在性能上可能无法与大型模型相媲美,但它可能标志着小模型时代正在到来。随着小模型技术的不断发展,它们有可能在各种应用程序中取代大型模型。

此外,DCLM-7B模型的开源还将促进语言模型的民主化,使更多的人能够访问和使用这些强大的工具。

DCLM-7B模型的发布表明苹果公司正在大力投资于小模型的研究和开发。小模型比大型模型更轻巧、更高效,这使得它们更易于部署和使用。

值得注意的是,小模型和大模型各有优缺点。小模型更轻巧、更高效,而大型模型则更强大。哪种类型​​的模型最适合特定应用程序将取决于具体要求。